MIT team at work

MIT-Team bringt KI-Modellen bei, was sie noch nicht wussten.

Der Einsatz von Künstlicher Intelligenz (KI) wächst rasant und ist zunehmend in unserem Alltag und in kritischen Branchen wie dem Gesundheitswesen, der Telekommunikation und der Energieversorgung verankert. Doch mit großer Macht kommt auch große Verantwortung: KI-Systeme machen manchmal Fehler oder geben unsichere Antworten, die schwerwiegende Folgen haben können.

MITs Themis AI, mitbegründet und geleitet von Professorin Daniela Rus vom CSAIL-Labor, bietet eine bahnbrechende Lösung. Ihre Technologie ermöglicht es KI-Modellen, „zu wissen, was sie nicht wissen“. Das bedeutet, dass KI-Systeme selbst anzeigen können, wann sie sich ihrer Vorhersagen unsicher sind, wodurch Fehler vermieden werden können, bevor sie Schaden anrichten.

Warum ist das so wichtig?
Viele KI-Modelle, selbst fortgeschrittene, können manchmal sogenannte „Halluzinationen“ aufweisen – sie geben fehlerhafte oder unbegründete Antworten. In Sektoren, in denen Entscheidungen schwerwiegend sind, wie z. B. bei der medizinischen Diagnose oder dem autonomen Fahren, kann dies katastrophale Folgen haben. Themis AI entwickelte Capsa, eine Plattform, die Unsicherheitsquantifizierung anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ausgaben auf detaillierte und zuverlässige Weise.

 Wie funktioniert es?
Indem Modellen Unsicherheitsbewusstsein vermittelt wird, können sie Ausgaben mit einem Risiko- oder Zuverlässigkeitslabel versehen. Zum Beispiel: Ein selbstfahrendes Auto kann angeben, dass es sich einer Situation unsicher ist und daher eine menschliche Intervention aktivieren. Dies erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Benutzer in KI-Systeme.

Beispiele für die technische Implementierung

  • Bei der Integration mit PyTorch erfolgt das Wrappen des Modells über capsa_torch.wrapper(), wobei die Ausgabe sowohl die Vorhersage als auch das Risiko umfasst:

Python example met capsa

Für TensorFlow-Modelle arbeitet Capsa mit einem Dekorator:

tensorflow

Die Auswirkungen für Unternehmen und Benutzer
Für NetCare und ihre Kunden bedeutet diese Technologie einen enormen Fortschritt. Wir können KI-Anwendungen liefern, die nicht nur intelligent, sondern auch sicher und besser vorhersagbar sind, mit geringerer Wahrscheinlichkeit von Halluzinationen. Es hilft Organisationen, fundiertere Entscheidungen zu treffen und Risiken bei der Einführung von KI in geschäftskritischen Anwendungen zu reduzieren.

Fazit
Das MIT Team zeigt, dass die Zukunft der KI nicht nur darin besteht, intelligenter zu werden, sondern vor allem auch sicherer und fairer zu funktionieren. Bei NetCare glauben wir, dass KI erst dann wirklich wertvoll wird, wenn sie transparent über ihre eigenen Einschränkungen ist. Mit fortschrittlichen Unsicherheitsquantifizierungs-Tools wie Capsa können Sie diese Vision auch in die Praxis umsetzen.

Gerard

Gerard

Gerard ist als KI-Berater und Manager tätig. Mit seiner umfangreichen Erfahrung in großen Organisationen kann er ein Problem besonders schnell entschlüsseln und auf eine Lösung hinarbeiten. In Kombination mit seinem wirtschaftlichen Hintergrund sorgt er für geschäftlich fundierte Entscheidungen.

AIR (Artificial Intelligence Robot)