MIT doet onderzoek om AI slimmer te maken

MIT-Team bringt KI-Modellen bei, was sie noch nicht wussten.

Der Einsatz künstlicher Intelligenz (KI) wächst rasant und durchdringt zunehmend unser tägliches Leben sowie Branchen mit hohem Risiko wie Gesundheitswesen, Telekommunikation und Energie. Mit großer Macht kommt jedoch auch große Verantwortung: KI-Systeme machen gelegentlich Fehler oder liefern unsichere Antworten, die weitreichende Folgen haben können.

MITs Themis AI, mitbegründet und geleitet von Professor Daniela Rus vom CSAIL-Labor, bietet eine bahnbrechende Lösung. Ihre Technologie ermöglicht es KI-Modellen, ‚zu wissen, was sie nicht wissen‘. Das bedeutet, dass KI-Systeme selbst anzeigen können, wenn sie unsicher sind hinsichtlich ihrer Vorhersagen, wodurch Fehler verhindert werden können, bevor sie Schaden anrichten.

Warum ist das so wichtig?
Viele KI-Modelle, selbst fortschrittliche, können gelegentlich sogenannte ‚Halluzinationen‘ zeigen — sie liefern fehlerhafte oder unbegründete Antworten. In Bereichen, in denen Entscheidungen schwerwiegende Konsequenzen haben, wie medizinische Diagnosen oder autonomes Fahren, kann das katastrophale Folgen haben. Themis AI entwickelte Capsa, eine Plattform, die Uncertainty Quantification anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ausgaben auf eine detaillierte und verlässliche Weise.

 Wie funktioniert das?
Indem Modellen Uncertainty Awareness vermittelt wird, können sie Ausgaben mit einem Risiko- oder Vertrauenslabel versehen. Zum Beispiel kann ein selbstfahrendes Auto anzeigen, dass es sich in einer Situation unsicher ist und daher eine menschliche Intervention aktivieren. Das erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Nutzer in KI-Systeme.

Beispiele für technische Implementierung

  • Bei der Integration mit PyTorch erfolgt das Wrapping des Modells über capsa_torch.wrapper() wobei die Ausgabe sowohl aus der Vorhersage als auch aus dem Risiko besteht:

Python example met capsa

Für TensorFlow-Modelle arbeitet Capsa mit einem Decorator:

tensorflow

Die Auswirkungen für Unternehmen und Nutzer
Für NetCare und seine Kunden bedeutet diese Technologie einen enormen Fortschritt. Wir können KI-Anwendungen liefern, die nicht nur intelligent sind, sondern auch sicherer und besser vorhersagbar mit geringerer Wahrscheinlichkeit für Halluzinationen. Sie unterstützt Organisationen dabei, fundiertere Entscheidungen zu treffen und Risiken beim Einsatz von KI in geschäftskritischen Anwendungen zu reduzieren.

Fazit
Das MIT Team zeigt, dass die Zukunft der KI nicht nur darin besteht, schlauer zu werden, sondern vor allem sicherer und gerechter zu funktionieren. Bei NetCare sind wir der Ansicht, dass KI erst dann echten Mehrwert liefert, wenn sie transparent über ihre eigenen Grenzen ist. Mit fortschrittlichen Uncertainty-Quantification-Tools wie Capsa können Sie diese Vision auch in der Praxis umsetzen.

Gerard

Gerard ist als AI-Berater und Manager tätig. Mit umfangreicher Erfahrung in großen Organisationen kann er ein Problem sehr schnell analysieren und auf eine Lösung hinarbeiten. In Kombination mit einem wirtschaftlichen Hintergrund sorgt er für betriebswirtschaftlich sinnvolle Entscheidungen.