Die Anwendung von künstlicher Intelligenz (KI) wächst rasant und ist zunehmend mit unserem täglichen Leben sowie mit hochsensiblen Branchen wie dem Gesundheitswesen, der Telekommunikation und der Energiewirtschaft verwoben. Doch mit großer Macht kommt auch große Verantwortung: KI-Systeme machen manchmal Fehler oder liefern unsichere Antworten, die schwerwiegende Folgen haben können.
Warum ist das so wichtig?
Viele KI-Modelle, selbst hochentwickelte, können gelegentlich sogenannte „Halluzinationen“ aufweisen – sie geben fehlerhafte oder unbegründete Antworten. In Sektoren, in denen Entscheidungen ein hohes Gewicht haben, wie bei medizinischen Diagnosen oder beim autonomen Fahren, kann dies katastrophale Folgen haben. Themis AI hat Capsa entwickelt, eine Plattform, die Uncertainty Quantification (Unsicherheitsquantifizierung) anwendet: Sie misst und quantifiziert die Unsicherheit von KI-Ausgaben auf detaillierte und zuverlässige Weise.
Wie funktioniert es?
Indem man Modellen ein Bewusstsein für Unsicherheit vermittelt, können sie ihre Ausgaben mit einem Risiko- oder Zuverlässigkeitslabel versehen. Zum Beispiel: Ein selbstfahrendes Auto kann signalisieren, dass es sich in einer Situation unsicher ist, und daher ein menschliches Eingreifen anfordern. Dies erhöht nicht nur die Sicherheit, sondern auch das Vertrauen der Nutzer in KI-Systeme.
capsa_torch.wrapper() wobei die Ausgabe sowohl aus der Vorhersage als auch aus dem Risiko besteht:
Fazit
Das MIT Team zeigt, dass es bei der Zukunft der KI nicht nur darum geht, intelligenter zu werden, sondern vor allem darum, sicherer und fairer zu funktionieren. Bei NetCare glauben wir, dass KI erst dann wirklich wertvoll wird, wenn sie transparent mit ihren eigenen Grenzen umgeht. Mit fortschrittlichen Tools zur Unsicherheitsquantifizierung wie Capsa können Sie diese Vision auch in die Praxis umsetzen.