A mesterséges intelligencia (AI) alkalmazása gyorsan növekszik, és egyre szorosabban összefonódik mindennapi életünkkel, valamint magas kockázatú iparágakkal, mint az egészségügy, a telekommunikáció és az energia. De nagy erővel nagy felelősség is jár: az AI rendszerek néha hibákat követnek el, vagy bizonytalan válaszokat adnak, amelyek súlyos következményekkel járhatnak.
Az MIT Themis AI-ja, amelyet a CSAIL laboratórium professzor Daniela Rus társalapított és vezet, úttörő megoldást kínál. Technológiájuk lehetővé teszi az AI modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy az AI rendszerek saját maguk jelezhetik, amikor bizonytalanok a jóslataikban, ezáltal megelőzve a hibákat, mielőtt kárt okoznának.
Miért fontos ez?
Sok AI modell, még a fejlettek is, időnként úgynevezett „hallucinációkat” mutathat – hibás vagy megalapozatlan válaszokat adnak. Az olyan szektorokban, ahol a döntések nagy súllyal bírnak, mint az orvosi diagnózis vagy az önvezető járművek, ez katasztrofális következményekkel járhat. A Themis AI kifejlesztette a Capsa-t, egy platformot, amely bizonytalanság kvantifikációt alkalmaz: részletes és megbízható módon méri és számszerűsíti az AI kimenet bizonytalanságát.
Hogyan működik?
Azáltal, hogy a modelleknek tudatosságot adunk a bizonytalanságról, képesek kimeneteket kockázati vagy megbízhatósági címkével ellátni. Például egy önvezető autó jelezheti, hogy nem biztos egy helyzetben, és ezért emberi beavatkozást aktivál. Ez nemcsak a biztonságot növeli, hanem a felhasználók bizalmát is az AI rendszerekben.
capsa_torch.wrapper() amelyben a kimenet a jóslatot és a kockázatot egyaránt tartalmazza:

Következtetés
Az MIT csapat Megmutatja, hogy az AI jövője nem csak az okosabbá válásról szól, hanem elsősorban a biztonságosabb és igazságosabb működésről. A NetCare-nél úgy hisszük, hogy az AI csak akkor válik valóban értékessé, ha átlátható a saját korlátairól. Fejlett bizonytalanság kvantifikációs eszközökkel, mint a Capsa, ezt a látástényt a gyakorlatban is megvalósíthatja.