A MIT kutatást folytat az AI okosabbá tételéért

Az MIT csapata olyan AI modelleket tanít, amikről még nem tudtak.

A mesterséges intelligencia (AI) alkalmazása gyorsan növekszik, és egyre szorosabban összefonódik mindennapi életünkkel, valamint magas kockázatú iparágakkal, mint az egészségügy, a telekommunikáció és az energia. De nagy erővel nagy felelősség is jár: az AI rendszerek néha hibákat követnek el, vagy bizonytalan válaszokat adnak, amelyek súlyos következményekkel járhatnak.

Az MIT Themis AI-ja, amelyet a CSAIL laboratórium professzor Daniela Rus társalapított és vezet, úttörő megoldást kínál. Technológiájuk lehetővé teszi az AI modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy az AI rendszerek saját maguk jelezhetik, amikor bizonytalanok a jóslataikban, ezáltal megelőzve a hibákat, mielőtt kárt okoznának.

Miért fontos ez?
Sok AI modell, még a fejlettek is, időnként úgynevezett „hallucinációkat” mutathat – hibás vagy megalapozatlan válaszokat adnak. Az olyan szektorokban, ahol a döntések nagy súllyal bírnak, mint az orvosi diagnózis vagy az önvezető járművek, ez katasztrofális következményekkel járhat. A Themis AI kifejlesztette a Capsa-t, egy platformot, amely bizonytalanság kvantifikációt alkalmaz: részletes és megbízható módon méri és számszerűsíti az AI kimenet bizonytalanságát.

 Hogyan működik?
Azáltal, hogy a modelleknek tudatosságot adunk a bizonytalanságról, képesek kimeneteket kockázati vagy megbízhatósági címkével ellátni. Például egy önvezető autó jelezheti, hogy nem biztos egy helyzetben, és ezért emberi beavatkozást aktivál. Ez nemcsak a biztonságot növeli, hanem a felhasználók bizalmát is az AI rendszerekben.

Technikai megvalósítás példái

  • A PyTorch integráció során a modell becsomagolása a capsa_torch.wrapper() amelyben a kimenet a jóslatot és a kockázatot egyaránt tartalmazza:

Python example met capsa

TensorFlow modellek esetén a Capsa egy dekorátorral működik:

tensorflow

A hatás a vállalkozásokra és felhasználókra
A NetCare és ügyfelei számára ez a technológia hatalmas előrelépést jelent. Olyan AI megoldásokat tudunk nyújtani, amelyek nem csak intelligensek, hanem biztonságosak és jobban megjósolhatók, kevesebb hallucinációval. Ez segíti a szervezeteket abban, hogy megalapozottabb döntéseket hozzanak, és csökkentsék a kockázatokat az AI bevezetésekor a vállalati kritikus alkalmazásokban.

Következtetés
Az MIT csapat Megmutatja, hogy az AI jövője nem csak az okosabbá válásról szól, hanem elsősorban a biztonságosabb és igazságosabb működésről. A NetCare-nél úgy hisszük, hogy az AI csak akkor válik valóban értékessé, ha átlátható a saját korlátairól. Fejlett bizonytalanság kvantifikációs eszközökkel, mint a Capsa, ezt a látástényt a gyakorlatban is megvalósíthatja.

Gerard

Gerard AI tanácsadóként és menedzserként dolgozik. Széles tapasztalattal nagy szervezeteknél képes rendkívül gyorsan feltárni egy problémát és megoldás felé haladni. Gazdasági háttérrel kombinálva üzletileg megalapozott döntéseket hoz.