Az MIT kutatást végez az MI okosabbá tétele érdekében

A MIT csapata olyasmiket tanít az AI modelleknek, amit azok még nem tudtak.

A mesterséges intelligencia (MI) alkalmazása gyorsan növekszik, és egyre szorosabban beépül mindennapi életünkbe, valamint az olyan kritikus iparágakba, mint az egészségügy, a távközlés és az energia. De nagy erővel nagy felelősség is jár: az MI-rendszerek néha hibáznak, vagy bizonytalan válaszokat adnak, amelyek komoly következményekkel járhatnak.

A MIT Themis AI-ja, amelyet Daniela Rus professzor (CSAIL labor) társalapított és vezet, áttörést hozó megoldást kínál. Technológiájuk lehetővé teszi az MI-modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy az MI-rendszerek maguk jelezhetik, ha bizonytalanok a jóslataikkal kapcsolatban, így megelőzhetők a károkat okozó hibák.

Miért olyan fontos ez?
Sok MI-modell, még a fejlettebbek is, hajlamosak úgynevezett „hallucinációkra” – hibás vagy megalapozatlan válaszokat adnak. Azokban az ágazatokban, ahol a döntések súlyos következményekkel járnak, mint például az orvosi diagnosztika vagy az autonóm vezetés, ez katasztrofális következményekkel járhat. A Themis AI kifejlesztette a Capsa platformot, amely az „uncertainty quantification”-t (bizonytalanság kvantifikálása) alkalmazza: részletes és megbízható módon méri és kvantifikálja az MI kimenetének bizonytalanságát.

 Hogyan működik?
A modellek bizonytalanságtudatosságának beépítésével a kimeneteket kockázati vagy megbízhatósági címkével láthatjuk el. Például egy önvezető autó jelezheti, hogy nem biztos egy adott helyzetben, és ezért emberi beavatkozást aktiválhat. Ez nemcsak a biztonságot növeli, hanem a felhasználók bizalmát is erősíti az AI-rendszerekben.

Technikai implementációs példák

  • A PyTorch-csal való integráció során a modell becsomagolása a következő módon történik capsa_torch.wrapper() melynek kimenete az előrejelzés és a kockázat egyaránt:

Python example met capsa

A TensorFlow modellekhez a Capsa egy dekorátort használ:

tensorflow

A hatás vállalatokra és felhasználókra
A NetCare és ügyfelei számára ez a technológia hatalmas előrelépést jelent. Olyan MI-alkalmazásokat tudunk biztosítani, amelyek nemcsak intelligensek, hanem biztonságosak és jobban előre láthatók, kevesebb hallucinációval. Segíti a szervezeteket a megalapozottabb döntéshozatalban és a kockázatok csökkentésében az üzletkritikus alkalmazásokba történő MI bevezetése során.

Következtetés
Az MIT csapat megmutatja, hogy az AI jövője nem csupán arról szól, hogy okosabb legyen, hanem mindenekelőtt arról, hogy biztonságosabban és tisztességesebben működjön. A NetCare-nél hiszünk abban, hogy az AI csak akkor válik igazán értékelhetővé, ha átlátható a saját korlátaival kapcsolatban. Az olyan fejlett bizonytalanság-kvantifikációs eszközökkel, mint a Capsa, Ön is gyakorlatba ültetheti ezt a víziót.

Gerard

Gerard AI tanácsadóként és vezetőként tevékenykedik. Nagy szervezeteknél szerzett széleskörű tapasztalatával rendkívül gyorsan képes feltárni a problémákat és megoldások felé haladni. Gazdasági hátterével ötvözve biztosítja az üzletileg megalapozott döntéseket.

AIR (Mesterséges Intelligencia Robot)