Az MIT kutatja az MI okosabbá tételét

MIT csapat olyan AI modelleket tanít, amiket korábban nem ismertek.

A mesterséges intelligencia (MI) alkalmazása gyorsan terjed, és egyre szorosabban beépül mindennapi életünkbe, valamint az olyan kritikus iparágakba, mint az egészségügy, a távközlés és az energia. De nagy erővel nagy felelősség is jár: az MI-rendszerek néha hibáznak, vagy bizonytalan válaszokat adnak, amelyek komoly következményekkel járhatnak.

Az MIT Themis AI-ja, amelyet Daniela Rus professzor (CSAIL labor) társalapított és vezet, áttörést hozó megoldást kínál. Technológiájuk lehetővé teszi az MI-modellek számára, hogy „tudják, mit nem tudnak”. Ez azt jelenti, hogy az MI-rendszerek maguk jelezhetik, ha bizonytalanok a jóslataikkal kapcsolatban, így megelőzhetők a károkat okozó hibák.

Miért olyan fontos ez?
Sok MI-modell, még a fejlettebbek is, időnként úgynevezett „hallucinációkat” produkálhatnak – hibás vagy megalapozatlan válaszokat adnak. Azokban az ágazatokban, ahol a döntések súlyos következményekkel járnak, mint például az orvosi diagnosztika vagy az autonóm vezetés, ez katasztrofális kimenetelű lehet. A Themis AI kifejlesztette a Capsa platformot, amely alkalmazza az „uncertainty quantification”-t (bizonytalanság kvantifikálása): részletes és megbízható módon méri és számszerűsíti az MI kimenetének bizonytalanságát.

 Hogyan működik?
Azáltal, hogy a modellekbe beépítjük a bizonytalanság tudatosságát, a kimeneteket kockázati vagy megbízhatósági címkével láthatjuk el. Például egy önvezető autó jelezheti, hogy nem biztos egy adott helyzetben, és ezért emberi beavatkozást aktiválhat. Ez nemcsak a biztonságot növeli, hanem a felhasználók AI-rendszerekbe vetett bizalmát is erősíti.

Technikai megvalósítás

  • A PyTorch-csal való integráció során a modell becsomagolása a következőképpen történik: capsa_torch.wrapper() melynek kimenete mind az előrejelzést, mind a kockázatot tartalmazza:

Python example met capsa

A TensorFlow modellekhez a Capsa egy dekorátort használ:

TensorFlow

A hatás vállalatokra és felhasználókra
A NetCare és ügyfelei számára ez a technológia hatalmas előrelépést jelent. Olyan MI-alkalmazásokat tudunk biztosítani, amelyek nemcsak intelligensek, hanem biztonságosak és jobban kiszámíthatóak is, csökkentve a hallucinációk kockázatát. Segíti a szervezeteket megalapozottabb döntések meghozatalában és a kockázatok csökkentésében az üzletkritikus alkalmazásokba történő MI bevezetése során.

Konklúzió
Az MIT Csapat megmutatja, hogy az AI jövője nem csupán az okosabbá válásról szól, hanem elsősorban a biztonságosabb és tisztességesebb működésről. A NetCare-nél hiszünk abban, hogy az AI csak akkor válik igazán értékessé, ha átlátható a saját korlátaival kapcsolatban. Az olyan fejlett bizonytalanság-kvantifikáló eszközökkel, mint a Capsa, Ön is megvalósíthatja ezt a víziót a gyakorlatban.

Gerard

Gerard AI tanácsadóként és vezetőként tevékenykedik. Nagy szervezeteknél szerzett széleskörű tapasztalatával rendkívül gyorsan képes feltárni a problémákat és megoldások felé haladni. Gazdasági hátterével párosítva üzletileg megalapozott döntéseket biztosít.

MI (Mesterséges Intelligencia Robot)