MIT robí výskum, aby AI bola múdrejšia

Tím MIT učí AI modely, čo ešte nevedeli.

Využívanie umelej inteligencie (AI) rastie rýchlo a čoraz viac sa preplieta s naším každodenným životom a odvetviami s vysokým rizikom, ako sú zdravotníctvo, telekomunikácie a energetika. Avšak s veľkou silou prichádza aj veľká zodpovednosť: AI systémy niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne následky.

Themis AI z MIT, spoluzakladaná a vedená profesorkou Danielou Rus z laboratória CSAIL, ponúka prelomové riešenie. Ich technológia umožňuje AI modelom „vedieť, čo nevedia“. To znamená, že AI systémy môžu samy uviesť, kedy sú neisté vo svojich predpovediach, čím sa chyby môžu zabrániť skôr, než spôsobia škodu.

Prečo je to také dôležité?
Mnoho AI modelov, aj tých najpokročilejších, môže niekedy prejavovať takzvané „halucinácie“ – poskytujú nesprávne alebo neodôvodnené odpovede. V odvetviach, kde rozhodnutia majú veľký význam, ako je lekárska diagnostika alebo autonómne riadenie, môže to mať katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá používa kvantifikáciu neistoty: meria a kvantifikuje neistotu výstupu AI podrobne a spoľahlivo.

 Ako to funguje?
Keď modelom prenesieme povedomie o neistote, môžu ich výstupy obsahovať štítok rizika alebo spoľahlivosti. Napríklad: autonómne auto môže signalizovať, že si nie je isté v danej situácii, a preto aktivovať ľudskú intervenciu. To zvyšuje nielen bezpečnosť, ale aj dôveru používateľov v AI systémy.

Príklady technickej implementácie

  • Pri integrácii s PyTorch ide o zabalenie modelu cez capsa_torch.wrapper() pričom výstup pozostáva z predpovede aj rizika:

Python example met capsa

Pre TensorFlow modely funguje Capsa s dekorátorom:

tensorflow

Vplyv na firmy a používateľov
Pre NetCare a jej zákazníkov predstavuje táto technológia obrovský krok vpred. Môžeme poskytovať AI riešenia, ktoré nie sú len inteligentné, ale aj bezpečné a lepšie predvídateľné s menšou pravdepodobnosťou halucinácií. Pomáha organizáciám robiť lepšie podložené rozhodnutia a znižovať riziká pri nasadzovaní AI do kritických firemných aplikácií.

Záver
MIT tím ukazuje, že budúcnosť AI nespočíva len v tom, že sa stane inteligentnejšou, ale hlavne v tom, že bude fungovať bezpečnejšie a spravodlivejšie. V NetCare veríme, že AI sa stane skutočne hodnotnou až keď bude transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu priniesť aj do praxe.

Gerard

Gerard je aktívny ako AI konzultant a manažér. S bohatou skúsenosťou v veľkých organizáciách dokáže mimoriadne rýchlo rozlúštiť problém a pracovať na riešení. Vďaka ekonomickému zázemiu zabezpečuje obchodne zodpovedné rozhodnutia.