MIT skúma, ako urobiť AI inteligentnejšou

Tím MIT učí AI modely to, čo ešte nevedeli.

Aplikácia umelej inteligencie (AI) rýchlo rastie a čoraz viac sa prelína s naším každodenným životom a kľúčovými odvetviami, ako sú zdravotníctvo, telekomunikácie a energetika. Avšak s veľkou mocou prichádza aj veľká zodpovednosť: systémy AI niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne dôsledky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratória CSAIL, prináša prelomové riešenie. Ich technológia umožňuje AI modelom „vedieť, čo nevedia“. To znamená, že systémy AI dokážu samy signalizovať, kedy si nie sú isté svojimi predpoveďami, čím sa predchádza chybám skôr, ako spôsobia škodu.

Prečo je to také dôležité?
Mnohé AI modely, aj tie pokročilé, môžu občas vykazovať tzv. „halucinácie“ – poskytujú nesprávne alebo nepodložené odpovede. V sektoroch, kde sú rozhodnutia kritické, ako je lekárska diagnostika alebo autonómne riadenie, to môže mať katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá aplikuje kvantifikáciu neistoty (uncertainty quantification): meria a kvantifikuje neistotu výstupu AI podrobným a spoľahlivým spôsobom.

 Ako to funguje?
Zavedením povědomí o nejistotě do modelů je možné vybavit jejich výstupy štítkem rizika nebo spolehlivosti. Například autonomní vozidlo může signalizovat, že si není jisté určitou situací, a proto aktivovat zásah člověka. To nejen zvyšuje bezpečnost, ale také důvěru uživatelů v systémy umělé inteligence.

Príklady technickej implementácie

  • Pri integrácii s PyTorchom ide o zabalenie modelu cez capsa_torch.wrapper() pričom výstup pozostáva z predpovede aj rizika:

Python example met capsa

Pre modely TensorFlow používa Capsa dekorátor:

tensorflow

Vplyv na spoločnosti a používateľov
Pre spoločnosť NetCare a jej klientov predstavuje táto technológia obrovský krok vpred. Dokážeme dodávať aplikácie umelej inteligencie, ktoré sú nielen inteligentné, ale aj bezpečné a lepšie predvídateľné s menšou pravdepodobnosťou halucinácií. Pomáha organizáciám robiť lepšie informované rozhodnutia a znižovať riziká pri zavádzaní AI do kritických podnikových aplikácií.

Záver
MIT tím ukazuje, že budúcnosť AI sa netýka len toho, aby sa stala inteligentnejšou, ale predovšetkým bezpečnejšou a spravodlivejšou. V NetCare veríme, že AI sa stane skutočne cennou až vtedy, keď bude transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu uviesť do praxe aj vy.

Gerard

Gerard pôsobí ako konzultant a manažér v oblasti AI. Vďaka rozsiahlym skúsenostiam vo veľkých organizáciách dokáže mimoriadne rýchlo rozpliesť problém a dospieť k riešeniu. V kombinácii s ekonomickým zázemím zabezpečuje obchodne zodpovedné rozhodnutia.

AIR (Robot s umelou inteligenciou)