MIT doet onderzoek om AI slimmer te maken

Tím MIT učí AI modely to, čo ešte nevedeli.

Použitie umelej inteligencie (AI) rýchlo rastie a stále viac preniká do nášho každodenného života a do odvetví s vysokou zodpovednosťou, ako sú zdravotníctvo, telekomunikácie a energetika. S veľkou mocou však prichádza aj veľká zodpovednosť: AI systémy občas robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne následky.

Themis AI z MIT, spoluzaložená a vedená profesorkou Danielou Rus z laboratória CSAIL, ponúka prelomové riešenie. Ich technológia umožňuje AI modelom „vedieť, čo nevedia“. To znamená, že AI systémy samy dokážu naznačiť, keď sú v svojich predikciách neisté, čo umožňuje zabrániť chybám skôr, než napáchajú škodu.

Prečo je to také dôležité?
Mnohé AI modely, dokonca aj pokročilé, môžu občas vykazovať tzv. „halucinácie“ — poskytujú nesprávne alebo nedôvodnené odpovede. V odvetviach, kde majú rozhodnutia veľkú váhu, ako je lekárska diagnostika alebo autonómna doprava, môže mať to katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá aplikuje kvantifikáciu neistoty: meria a kvantifikuje neistotu výstupu AI podrobným a spoľahlivým spôsobom.

 Ako to funguje?
Tým, že modelom vštepíme povedomie o neistote, môžu označovať svoje výstupy štítkom rizika alebo spoľahlivosti. Napríklad: autonómne vozidlo môže označiť, že si nie je isté ohľadom určitej situácie, a aktivovať ľudský zásah. To zvyšuje nielen bezpečnosť, ale aj dôveru používateľov v AI systémy.

Príklady technickej implementácie

  • Pri integrácii s PyTorch zahŕňa zabalenie modelu cez capsa_torch.wrapper() pričom výstup pozostáva z predikcie aj rizika:

Python example met capsa

Pre TensorFlow modely funguje Capsa pomocou dekorátora:

tensorflow

Dopad pre firmy a používateľov
Pre NetCare a jej klientov znamená táto technológia obrovský krok vpred. Môžeme poskytovať AI riešenia, ktoré nie sú len inteligentné, ale aj bezpečné a predvídateľnejšie s menším rizikom halucinácií. Pomáha to organizáciám robiť lepšie podložené rozhodnutia a znižovať riziká pri zavádzaní AI do kritických podnikových aplikácií.

Záver
MIT tím ukazuje, že budúcnosť AI nespočíva len v tom, aby sa stala inteligentnejšou, ale predovšetkým v tom, aby fungovala bezpečnejšie a spravodlivejšie. V NetCare veríme, že AI je skutočne hodnotná až vtedy, keď je transparentná voči vlastným obmedzeniam. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu uviesť do praxe aj vy.

Gerard

Gerard pôsobí ako AI konzultant a manažér. Vďaka bohatej skúsenosti vo veľkých organizáciách dokáže veľmi rýchlo rozkliačovať problém a smerovať k riešeniu. V kombinácii s ekonomickým zázemím zabezpečuje obchodne opodstatnené rozhodnutia.