Využívanie umelej inteligencie (AI) rastie rýchlo a čoraz viac sa preplieta s naším každodenným životom a odvetviami s vysokým rizikom, ako sú zdravotníctvo, telekomunikácie a energetika. Avšak s veľkou silou prichádza aj veľká zodpovednosť: AI systémy niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne následky.
Themis AI z MIT, spoluzakladaná a vedená profesorkou Danielou Rus z laboratória CSAIL, ponúka prelomové riešenie. Ich technológia umožňuje AI modelom „vedieť, čo nevedia“. To znamená, že AI systémy môžu samy uviesť, kedy sú neisté vo svojich predpovediach, čím sa chyby môžu zabrániť skôr, než spôsobia škodu.
Prečo je to také dôležité?
Mnoho AI modelov, aj tých najpokročilejších, môže niekedy prejavovať takzvané „halucinácie“ – poskytujú nesprávne alebo neodôvodnené odpovede. V odvetviach, kde rozhodnutia majú veľký význam, ako je lekárska diagnostika alebo autonómne riadenie, môže to mať katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá používa kvantifikáciu neistoty: meria a kvantifikuje neistotu výstupu AI podrobne a spoľahlivo.
Ako to funguje?
Keď modelom prenesieme povedomie o neistote, môžu ich výstupy obsahovať štítok rizika alebo spoľahlivosti. Napríklad: autonómne auto môže signalizovať, že si nie je isté v danej situácii, a preto aktivovať ľudskú intervenciu. To zvyšuje nielen bezpečnosť, ale aj dôveru používateľov v AI systémy.
capsa_torch.wrapper() pričom výstup pozostáva z predpovede aj rizika:

Záver
MIT tím ukazuje, že budúcnosť AI nespočíva len v tom, že sa stane inteligentnejšou, ale hlavne v tom, že bude fungovať bezpečnejšie a spravodlivejšie. V NetCare veríme, že AI sa stane skutočne hodnotnou až keď bude transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu priniesť aj do praxe.