Aplikácia umelej inteligencie (AI) rastie rýchlo a čoraz viac sa preplieta s naším každodenným životom a odvetviami s vysokým rizikom, ako sú zdravotníctvo, telekomunikácie a energetika. Ale s veľkou silou prichádza aj veľká zodpovednosť: AI systémy niekedy robia chyby alebo poskytujú neisté odpovede, ktoré môžu mať vážne následky.
Prečo je to také dôležité?
Mnoho AI modelov, aj pokročilých, môže niekedy vykazovať takzvané „halucinácie“ — poskytujú nesprávne alebo neodôvodnené odpovede. V odvetviach, kde rozhodnutia majú veľký význam, ako je lekárska diagnostika alebo autonómne riadenie, môže to mať katastrofálne následky. Themis AI vyvinula Capsa, platformu, ktorá používa kvantifikáciu neistoty: meria a kvantifikuje neistotu výstupu AI podrobne a spoľahlivo.
Ako to funguje?
Ak modelom poskytneme povedomie o neistote, môžu ich výstupy obsahovať štítok rizika alebo spoľahlivosti. Napríklad: autonómne auto môže signalizovať, že si nie je isté situáciou, a preto aktivovať ľudskú intervenciu. To zvyšuje nielen bezpečnosť, ale aj dôveru používateľov v AI systémy.
capsa_torch.wrapper() pričom výstup pozostáva z predikcie aj rizika:
Záver
MIT tím ukazuje, že budúcnosť AI nespočíva len v tom, že sa stane inteligentnejšou, ale hlavne v tom, že bude fungovať bezpečnejšie a spravodlivejšie. V NetCare veríme, že AI sa stane skutočne hodnotnou až keď bude transparentná ohľadom svojich vlastných obmedzení. S pokročilými nástrojmi na kvantifikáciu neistoty, ako je Capsa, môžete túto víziu tiež uviesť do praxe.