Tehisintellekti (AI) kasutamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energia. Kuid suure võimuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, mis võivad põhjustada tõsiseid tagajärgi.
Miks see on nii oluline?
Paljud AI mudelid, isegi täiustatud, võivad mõnikord näidata niinimetatud „hallutsinatsioone“ — nad annavad ekslikke või põhjendamatuid vastuseid. Sektoritena, kus otsused on väga olulised, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see põhjustada katastroofilisi tagajärgi. Themis AI lõi Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikult ja usaldusväärselt.
Kuidas see töötab?
Kui mudelitele õpetada ebakindluse teadlikkust, saavad nad väljunditele lisada riski- või usaldusväärsuse sildi. Näiteks võib isesõitv auto märkida, et ta ei ole olukorra suhtes kindel, ja seetõttu käivitada inimese sekkumise. See suurendab mitte ainult turvalisust, vaid ka kasutajate usaldust AI-süsteemide vastu.
capsa_torch.wrapper() kus väljund koosneb nii prognoosist kui ka riskist:
Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks muutumises, vaid eelkõige turvalisemaks ja õiglasemaks toimimises. NetCare usub, et AI muutub tõeliselt väärtuslikuks ainult siis, kui see on oma piirangute suhtes läbipaistev. Tänu täiustatud ebakindluse kvantifitseerimise tööriistadele, nagu Capsa, saate seda visiooni ka praktikas ellu viia.