Tehisintellekti (AI) rakendamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskitasemega valdkondadega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suure võimuga kaasneb suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla tõsised tagajärjed.
Miks on see nii oluline?
Paljud AI-mudelid, isegi arenenud mudelid, võivad mõnikord ilmutada nn hallutsinatsioone – nad annavad ekslikke või põhjendamata vastuseid. Sektorites, kus otsustel on suur kaal, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see tuua kaasa katastroofilisi tagajärgi. Themis AI töötas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist (uncertainty quantification): see mõõdab ja kvantifitseerib AI väljundi ebakindlust detailsel ja usaldusväärsel viisil.
Kuidas see töötab?
Õpetades mudelitele ebakindluse teadvustamist, saavad nad väljunditele lisada riski- või usaldusväärsuse märgise. Näiteks: isejuhtiv auto võib anda märku, et pole olukorras kindel, ja seetõttu aktiveerida inimese sekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust AI-süsteemide vastu.
capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui ka riskist:
Kokkuvõte
MIT meeskond näitab, et AI tulevik ei seisne ainult targemaks saamises, vaid eelkõige ohutumalt ja ausamalt toimimises. NetCare'is usume, et AI muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Täiustatud ebakindluse kvantifitseerimise tööriistadega, nagu Capsa, saate selle visiooni ka praktikas ellu viia.