Tehisintellekti (AI) kasutamine kasvab kiiresti ja põimub üha enam meie igapäevaelu ning kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energia. Kuid suure võimuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, mis võivad kaasa tuua tõsiseid tagajärgi.
MIT Themis AI, mida asutas ja juhib professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI mudelitel ‘teada, mida nad ei tea’. See tähendab, et AI-süsteemid saavad ise märkida, millal nad on oma prognooside suhtes ebakindlad, vältides vigu enne, kui need kahju tekitavad.
Miks see on nii oluline?
Paljud AI mudelid, isegi kõige arenenumad, võivad mõnikord näidata niinimetatud ‘hallutsinatsioone’ – nad annavad ekslikke või põhjendamatuid vastuseid. Valdkondades, kus otsused on kriitilised, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see põhjustada katastroofilisi tagajärgi. Themis AI lõi Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikult ja usaldusväärselt.
Kuidas see töötab?
Kui mudelitele õpetada ebakindluse teadlikkust, saavad nad varustada väljundid riski- või usaldusväärsuse märgisega. Näiteks võib isesõitv auto märkida, et ta ei ole kindel olukorras, ja seetõttu käivitada inimese sekkumise. See suurendab mitte ainult turvalisust, vaid ka kasutajate usaldust AI-süsteemide vastu.
capsa_torch.wrapper() kus väljund koosneb nii prognoosist kui ka riskist:

Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks muutumises, vaid eelkõige turvalisemaks ja õiglasemaks toimimises. NetCare usub, et AI muutub tõeliselt väärtuslikuks ainult siis, kui see on oma piirangute suhtes läbipaistev. Tänu täiustatud ebakindluse kvantifitseerimise tööriistadele, nagu Capsa, saate seda visiooni ka praktikas ellu viia.