Tehisintellekti (AI) kasutamine kasvab kiiresti ja on üha enam põimunud meie igapäevaelu ja kõrge riskiga tööstusharudega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suurele väele kaasneb ka suur vastutus: tehisintellekti süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla suured tagajärjed.
MIT-i Themis AI, mille kaasasutaja ja juht on professor Daniela Rus CSAIL-laborist, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI-mudelitel „teada, mida nad ei tea“. See tähendab, et tehisintellekti süsteemid saavad ise anda märku, kui nad on oma ennustustes ebakindlad, võimaldades vältida vigu enne, kui need kahju tekitavad.
Miks see nii oluline on?
Paljud AI-mudelid, isegi keerukad, võivad aeg-ajalt ilmutada nn „hallutsinatsioone“ – nad annavad valesid või põhjendamatuid vastuseid. Valdkondades, kus otsustel on suur kaal, nagu meditsiiniline diagnoos või autonoomne sõit, võib see olla katastroofiliste tagajärgedega. Themis AI arendas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist (uncertainty quantification): see mõõdab ja kvantifitseerib AI väljundi ebakindlust üksikasjalikul ja usaldusväärsel viisil.
Kuidas see töötab?
Mudelitele ebakindluse teadlikkuse õpetamisega saab väljunditele lisada riski- või usaldusväärsusmärgise. Näiteks võib isejuhtiv auto anda märku, et ta ei ole olukorras kindel, ja seetõttu aktiveerida inimsekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust tehisintellekti süsteemidesse.
capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui ka riskist:

Kokkuvõte
MIT meeskond näitab, et tehisintellekti tulevik ei seisne ainult targemaks saamises, vaid eelkõige ka turvalisemas ja õiglasemas toimimises. NetCare'is usume, et tehisintellekt muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Tänu sellistele täiustatud ebakindluse kvantifitseerimise tööriistadele nagu Capsa saate seda visiooni ka praktikas ellu viia.