Tehisintellekti (AI) rakendamine kasvab kiiresti ning muutub üha enam põimituks meie igapäevaelu ja kõrge riskitasemega valdkondadega, nagu tervishoid, telekommunikatsioon ja energeetika. Kuid suure võimuga kaasneb suur vastutus: tehisintellektisüsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võivad olla tõsised tagajärjed.
Miks on see nii oluline?
Paljud tehisintellekti mudelid, isegi arenenud mudelid, võivad mõnikord ilmutada nn hallutsinatsioone – nad annavad ekslikke või põhjendamata vastuseid. Sektorites, kus otsustel on suur kaal, nagu meditsiiniline diagnoosimine või autonoomne sõitmine, võib see tuua kaasa katastroofilisi tagajärgi. Themis AI töötas välja Capsa, platvormi, mis rakendab ebakindluse kvantifitseerimist (uncertainty quantification): see mõõdab ja kvantifitseerib tehisintellekti väljundi ebakindlust detailsel ja usaldusväärsel viisil.
Kuidas see töötab?
Õpetades mudelitele ebakindluse teadvustamist, saavad nad väljunditele lisada riski- või usaldusväärsuse märgise. Näiteks: isejuhtiv auto võib anda märku, et pole olukorras kindel, ja seetõttu aktiveerida inimese sekkumise. See suurendab mitte ainult ohutust, vaid ka kasutajate usaldust tehisintellektisüsteemide vastu.
capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui ka riskist:
Kokkuvõte
MIT-i meeskond näitab, et tehisintellekti tulevik ei seisne ainult nutikamaks muutumises, vaid eelkõige ohutumas ja ausamas toimimises. NetCare'is usume, et tehisintellekt muutub tõeliselt väärtuslikuks alles siis, kui see on oma piirangute osas läbipaistev. Täiustatud ebakindluse kvantifitseerimise tööriistadega, nagu Capsa, saate selle visiooni ka praktikas ellu viia.