Tehisintellekti (AI) kasutus kasvab kiiresti ja muutub üha enam lõimunuks meie igapäevaeluga ning kõrge riskiga tööstusharudega nagu tervishoid, telekommunikatsioon ja energia. Kuid suure jõuga kaasneb ka suur vastutus: AI-süsteemid teevad mõnikord vigu või annavad ebakindlaid vastuseid, millel võib olla tõsiseid tagajärgi.
MITi Themis AI, mida kaasasutab ja juhib CSAIL-labori professori Daniela Rus, pakub läbimurdelist lahendust. Nende tehnoloogia võimaldab AI-mudelitel „teada, mida nad ei tea“. See tähendab, et AI-süsteemid suudavad ise märgata, kui nad on oma ennustustes ebakindlad, võimaldades vigu ennetada enne, kui need kahju tekitavad.
Miks on see nii oluline?
Paljud AI-mudelid, isegi arenenud mudelid, võivad mõnikord näidata nii-öelda „hallutsinatsioone“ — nad annavad vale või põhjendamata vastuseid. Otsuste võtmisel, kus panused on kõrged, näiteks meditsiinidiagnostika või autonoomne sõit, võib see kaasa tuua katastroofilisi tagajärgi. Themis AI arendas Capsa platvormi, mis rakendab ebakindluse kvantifitseerimist: see mõõdab ja kvantifitseerib AI-väljundi ebakindlust detailse ja usaldusväärse lähenemisega.
Kuidas see toimib?
Õpetades mudelitele ebakindluse teadlikkust, saavad need varustada väljundeid riskivõi usaldusväärsusmärgendiga. Näiteks võib isesõitev auto märkida, et ta ei ole mingi olukorra suhtes kindel, ja seetõttu kutsuda esile inimsekkumise. See tõstab mitte ainult ohutust, vaid ka kasutajate usaldust AI-süsteemide vastu.
capsa_torch.wrapper() kus väljund koosneb nii ennustusest kui riskist:

Järeldus
MIT meeskond näitab, et AI tulevik ei seisne ainult nutikamaks saamisel, vaid eelkõige turvalisemal ja õiglasemal toimimisel. NetCare’is usume, et AI muutub tõeliselt väärtuslikuks alles siis, kui see on oma piiride osas läbipaistev. Täpsema ebakindluse kvantifitseerimise tööriistade, nagu Capsa, abil saate selle visiooni ka praktikas rakendada.