Uporaba umetne inteligence (AI) hitro raste in postaja vse bolj prepletena z našim vsakdanjim življenjem ter z visokorizičnimi panogami, kot so zdravstvena oskrba, telekomunikacije in energetika. Toda z veliko močjo pride tudi velika odgovornost: AI-sistemi včasih delajo napake ali dajejo negotove odgovore, ki lahko imajo velike posledice.
Themis AI z MIT-a, soustanovljena in vodena tudi s strani profesorice Daniele Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom AI, da 'vedo, česar ne vedo'. To pomeni, da lahko AI-sistemi sami nakažejo, kdaj so negotovi glede svojih napovedi, s čimer je mogoče preprečiti napake, preden povzročijo škodo.
Zakaj je to tako pomembno?
Veliko modelov AI, tudi naprednih, včasih kaže t.i. 'halucinacije' — dajejo napačne ali neutemeljene odgovore. V panogah, kjer so odločitve ključnega pomena, kot sta medicinska diagnostika ali avtonomna vožnja, ima to lahko katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost AI-izhodov na podroben in zanesljiv način.
Kako deluje?
Z učenjem modelov zavedanja negotovosti jim lahko dodamo oceno tveganja ali zanesljivosti pri izhodih. Na primer: avtonomno vozilo lahko nakaže, da ni prepričano glede določene situacije in zato sproži človeško posredovanje. To poveča ne le varnost, temveč tudi zaupanje uporabnikov v AI-sisteme.
capsa_torch.wrapper() pri čemer je izhod sestavljen tako iz napovedi kot iz ocene tveganja:

Zaključek
MIT ekipa Pokaže, da prihodnost AI ni samo v tem, da postane pametnejša, temveč predvsem, da deluje varneje in pravičneje. V podjetju NetCare verjamemo, da ima AI resnično vrednost šele, ko je transparentna glede svojih lastnih omejitev. S sodobnimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.