Uporaba umetne inteligence (AI) hitro narašča in postaja vse bolj prepletena z našim vsakdanjim življenjem ter ključnimi industrijami, kot so zdravstvo, telekomunikacije in energetika. Toda z veliko močjo pride tudi velika odgovornost: AI-sistemi včasih delajo napake ali dajejo negotove odgovore, ki lahko imajo velike posledice.
Themis AI z MIT-a, soustanovljena in vodena s strani profesorice Daniele Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom AI, da »vedo, česar ne vedo«. To pomeni, da lahko AI-sistemi sami sporočijo, kdaj so negotovi glede svojih napovedi, kar omogoča preprečevanje napak, preden povzročijo škodo.
Zakaj je to tako pomembno?
Veliko AI-modelov, tudi naprednih, včasih kaže t. i. »halucinacije« — dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer imajo odločitve velike posledice, kot so medicinska diagnostika ali avtonomna vožnja, so lahko te napake katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost AI-izhodov na podroben in zanesljiv način.
Kako deluje?
Z učenjem modelov zavesti o negotovosti lahko opremijo izhode z oznako tveganja ali zanesljivosti. Na primer: samovozeče vozilo lahko sporoči, da ni prepričano v določeno situacijo, in tako sproži človeško intervencijo. To povečuje ne le varnost, ampak tudi zaupanje uporabnikov v AI-sisteme.
capsa_torch.wrapper() kjer je izhod sestavljen tako iz napovedi kot iz ocene tveganja:

Zaključek
MIT ekipa dokazuje, da prihodnost AI ni le v tem, da postaja pametnejša, temveč predvsem v tem, da deluje varneje in pravičnejše. Pri NetCare verjamemo, da AI postane resnično vredna šele, ko je transparentna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.