Uporaba umetne inteligence (AI) hitro raste in postaja vse bolj prepletena z našim vsakodnevnim življenjem ter industrijami z visokimi tveganji, kot so zdravstvo, telekomunikacije in energija. Toda z veliko močjo prihaja tudi velika odgovornost: AI sistemi včasih delajo napake ali dajejo neodločene odgovore, ki lahko imajo velike posledice.
MIT-ova Themis AI, soustanovljena in vodena s profesorico Danielo Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča AI modelom, da ‘vedo, česar ne vedo’. To pomeni, da AI sistemi sami lahko označijo, ko so negotovi glede svojih napovedi, s čimer se napake preprečijo, preden povzročijo škodo.
Zakaj je to tako pomembno?
Številni AI modeli, tudi napredni, lahko včasih pokažejo tako imenovane ‘halucinacije’ — podajajo napačne ali neutemeljene odgovore. V sektorjih, kjer so odločitve ključne, kot sta medicinska diagnoza ali avtonomna vožnja, lahko to ima katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost izhodov AI na podroben in zanesljiv način.
Kako deluje?
Ko modelom vgradimo zavedanje o negotovosti, lahko njihove izhode opremimo z oznako tveganja ali zanesljivosti. Na primer: avtonomno vozilo lahko označi, da ni prepričano o situaciji, in zato sproži človeško intervencijo. To poveča ne le varnost, temveč tudi zaupanje uporabnikov v AI sisteme.
capsa_torch.wrapper() pri čemer izhod sestavlja tako napoved kot tveganje:

Zaključek
MIT ekipa kaže, da prihodnost AI ne temelji le na tem, da postane pametnejša, temveč predvsem na tem, da deluje varneje in poštenejše. V NetCare verjamemo, da AI postane resnično dragocena šele, ko je pregledna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo tudi uresničite v praksi.