Uporaba umetne inteligence (AI) hitro raste in postaja vse bolj prepletena z našim vsakodnevnim življenjem ter industrijami z visokimi tveganji, kot so zdravstvo, telekomunikacije in energija. Toda z veliko močjo prihaja tudi velika odgovornost: AI sistemi včasih delajo napake ali dajejo neodločene odgovore, ki lahko imajo velike posledice.
Zakaj je to tako pomembno?
Številni AI modeli, tudi napredni, lahko včasih pokažejo tako imenovane 'halucinacije' — podajajo napačne ali neutemeljene odgovore. V sektorjih, kjer so odločitve ključne, kot so medicinska diagnoza ali avtonomna vožnja, lahko to ima katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost izhodov AI na podroben in zanesljiv način.
Kako deluje?
Ko modelom vgradimo zavedanje o negotovosti, lahko njihove izhode opremimo z oznako tveganja ali zanesljivosti. Na primer: avtonomno vozilo lahko pokaže, da ni prepričano o situaciji, in zato sproži človeško intervencijo. To poveča ne le varnost, temveč tudi zaupanje uporabnikov v AI sisteme.
capsa_torch.wrapper() pri čemer izhod vsebuje tako napoved kot tudi tveganje:
Zaključek
MIT ekipa kaže, da prihodnost AI ne temelji le na tem, da postane pametnejša, temveč predvsem na varnejšem in poštenejšem delovanju. V NetCare verjamemo, da AI postane resnično dragocena šele, ko je pregledna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo tudi uresničite v praksi.