Uporaba umetne inteligence (UI) hitro narašča in postaja vse bolj prepletena z našim vsakdanjim življenjem ter panogami z visokimi vložki, kot so zdravstvo, telekomunikacije in energetika. Vendar pa velika moč prinaša tudi veliko odgovornost: sistemi UI včasih delajo napake ali podajajo negotove odgovore, kar ima lahko resne posledice.
Zakaj je to tako pomembno?
Številni modeli UI, tudi napredni, lahko včasih pokažejo tako imenovane 'halucinacije' – podajajo napačne ali neutemeljene odgovore. V sektorjih, kjer so odločitve zelo pomembne, kot sta medicinska diagnostika ali avtonomna vožnja, ima to lahko katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost izhodnih podatkov UI na podroben in zanesljiv način.
Kako deluje?
S tem, ko modele naučimo zavedanja negotovosti, lahko njihove izhode opremimo z oznako tveganja ali zanesljivosti. Na primer: avtonomno vozilo lahko sporoči, da ni prepričano o situaciji, in zato zahteva človeško posredovanje. To ne poveča le varnosti, temveč tudi zaupanje uporabnikov v sisteme UI.
capsa_torch.wrapper() kjer izhod sestavljata tako napoved kot tveganje:
Zaključek
Ekipa MIT ekipa kaže, da se prihodnost UI ne vrti le okoli tega, da postane pametnejša, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da UI postane zares dragocena šele takrat, ko je transparentna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.