Uporaba umetne inteligence (UI) hitro narašča in se vse bolj prepleta z našim vsakdanjim življenjem ter ključnimi industrijami, kot so zdravstvo, telekomunikacije in energetika. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, kar ima lahko resne posledice.
Rešitev, ki odpira nova obzorja, ponuja Themis AI z MIT-ja, ki ga je soustanovil in vodi profesorica Daniela Rus z laboratorija CSAIL. Njihova tehnologija omogoča modelom UI, da „zvedo, česa ne vedo”. To pomeni, da lahko sistemi UI sami signalizirajo, kadar so negotovi glede svojih napovedi, s čimer se preprečijo napake, preden povzročijo škodo.
Zakaj je to tako pomembno?
Številni modeli UI, tudi tisti napredni, lahko včasih kažejo tako imenovane „halucinacije” – dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve močno vplivajo na izid, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti (uncertainty quantification): na podroben in zanesljiv način meri in kvantificira negotovost izhodov UI.
Kako deluje?
Z vgradnjo zavesti o negotovosti v modele, lahko ti opremijo izhode z oznako tveganja ali zanesljivosti. Na primer: avtonomni avto lahko sporoči, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme UI.
capsa_torch.wrapper() pri čemer je izhod tako napoved kot tveganje:

Zaključek
MIT ekipa kaže, da se prihodnost umetne inteligence ne vrti le okoli postajanja pametnejše, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da umetna inteligenca postane resnično dragocena šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.