MIT doet onderzoek om AI slimmer te maken

Ekipa MIT uči modele AI tega, česar še niso vedeli.

Uporaba umetne inteligence (AI) hitro narašča in postaja vse bolj prepletena z našim vsakdanjim življenjem ter ključnimi industrijami, kot so zdravstvo, telekomunikacije in energetika. Toda z veliko močjo pride tudi velika odgovornost: AI-sistemi včasih delajo napake ali dajejo negotove odgovore, ki lahko imajo velike posledice.

Themis AI z MIT-a, soustanovljena in vodena s strani profesorice Daniele Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom AI, da »vedo, česar ne vedo«. To pomeni, da lahko AI-sistemi sami sporočijo, kdaj so negotovi glede svojih napovedi, kar omogoča preprečevanje napak, preden povzročijo škodo.

Zakaj je to tako pomembno?
Veliko AI-modelov, tudi naprednih, včasih kaže t. i. »halucinacije« — dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer imajo odločitve velike posledice, kot so medicinska diagnostika ali avtonomna vožnja, so lahko te napake katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost AI-izhodov na podroben in zanesljiv način.

 Kako deluje?
Z učenjem modelov zavesti o negotovosti lahko opremijo izhode z oznako tveganja ali zanesljivosti. Na primer: samovozeče vozilo lahko sporoči, da ni prepričano v določeno situacijo, in tako sproži človeško intervencijo. To povečuje ne le varnost, ampak tudi zaupanje uporabnikov v AI-sisteme.

Primeri tehničnih izvedb

  • Pri integraciji s PyTorch se ovijanje (wrapping) modela izvaja prek capsa_torch.wrapper() kjer je izhod sestavljen tako iz napovedi kot iz ocene tveganja:

Python example met capsa

Za modele TensorFlow Capsa deluje z dekoratorjem:

tensorflow

Vpliv za podjetja in uporabnike
Za NetCare in njene stranke pomeni ta tehnologija ogromen napredek. Lahko zagotovimo AI-rešitve, ki niso le inteligentne, temveč tudi varnejše in bolj predvidljive z manjšo verjetnostjo halucinacij. Pomaga organizacijam pri sprejemanju bolje podprtih odločitev in zmanjševanju tveganj pri uvajanju AI v poslovno kritične aplikacije.

Zaključek
MIT ekipa dokazuje, da prihodnost AI ni le v tem, da postaja pametnejša, temveč predvsem v tem, da deluje varneje in pravičnejše. Pri NetCare verjamemo, da AI postane resnično vredna šele, ko je transparentna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.

Gerard

Gerard dela kot AI svetovalec in vodja. Z veliko izkušnjami v velikih organizacijah lahko izredno hitro razčleni problem in poišče pot do rešitve. V kombinaciji z izobrazbo iz ekonomije zagotavlja poslovno utemeljene odločitve.