MIT doet onderzoek om AI slimmer te maken

Ekipa MIT uči modele AI tistega, česar še niso vedeli.

Uporaba umetne inteligence (AI) hitro raste in postaja vse bolj prepletena z našim vsakdanjim življenjem ter z visokorizičnimi panogami, kot so zdravstvena oskrba, telekomunikacije in energetika. Toda z veliko močjo pride tudi velika odgovornost: AI-sistemi včasih delajo napake ali dajejo negotove odgovore, ki lahko imajo velike posledice.

Themis AI z MIT-a, soustanovljena in vodena tudi s strani profesorice Daniele Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom AI, da 'vedo, česar ne vedo'. To pomeni, da lahko AI-sistemi sami nakažejo, kdaj so negotovi glede svojih napovedi, s čimer je mogoče preprečiti napake, preden povzročijo škodo.

Zakaj je to tako pomembno?
Veliko modelov AI, tudi naprednih, včasih kaže t.i. 'halucinacije' — dajejo napačne ali neutemeljene odgovore. V panogah, kjer so odločitve ključnega pomena, kot sta medicinska diagnostika ali avtonomna vožnja, ima to lahko katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost AI-izhodov na podroben in zanesljiv način.

 Kako deluje?
Z uče­njem modelov zavedanja negotovosti jim lahko dodamo oceno tveganja ali zanesljivosti pri izhodih. Na primer: avtonomno vozilo lahko nakaže, da ni prepričano glede določene situacije in zato sproži človeško posredovanje. To poveča ne le varnost, temveč tudi zaupanje uporabnikov v AI-sisteme.

Primeri tehnične implementacije

  • Pri integraciji s PyTorch poteka ovijanje (wrapping) modela preko capsa_torch.wrapper() pri čemer je izhod sestavljen tako iz napovedi kot iz ocene tveganja:

Python example met capsa

Za modele TensorFlow Capsa deluje z dekoratorjem:

tensorflow

Vpliv za podjetja in uporabnike
Za NetCare in njene stranke ta tehnologija pomeni velik korak naprej. Lahko dostavimo rešitve AI, ki niso le inteligentne, ampak tudi varne in bolj predvidljive z manjšo verjetnostjo halucinacij. Pomaga organizacijam pri sprejemanju bolje utemeljenih odločitev in zmanjševanju tveganj pri uvajanju AI v poslovno-kritične aplikacije.

Zaključek
MIT ekipa Pokaže, da prihodnost AI ni samo v tem, da postane pametnejša, temveč predvsem, da deluje varneje in pravičneje. V podjetju NetCare verjamemo, da ima AI resnično vrednost šele, ko je transparentna glede svojih lastnih omejitev. S sodobnimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.

Gerard

Gerard deluje kot svetovalec za umetno inteligenco in kot vodja. Z obsežnimi izkušnjami v velikih organizacijah zna zelo hitro razčleniti problem in ga usmeriti proti rešitvi. V kombinaciji z ekonomskim ozadjem zagotavlja poslovno utemeljene odločitve.