MIT izvaja raziskave za pametnejši AI

MIT ekipa uči AI modele česa, česar še niso vedeli.

Uporaba umetne inteligence (UI) hitro narašča in se vse bolj prepleta z našim vsakdanjim življenjem ter ključnimi industrijami, kot so zdravstvo, telekomunikacije in energetika. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, kar ima lahko resne posledice.

Rešitev, ki odpira nova obzorja, ponuja Themis AI z MIT-ja, ki ga je soustanovil in vodi profesorica Daniela Rus z laboratorija CSAIL. Njihova tehnologija omogoča modelom UI, da „zvedo, česa ne vedo”. To pomeni, da lahko sistemi UI sami signalizirajo, kadar so negotovi glede svojih napovedi, s čimer se preprečijo napake, preden povzročijo škodo.

Zakaj je to tako pomembno?
Številni modeli UI, tudi tisti napredni, lahko včasih kažejo tako imenovane „halucinacije” – dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve močno vplivajo na izid, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti (uncertainty quantification): na podroben in zanesljiv način meri in kvantificira negotovost izhodov UI.

 Kako deluje?
Z vgradnjo zavesti o negotovosti v modele, lahko ti opremijo izhode z oznako tveganja ali zanesljivosti. Na primer: avtonomni avto lahko sporoči, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme UI.

Primeri tehnične implementacije

  • Pri integraciji s PyTorch gre za ovijanje modela preko capsa_torch.wrapper() pri čemer je izhod tako napoved kot tveganje:

Python example met capsa

Za modele TensorFlow Capsa uporablja dekorator:

tensorflow

Vpliv na podjetja in uporabnike
Za NetCare in njene stranke ta tehnologija pomeni ogromen korak naprej. Ponujamo lahko rešitve umetne inteligence (UI), ki niso le inteligentne, temveč tudi varne in bolj predvidljive z manjšo verjetnostjo halucinacij. Podjetjem pomagajo pri sprejemanju bolj utemeljenih odločitev in zmanjševanju tveganj pri uvajanju UI v kritične poslovne aplikacije.

Zaključek
MIT ekipa kaže, da se prihodnost umetne inteligence ne vrti le okoli postajanja pametnejše, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da umetna inteligenca postane resnično dragocena šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo uresničite tudi v praksi.

Gerard

Gerard deluje kot AI svetovalec in menedžer. Z bogatimi izkušnjami pri velikih organizacijah lahko izjemno hitro razreši težavo in se usmeri k rešitvi. V kombinaciji z ekonomsko izobrazbo zagotavlja poslovno utemeljene odločitve.

AIR (Umetna inteligenca Robot)