MIT izvaja raziskave za pametnejšo umetno inteligenco

MIT ekipa uči AI modele o tem, česar še niso vedeli.

Uporaba umetne inteligence (UI) hitro raste in se vse bolj prepleta z našim vsakdanjim življenjem in panogami z visokimi vložki, kot so zdravstvo, telekomunikacije in energetika. Vendar pa z veliko močjo prihaja tudi velika odgovornost: sistemi UI včasih delajo napake ali dajejo negotove odgovore, ki imajo lahko velike posledice.

Themis AI z MIT-ja, ki ga je soustanovil in vodi profesorica Daniela Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča modelom UI, da se „naučijo, česa ne vedo“. To pomeni, da lahko sistemi UI sami sporočijo, kdaj so negotovi glede svojih napovedi, s čimer se preprečijo napake, preden povzročijo škodo.

Zakaj je to tako pomembno?
Številni modeli UI, tudi napredni, lahko včasih kažejo tako imenovane „halucinacije” – dajejo napačne ali neutemeljene odgovore. V sektorjih, kjer odločitve močno vplivajo, kot sta medicinska diagnoza ali avtonomna vožnja, so lahko posledice katastrofalne. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: na podroben in zanesljiv način meri in kvantificira negotovost izhodnih podatkov UI.

 Kako deluje?
Z vgradnjo zavedanja o negotovosti v modele, lahko ti zagotovijo izpise z oznako tveganja ali zanesljivosti. Na primer: samovozeči avtomobil lahko signalizira, da ni prepričan glede situacije, in zato sproži človeški poseg. To ne povečuje le varnosti, temveč tudi zaupanje uporabnikov v sisteme umetne inteligence.

Primeri tehnične implementacije

  • Pri integraciji s PyTorchom se model ovije preko capsa_torch.wrapper() kjer je izhod tako napoved kot tveganje:

Python example met capsa

Za modele TensorFlow Capsa uporablja dekorator:

tensorflow

Vpliv za podjetja in uporabnike
Za NetCare in njene stranke ta tehnologija pomeni ogromen korak naprej. Lahko ponujamo aplikacije umetne inteligence, ki niso le inteligentne, temveč tudi varne in bolj predvidljive z manjšo verjetnostjo halucinacij. Podjetjem pomaga pri sprejemanju bolj utemeljenih odločitev in zmanjševanju tveganj pri uvajanju umetne inteligence v kritične poslovne aplikacije.

Zaključek
MIT ekipa kaže, da se prihodnost umetne inteligence ne vrti le okoli postajanja pametnejše, temveč predvsem okoli varnejšega in poštenejšega delovanja. Pri NetCare verjamemo, da umetna inteligenca postane resnično vredna šele, ko je pregledna glede lastnih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo tudi uresničite v praksi.

Gerard

Gerard deluje kot svetovalec in vodja na področju UI. Z bogatimi izkušnjami pri velikih organizacijah lahko izjemno hitro razreši težavo in dela proti rešitvi. V kombinaciji z ekonomsko izobrazbo zagotavlja poslovno utemeljene odločitve.