MIT izvaja raziskave, da bi AI naredil pametnejši

Ekipa MIT uči AI modele, kar še niso vedeli.

Uporaba umetne inteligence (AI) hitro raste in postaja vse bolj prepletena z našim vsakodnevnim življenjem ter industrijami z visokimi tveganji, kot so zdravstvo, telekomunikacije in energija. Toda z veliko močjo prihaja tudi velika odgovornost: AI sistemi včasih delajo napake ali dajejo neodločene odgovore, ki lahko imajo velike posledice.

MIT-ova Themis AI, soustanovljena in vodena s profesorico Danielo Rus iz laboratorija CSAIL, ponuja prelomno rešitev. Njihova tehnologija omogoča AI modelom, da ‘vedo, česar ne vedo’. To pomeni, da AI sistemi sami lahko označijo, ko so negotovi glede svojih napovedi, s čimer se napake preprečijo, preden povzročijo škodo.

Zakaj je to tako pomembno?
Številni AI modeli, tudi napredni, lahko včasih pokažejo tako imenovane ‘halucinacije’ — podajajo napačne ali neutemeljene odgovore. V sektorjih, kjer so odločitve ključne, kot sta medicinska diagnoza ali avtonomna vožnja, lahko to ima katastrofalne posledice. Themis AI je razvil Capsa, platformo, ki uporablja kvantifikacijo negotovosti: meri in kvantificira negotovost izhodov AI na podroben in zanesljiv način.

 Kako deluje?
Ko modelom vgradimo zavedanje o negotovosti, lahko njihove izhode opremimo z oznako tveganja ali zanesljivosti. Na primer: avtonomno vozilo lahko označi, da ni prepričano o situaciji, in zato sproži človeško intervencijo. To poveča ne le varnost, temveč tudi zaupanje uporabnikov v AI sisteme.

Primeri tehničnih implementacij

  • Pri integraciji s PyTorch gre za ovijanje modela prek capsa_torch.wrapper() pri čemer izhod sestavlja tako napoved kot tveganje:

Python example met capsa

Za modele TensorFlow Capsa deluje z dekoratorjem:

TensorFlow

Vpliv na podjetja in uporabnike
Za NetCare in njene stranke ta tehnologija pomeni ogromen korak naprej. Lahko ponudimo AI aplikacije, ki niso le inteligentne, temveč tudi varne in bolj napovedljive z manjšo verjetnostjo halucinacij. To pomaga organizacijam pri sprejemanju bolje utemeljenih odločitev in zmanjševanju tveganj pri uvajanju AI v poslovno kritične aplikacije.

Zaključek
MIT ekipa kaže, da prihodnost AI ne temelji le na tem, da postane pametnejša, temveč predvsem na tem, da deluje varneje in poštenejše. V NetCare verjamemo, da AI postane resnično dragocena šele, ko je pregledna glede svojih omejitev. Z naprednimi orodji za kvantifikacijo negotovosti, kot je Capsa, lahko to vizijo tudi uresničite v praksi.

Gerard

Gerard je aktiven kot AI svetovalec in vodja. Z veliko izkušnjami v velikih organizacijah lahko izjemno hitro razčleni problem in se usmeri k rešitvi. V kombinaciji z ekonomskim ozadjem zagotavlja poslovno odgovorne odločitve.