MIT provodi istraživanje kako bi AI bio pametniji

MIT tim uči AI modele ono što još nisu znali.

Primjena umjetne inteligencije (AI) brzo raste i sve se više isprepliće s našim svakodnevnim životom i industrijama s visokim ulozima, poput zdravstva, telekoma i energetike. No, s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju nesigurne odgovore koji mogu imati velike posljedice.

Themis AI s MIT-a, suosnovan i vođen od strane profesorice Daniele Rus iz CSAIL laboratorija, nudi revolucionarno rješenje. Njihova tehnologija omogućuje AI modelima da 'znaju što ne znaju'. To znači da AI sustavi mogu sami signalizirati kada su nesigurni u svojim predviđanjima, čime se sprječavaju pogreške prije nego što nanesu štetu.

Zašto je to toliko važno?
Mnogi AI modeli, čak i oni napredni, ponekad mogu pokazivati tzv. 'halucinacije' – daju pogrešne ili neutemeljene odgovore. U sektorima gdje odluke imaju veliku težinu, poput medicinske dijagnoze ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantifikaciju nesigurnosti (uncertainty quantification): mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.

 Kako to funkcionira?
Uvođenjem svijesti o nesigurnosti u modele, oni mogu svoje izlaze popratiti oznakom rizika ili pouzdanosti. Na primjer: autonomni automobil može signalizirati da nije siguran u neku situaciju i stoga aktivirati ljudsku intervenciju. Time se ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.

Primjeri tehničke implementacije

  • Prilikom integracije s PyTorchom, umotavanje modela putem capsa_torch.wrapper() gdje se izlaz sastoji i od predviđanja i od rizika:

Python example met capsa

Za TensorFlow modele, Capsa koristi dekorator:

tensorflow

Utjecaj na tvrtke i korisnike
Za NetCare i njegove klijente, ova tehnologija predstavlja ogroman iskorak. U mogućnosti smo isporučiti AI aplikacije koje nisu samo inteligentne, već i sigurne te predvidljivije, s manjim rizikom od halucinacija. To pomaže organizacijama u donošenju bolje utemeljenih odluka i smanjenju rizika pri implementaciji umjetne inteligencije u kritične poslovne aplikacije.

Zaključak
MIT tim pokazuje da se budućnost umjetne inteligencije ne vrti samo oko toga da postane pametnija, već i oko toga da funkcionira sigurnije i pravednije. U NetCareu vjerujemo da umjetna inteligencija postaje istinski vrijedna tek kada je transparentna u pogledu vlastitih ograničenja. S naprednim alatima za kvantifikaciju nesigurnosti, poput Capsa, tu viziju možete primijeniti u praksi.

Gerard

Gerard je aktivan kao AI konzultant i menadžer. S velikim iskustvom u velikim organizacijama, on može izuzetno brzo razotkriti problem i raditi na rješenju. U kombinaciji s ekonomskom pozadinom, osigurava poslovno odgovorne izbore.

AIR (Umjetna inteligencija Robot)