MIT doet onderzoek om AI slimmer te maken

MIT tim uči AI modele ono što nisu znali.

Primjena umjetne inteligencije (AI) brzo raste i sve je više isprepletena s našim svakodnevnim životom i industrijama s visokim ulozima poput zdravstvene zaštite, telekoma i energetike. Ali s velikom moći dolazi i velika odgovornost: AI sustavi ponekad griješe ili daju neodređene odgovore koji mogu imati velike posljedice.

Themis AI s MIT-a, suosnovana i vođena profesoricom Danielom Rus iz laboratorija CSAIL, nudi revolucionarno rješenje. Njihova tehnologija omogućuje AI modelima da „znaju što ne znaju“. To znači da AI sustavi mogu sami signalizirati kad su nesigurni u svoje prognoze, čime se pogreške mogu spriječiti prije nego što nanesu štetu.

Zašto je to toliko važno?
Mnogi AI modeli, čak i napredni, ponekad pokazuju takozvane „halucinacije“ — daju netočne ili neutemeljene odgovore. U sektorima u kojima odluke nose veliku težinu, poput medicinske dijagnostike ili autonomne vožnje, to može imati katastrofalne posljedice. Themis AI razvio je Capsa, platformu koja primjenjuje kvantificiranje nesigurnosti: mjeri i kvantificira nesigurnost AI izlaza na detaljan i pouzdan način.

 Kako to funkcionira?
Učeći modele svijesti o nesigurnosti, moguće je označiti izlaze oznakom rizika ili pouzdanosti. Na primjer: autonomno vozilo može naznačiti da nije sigurno u vezi određene situacije i zbog toga aktivirati ljudsku intervenciju. Time se ne povećava samo sigurnost, već i povjerenje korisnika u AI sustave.

Primjeri tehničke implementacije

  • Pri integraciji s PyTorchom model se obavija preko capsa_torch.wrapper() pri čemu izlaz sadrži i predikciju i rizik:

Python example met capsa

Za TensorFlow modele Capsa koristi dekorator:

tensorflow

Utjecaj za tvrtke i korisnike
Za NetCare i njezine klijente ova tehnologija predstavlja ogroman korak naprijed. Možemo isporučiti AI primjene koje nisu samo inteligentne, već i sigurne te bolje predvidljive s manjom vjerojatnošću halucinacija. To pomaže organizacijama u donošenju bolje utemeljenih odluka i smanjenju rizika pri uvođenju AI u poslovno kritične aplikacije.

Zaključak
MIT tim pokazuje da budućnost AI-a nije samo u tome da postane pametnija, nego i da radi sigurnije i pravednije. U NetCareu vjerujemo da AI postaje istinski vrijedna tek kada je transparentna u pogledu vlastitih ograničenja. S naprednim alatima za kvantificiranje nesigurnosti poput Capse možete tu viziju prenijeti i u praksu.

Gerard

Gerard radi kao AI konzultant i menadžer. S velikim iskustvom u velikim organizacijama može iznimno brzo razotkriti problem i raditi na rješenju. U kombinaciji s ekonomskom pozadinom donosi poslovno odgovorne odluke.