MIT cercetează pentru a face AI mai inteligent

Echipa MIT învață modelele AI lucruri noi.

Aplicarea inteligenței artificiale (IA) crește rapid și devine din ce în ce mai împletită cu viața noastră de zi cu zi și cu industriile cu miză mare, cum ar fi sănătatea, telecomunicațiile și energia. Dar, odată cu o mare putere, vine și o mare responsabilitate: sistemele IA fac uneori greșeli sau oferă răspunsuri nesigure care pot avea consecințe majore.

Themis AI de la MIT, co-fondată și condusă de profesoara Daniela Rus de la laboratorul CSAIL, oferă o soluție revoluționară. Tehnologia lor permite modelelor IA să „știe ce nu știu”. Aceasta înseamnă că sistemele IA pot indica singure atunci când sunt nesigure cu privire la predicțiile lor, prevenind astfel erorile înainte ca acestea să provoace daune.

De ce este acest lucru atât de important?
Multe modele IA, chiar și cele avansate, pot prezenta uneori așa-numitele „halucinații” – oferă răspunsuri eronate sau nefondate. În sectoarele în care deciziile au o greutate mare, cum ar fi diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii (uncertainty quantification): măsoară și cuantifică incertitudinea rezultatelor IA într-un mod detaliat și fiabil.

 Cum funcționează?
Prin introducerea conștientizării incertitudinii în modele, acestea pot furniza rezultate cu o etichetă de risc sau de încredere. De exemplu, o mașină autonomă poate indica faptul că nu este sigură cu privire la o situație și, prin urmare, poate activa o intervenție umană. Acest lucru nu numai că sporește siguranța, dar crește și încrederea utilizatorilor în sistemele AI.

Exemple de implementare tehnică

  • La integrarea cu PyTorch, încapsularea modelului se face prin capsa_torch.wrapper() iar ieșirea constă atât în predicție, cât și în risc:

Python example met capsa

Pentru modelele TensorFlow, Capsa folosește un decorator:

tensorflow

Impact pentru companii și utilizatori
Pentru NetCare și clienții săi, această tehnologie reprezintă un pas înainte uriaș. Putem oferi aplicații AI care nu sunt doar inteligente, ci și sigure și mai previzibile, cu un risc redus de halucinații. Aceasta ajută organizațiile să ia decizii mai bine fundamentate și să reducă riscurile la implementarea AI în aplicații critice pentru afaceri.

Concluzie
MIT Echipă demonstrează că viitorul AI nu se referă doar la a deveni mai inteligent, ci mai ales la a funcționa mai sigur și mai echitabil. La NetCare, credem că AI devine cu adevărat valoros doar atunci când este transparent cu privire la propriile limitări. Cu instrumente avansate de cuantificare a incertitudinii, cum ar fi Capsa, puteți pune în practică această viziune.

Gerard

Gerard activează ca și consultant și manager IA. Cu o vastă experiență în cadrul organizațiilor mari, el poate desluși rapid o problemă și poate lucra spre o soluție. Combinat cu o pregătire economică, el asigură alegeri responsabile din punct de vedere comercial.

AIR (Robot Inteligență Artificială)