MIT team at work

Echipa MIT învață modelele AI ceea ce nu știau încă.

Aplicarea inteligenței artificiale (AI) crește rapid și devine din ce în ce mai integrată în viața noastră de zi cu zi și în industriile cu mize mari, cum ar fi asistența medicală, telecomunicațiile și energia. Dar, odată cu o putere mare, vine și o responsabilitate mare: sistemele AI fac uneori greșeli sau oferă răspunsuri incerte care pot avea consecințe semnificative.

Themis AI de la MIT, co-fondată și condusă de profesorul Daniela Rus de la laboratorul CSAIL, oferă o soluție revoluționară. Tehnologia lor permite modelelor AI să „știe ce nu știu”. Aceasta înseamnă că sistemele AI pot indica ele însele când sunt nesigure cu privire la predicțiile lor, ajutând la prevenirea erorilor înainte ca acestea să provoace daune.

De ce este atât de important?
Multe modele AI, chiar și cele avansate, pot prezenta uneori așa-numitele „halucinații” – oferă răspunsuri incorecte sau nefondate. În sectoarele în care deciziile au o greutate mare, cum ar fi diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: măsoară și cuantifică incertitudinea rezultatelor AI într-un mod detaliat și fiabil.

 Cum funcționează?
Prin insuflarea conștientizării incertitudinii în modele, acestea pot eticheta rezultatele cu un risc sau o etichetă de fiabilitate. De exemplu: o mașină autonomă poate indica faptul că nu este sigură cu privire la o situație și, prin urmare, poate activa o intervenție umană. Acest lucru nu numai că sporește siguranța, ci și încrederea utilizatorilor în sistemele AI.

Exemple de implementare tehnică

  • La integrarea cu PyTorch, încapsularea modelului se face prin capsa_torch.wrapper(), unde rezultatul constă atât în predicție, cât și în risc:

Python example met capsa

Pentru modelele TensorFlow, Capsa funcționează cu un decorator:

tensorflow

Impactul pentru companii și utilizatori
Pentru NetCare și clienții săi, această tehnologie reprezintă un pas uriaș înainte. Putem oferi aplicații AI care nu sunt doar inteligente, ci și sigure și mai previzibile, cu o șansă mai mică de halucinații. Ajută organizațiile să ia decizii mai bine informate și să reducă riscurile la introducerea AI în aplicațiile critice pentru afaceri.

Concluzie
Echipa MIT echipă demonstrează că viitorul AI nu este doar despre a deveni mai inteligent, ci mai ales despre a funcționa mai sigur și mai echitabil. La NetCare, credem că AI devine cu adevărat valoroasă doar atunci când este transparentă cu privire la propriile limitări. Cu instrumente avansate de cuantificare a incertitudinii, cum ar fi Capsa, puteți pune în practică și această viziune.

Gerard

Gerard

Gerard este activ ca consultant și manager AI. Cu o vastă experiență în organizații mari, el poate desluși rapid o problemă și poate lucra la o soluție. Combinat cu un background economic, el asigură alegeri responsabile din punct de vedere comercial.

AIR (Artificial Intelligence Robot)