Aplicarea inteligenței artificiale (AI) crește rapid și devine tot mai integrată în viața noastră de zi cu zi și în industrii cu impact major, cum ar fi sănătatea, telecomunicațiile și energia. Dar, odată cu puterea mare vine și o mare responsabilitate: sistemele AI pot face uneori greșeli sau pot oferi răspunsuri nesigure care pot avea consecințe semnificative.
Themis AI de la MIT, cofondată și condusă de profesoara Daniela Rus de la laboratorul CSAIL, oferă o soluție revoluționară. Tehnologia lor permite modelelor AI să „știe ce nu știu”. Aceasta înseamnă că sistemele AI pot indica singure când sunt nesigure în privința predicțiilor lor, prevenind astfel erorile înainte ca acestea să cauzeze daune.
De ce este atât de important?
Multe modele AI, chiar și cele avansate, pot uneori prezenta așa-numitele „halucinații” — oferind răspunsuri eronate sau nefondate. În sectoare în care deciziile au o greutate mare, cum ar fi diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: măsoară și cuantifică incertitudinea ieșirilor AI într-un mod detaliat și fiabil.
Cum funcționează?
Prin instruirea modelelor să fie conștiente de incertitudine, acestea pot furniza etichete de risc sau de încredere pentru rezultate. De exemplu, o mașină autonomă poate semnala că nu este sigură în legătură cu o situație și astfel poate declanșa intervenția umană. Acest lucru nu doar sporește siguranța, ci și încrederea utilizatorilor în sistemele AI.
capsa_torch.wrapper() în care ieșirea constă atât din predicție, cât și din risc:

Concluzie
MIT-ul echipă arată că viitorul AI nu se rezumă doar la a deveni mai inteligent, ci în special la a funcționa mai sigur și mai echitabil. La NetCare credem că AI devine cu adevărat valoros doar atunci când este transparent în privința propriilor limitări. Cu instrumente avansate de cuantificare a incertitudinii, cum ar fi Capsa, puteți pune în practică această viziune.