Aplicarea inteligenței artificiale (AI) crește rapid și devine tot mai integrată în viața noastră de zi cu zi și în industrii cu miză mare, precum sănătatea, telecomunicațiile și energia. Dar la o putere mare vine și o responsabilitate mare: sistemele AI uneori greșesc sau oferă răspunsuri nesigure care pot avea consecințe semnificative.
Themis AI de la MIT, co-fondată și condusă de profesoara Daniela Rus din laboratorul CSAIL, oferă o soluție revoluționară. Tehnologia lor permite modelelor AI să „știe ce nu știu”. Asta înseamnă că sistemele AI pot semnala singure când sunt nesigure în privința predicțiilor lor, prevenind astfel erorile înainte să producă daune.
De ce este atât de important?
Multe modele AI, chiar și cele avansate, pot uneori să manifeste așa-numitele „halucinații” — oferă răspunsuri incorecte sau nefondate. În sectoare în care deciziile au greutate mare, precum diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: măsoară și cuantifică nesiguranța rezultatelor AI într-un mod detaliat și de încredere.
Cum funcționează?
Prin a învăța modelele conștientizarea incertitudinii, ele pot atașa rezultatelor un etichetă de risc sau de încredere. De exemplu: o mașină autonomă poate semnala că nu este sigură într-o anumită situație și poate declanșa astfel intervenția umană. Aceasta nu numai că sporește siguranța, dar și încrederea utilizatorilor în sistemele AI.
capsa_torch.wrapper() unde ieșirea constă atât din predicție, cât și din risc:

Concluzie
MIT echipă arată că viitorul AI nu înseamnă doar a deveni mai deștept, ci mai ales a funcționa mai sigur și mai corect. La NetCare credem că AI devine cu adevărat valoroasă doar atunci când este transparentă în privința propriilor limitări. Cu instrumente avansate de cuantificare a incertitudinii, precum Capsa, puteți pune în practică această viziune.