Aplicarea inteligenței artificiale (AI) crește rapid și devine din ce în ce mai integrată în viața noastră de zi cu zi și în industrii cu mize mari, cum ar fi sănătatea, telecomunicațiile și energia. Dar cu o putere mare vine și o responsabilitate mare: sistemele AI fac uneori greșeli sau oferă răspunsuri incerte care pot avea consecințe semnificative.
Themis AI de la MIT, co-fondată și condusă de profesorul Daniela Rus de la laboratorul CSAIL, oferă o soluție inovatoare. Tehnologia lor permite modelelor AI să „știe ce nu știu”. Aceasta înseamnă că sistemele AI pot indica singure când sunt nesigure cu privire la predicțiile lor, prevenind astfel erorile înainte ca acestea să provoace daune.
De ce este atât de important?
Multe modele AI, chiar și cele avansate, pot prezenta uneori așa-numitele „halucinații” – oferă răspunsuri incorecte sau nefondate. În sectoarele în care deciziile au o greutate mare, cum ar fi diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: măsoară și cuantifică incertitudinea rezultatelor AI într-un mod detaliat și fiabil.
Cum funcționează?
Prin învățarea modelelor conștientizarea incertitudinii, acestea pot furniza rezultate cu o etichetă de risc sau de fiabilitate. De exemplu: o mașină autonomă poate indica faptul că nu este sigură cu privire la o situație și, prin urmare, poate activa o intervenție umană. Acest lucru nu numai că sporește siguranța, ci și încrederea utilizatorilor în sistemele AI.
capsa_torch.wrapper()
, unde rezultatul constă atât în predicție, cât și în risc:
Concluzie
Echipa MIT arată că viitorul AI nu se referă doar la a deveni mai inteligent, ci mai ales la a funcționa mai sigur și mai echitabil. La NetCare, credem că AI devine cu adevărat valoroasă doar atunci când este transparentă cu privire la propriile limitări. Cu instrumente avansate de cuantificare a incertitudinii, cum ar fi Capsa, puteți pune și dumneavoastră această viziune în practică.