Aplicarea inteligenței artificiale (AI) crește rapid și devine din ce în ce mai împletită cu viața noastră de zi cu zi și cu industrii cu mize mari, precum asistența medicală, telecomunicațiile și energia. Însă, odată cu o mare putere vine și o mare responsabilitate: sistemele AI fac uneori greșeli sau oferă răspunsuri incerte care pot avea consecințe majore.
De ce este acest lucru atât de important?
Multe modele AI, chiar și cele avansate, pot prezenta uneori așa-numitele „halucinații” — oferă răspunsuri eronate sau nefondate. În sectoarele în care deciziile cântăresc greu, cum ar fi diagnosticul medical sau conducerea autonomă, acest lucru poate avea consecințe dezastruoase. Themis AI a dezvoltat Capsa, o platformă care aplică cuantificarea incertitudinii: aceasta măsoară și cuantifică incertitudinea rezultatelor AI într-un mod detaliat și fiabil.
Cum funcționează?
Prin educarea modelelor în ceea ce privește conștientizarea incertitudinii, acestea pot furniza rezultate însoțite de o etichetă de risc sau de fiabilitate. De exemplu: o mașină autonomă poate indica faptul că nu este sigură cu privire la o situație și, prin urmare, poate activa o intervenție umană. Acest lucru crește nu doar siguranța, ci și încrederea utilizatorilor în sistemele AI.
capsa_torch.wrapper() unde rezultatul constă atât în predicție, cât și în riscul asociat:
Concluzie
MIT echipa arată că viitorul AI nu se rezumă doar la a deveni mai inteligent, ci mai ales la a funcționa mai sigur și mai corect. La NetCare, credem că AI devine cu adevărat valoros doar atunci când este transparent cu privire la propriile sale limitări. Cu instrumente avansate de cuantificare a incertitudinii, precum Capsa, puteți pune această viziune în practică.