Bruken av kunstig intelligens (AI) vokser raskt og blir stadig mer integrert i vårt dagligliv og i høy-risiko-industrier som helsevesen, telekom og energi. Men med stor kraft følger også stort ansvar: AI-systemer gjør noen ganger feil eller gir usikre svar som kan få alvorlige konsekvenser.
MITs Themis AI, medgrunnet og ledet av professor Daniela Rus fra CSAIL-laboratoriet, tilbyr en banebrytende løsning. Deres teknologi gjør det mulig for AI-modeller å «vite hva de ikke vet». Det betyr at AI-systemer selv kan angi når de er usikre på sine prediksjoner, slik at feil kan forhindres før de forårsaker skade.
Hvorfor er dette så viktig?
Mange AI-modeller, selv avanserte, kan av og til vise såkalte «hallusinasjoner» — de gir feilaktige eller ubegrunnede svar. I sektorer hvor beslutninger har stor vekt, som medisinsk diagnostikk eller autonom kjøring, kan dette få katastrofale følger. Themis AI utviklet Capsa, en plattform som anvender måling av usikkerhet: den måler og kvantifiserer usikkerheten i AI-utdata på en detaljert og pålitelig måte.
Hvordan fungerer det?
Ved å gi modeller awareness om usikkerhet, kan de utstyres med et risikoor på pålitelighetsmerke for output. For eksempel kan en selvkjørende bil indikere at den er usikker i en situasjon og dermed aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemer.
capsa_torch.wrapper() hvor output består av både prediksjonen og risikoen:

Konklusjon
MIT team viser at framtiden for AI ikke bare handler om å bli smartere, men først og fremst om å fungere sikrere og mer rettferdig. Hos NetCare mener vi at AI først virkelig blir verdifull når den er transparent om sine egne begrensninger. Med avanserte verktøy for usikkerhetskvantifisering som Capsa kan dere også realisere denne visjonen i praksis.