Bruken av kunstig intelligens (AI) vokser raskt og blir stadig mer integrert i vårt daglige liv og i høy‑risiko‑industrier som helsevesen, telekommunikasjon og energi. Men med stor kraft følger også stort ansvar: AI‑systemer gjør noen ganger feil eller gir usikre svar som kan ha store konsekvenser.
MITs Themis AI, medstiftet og ledet av professor Daniela Rus fra CSAIL‑labben, tilbyr en banebrytende løsning. Teknologien gjør det mulig for AI‑modeller å ‘vite hva de ikke vet’. Det betyr at AI‑systemer selv kan indikere når de er usikre på sine spådommer, slik at feil kan forebygges før de forårsaker skade.
Hvorfor er dette så viktig?
Mange AI‑modeller, selv avanserte, kan noen ganger vise såkalte ‘hallusinasjoner’—de gir feilaktige eller ubegrunnede svar. I sektorer hvor beslutninger har stor vekt, som medisinsk diagnostikk eller autonom kjøring, kan dette ha katastrofale konsekvenser. Themis AI utviklet Capsa, en plattform som bruker usikkerhetskvantifisering: den måler og kvantifiserer usikkerheten i AI‑output på en detaljert og pålitelig måte.
Hvordan fungerer det?
Ved å gi modeller bevissthet om usikkerhet, kan de legge til et risiko‑ eller pålitelighetsmerke på utdataene. For eksempel kan en selvkjørende bil indikere at den er usikker på en situasjon og dermed aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI‑systemer.
capsa_torch.wrapper() hvor outputen består av både prediksjonen og risikoen:

Konklusjon
MIT team viser at AI‑fremtiden ikke bare handler om å bli smartere, men også om å fungere tryggere og mer rettferdig. Hos NetCare tror vi at AI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte usikkerhetskvantifiseringsverktøy som Capsa kan du også sette denne visjonen ut i praksis.