Anvendelsen av kunstig intelligens (AI) vokser raskt og blir stadig mer integrert i vårt daglige liv og i høyinnsatsindustrier som helsevesen, telekom og energi. Men med stor kraft følger også stort ansvar: AI-systemer gjør noen ganger feil eller gir usikre svar som kan få store konsekvenser.
MITs Themis AI, medgrunnlagt og ledet av professor Daniela Rus fra CSAIL-laboratoriet, tilbyr en banebrytende løsning. Deres teknologi gjør det mulig for AI-modeller å «vite hva de ikke vet». Dette betyr at AI-systemer selv kan indikere når de er usikre på sine spådommer, noe som kan forhindre feil før de forårsaker skade.
Hvorfor er dette så viktig?
Mange AI-modeller, selv avanserte, kan noen ganger vise såkalte «hallusinasjoner» – de gir feilaktige eller ubegrunnede svar. I sektorer der beslutninger veier tungt, som medisinsk diagnose eller autonom kjøring, kan dette få katastrofale konsekvenser. Themis AI utviklet Capsa, en plattform som anvender usikkerhetskvantifisering: den måler og kvantifiserer usikkerheten i AI-utdata på en detaljert og pålitelig måte.
Hvordan fungerer det?
Ved å gi modeller usikkerhetsbevissthet, kan de forsyne utdata med en risiko- eller pålitelighetsetikett. For eksempel kan en selvkjørende bil indikere at den er usikker på en situasjon og derfor aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemer.
capsa_torch.wrapper()
, der utdata består av både prediksjonen og risikoen:
Konklusjon
MIT teamet viser at fremtiden for AI ikke bare handler om å bli smartere, men fremfor alt om å fungere tryggere og mer rettferdig. Hos NetCare mener vi at AI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte verktøy for usikkerhetskvantifisering som Capsa kan du også sette denne visjonen ut i praksis.