Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver i stigende grad vævet ind i vores dagligdag og højrisikoindustrier som sundhedspleje, telekommunikation og energi. Men med stor magt følger også stort ansvar: AI-systemer laver undertiden fejl eller giver usikre svar, som kan have store konsekvenser.
MIT's Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør AI-modeller i stand til at ‘vide, hvad de ikke ved’. Dette betyder, at AI-systemer selv kan angive, hvornår de er usikre på deres forudsigelser, hvilket kan forhindre fejl, før de forårsager skade.
Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan undertiden udvise såkaldte ‘hallucinationer’—de giver fejlagtige eller uunderbyggede svar. I sektorer, hvor beslutninger vejer tungt, såsom medicinsk diagnose eller autonom kørsel, kan dette have katastrofale følger. Themis AI udviklede Capsa, en platform der anvender usikkerhedskvantificering: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.
Hvordan virker det?
Ved at give modellerne usikkerhedsbevidsthed kan de output forsynes med en risiko- eller pålidelighedsmærkat. For eksempel kan en selvkørende bil angive, at den er usikker på en situation, og derfor aktivere menneskelig indgriben. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.
capsa_torch.wrapper() hvor outputtet består af både forudsigelsen og risikoen:

Konklusion
MIT hold viser, at fremtiden for AI ikke kun handler om at blive klogere, men især også om at fungere mere sikkert og retfærdigt. Hos NetCare tror vi på, at AI først bliver virkelig værdifuld, når den er gennemsigtig omkring sine egne begrænsninger. Med avancerede værktøjer til usikkerhedskvantificering som Capsa kan du også omsætte denne vision til praksis.