MIT forsker i at gøre AI smartere

MIT-team lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver i stigende grad integreret i vores daglige liv og højt risikofyldte industrier som sundhedssektoren, telekommunikation og energi. Men med stor magt følger også stort ansvar: AI-systemer begår nogle gange fejl eller giver usikre svar, som kan have store konsekvenser.

MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Teknologien gør det muligt for AI-modeller at ‘vide, hvad de ikke ved’. Det betyder, at AI-systemer selv kan angive, hvornår de er usikre på deres forudsigelser, så fejl kan forebygges, før de forårsager skade.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan nogle gange vise såkaldte ‘hallucinationer’ – de giver fejlagtige eller uunderbyggede svar. I sektorer hvor beslutninger har stor vægt, som medicinsk diagnostik eller autonom kørsel, kan dette have katastrofale konsekvenser. Themis AI udviklede Capsa, en platform der anvender usikkerhedskvantificering: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan fungerer det?
Ved at give modeller bevidsthed om usikkerhed kan de give output med et risikobevægtnings- eller pålidelighedsetiket. For eksempel kan en selvkørende bil angive, at den er usikker på en situation og derfor aktivere menneskelig indgriben. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch handler det om at pakke modellen ind via capsa_torch.wrapper() hvor output består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow-modeller fungerer Capsa med en dekoreringsfunktion:

tensorflow

Indvirkningen på virksomheder og brugere
For NetCare og deres kunder betyder denne teknologi et enormt skridt fremad. Vi kan levere AI-applikationer, der ikke kun er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at træffe bedre begrundede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT team viser, at AI's fremtid ikke kun handler om at blive smartere, men især også om at fungere mere sikkert og retfærdigt. Hos NetCare tror vi på, at AI først bliver virkelig værdifuld, når den er transparent omkring sine egne begrænsninger. Med avancerede usikkerhedskvantificeringsværktøjer som Capsa kan du også omsætte denne vision til praksis.

Gerard

Gerard er aktiv som AI‑konsulent og manager. Med stor erfaring fra store organisationer kan han særligt hurtigt afklare et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt ansvarlige valg.