MIT forsker i at gøre AI klogere

MIT-team lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver i stigende grad vævet ind i vores dagligdag og højrisikobrancher som sundhedsvæsen, telekommunikation og energi. Men med stor magt følger også et stort ansvar: AI-systemer begår nogle gange fejl eller giver usikre svar, som kan have store konsekvenser.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan nogle gange udvise såkaldte 'hallucinationer' – de giver forkerte eller ubegrundede svar. I sektorer, hvor beslutninger vejer tungt, såsom medicinsk diagnosticering eller selvkørende biler, kan dette have katastrofale følger. Themis AI har udviklet Capsa, en platform der anvender usikkerhedskvantificering: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan fungerer det?
Ved at give modellerne usikkerhedsbevidsthed kan de forsyne deres output med et risiko- eller pålidelighedsmærke. For eksempel: en selvkørende bil kan indikere, at den er usikker på en situation og derfor aktivere menneskelig indgriben. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering
  • Ved integration med PyTorch foregår indpakningen (wrapping) af modellen via capsa_torch.wrapper() hvor outputtet består af både forudsigelsen og risikoen:
Python example met capsa
For TensorFlow-modeller fungerer Capsa med en decorator:
tensorflow
Effekten for virksomheder og brugere
For NetCare og vores kunder betyder denne teknologi et enormt skridt fremad. Vi kan levere AI-løsninger, der ikke bare er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at træffe bedre underbyggede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT team viser, at fremtidens AI ikke kun handler om at blive klogere, men frem for alt om at fungere mere sikkert og retfærdigt. Hos NetCare tror vi på, at AI først bliver rigtig værdifuld, når den er transparent omkring sine egne begrænsninger. Med avancerede værktøjer til usikkerhedskvantificering som Capsa kan du også føre den vision ud i livet.

Gerard

Gerard er aktiv som AI‑konsulent og manager. Med stor erfaring fra store organisationer kan han særligt hurtigt afklare et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt ansvarlige valg.