MIT doet onderzoek om AI slimmer te maken

MIT-holdet lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver stadigt mere integreret i vores dagligdag og i high-stakes industrier som sundhedssektoren, telekommunikation og energi. Men med stor kraft følger også stort ansvar: AI-systemer laver til tider fejl eller afgiver usikre svar, som kan få store konsekvenser.

MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør det muligt for AI-modeller at ’vide, hvad de ikke ved’. Det betyder, at AI-systemer selv kan angive, når de er usikre på deres forudsigelser, så fejl kan forebygges, før de forårsager skade.

Hvorfor er dette så vigtigt?
Mange AI-modeller, også avancerede, kan nogle gange vise såkaldte ’hallucinationer’ — de giver forkerte eller ubegrundede svar. I sektorer hvor beslutninger har stor vægt, som medicinsk diagnostik eller autonom kørsel, kan dette få katastrofale konsekvenser. Themis AI udviklede Capsa, en platform der anvender uncertainty quantification: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan virker det?
Ved at lære modeller uncertainty awareness kan de forsyne outputs med et risikoor på pålidelighedslabel. For eksempel kan en selvkørende bil angive, at den er usikker i en situation og derved aktivere en menneskelig indgriben. Det øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch foregår indpakningen af modellen via capsa_torch.wrapper() hvor output består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow-modeller fungerer Capsa med en dekorator:

tensorflow

Indvirkningen for virksomheder og brugere
For NetCare og vores kunder betyder denne teknologi et enormt fremskridt. Vi kan levere AI-løsninger, der ikke kun er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at træffe bedre underbyggede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT hold viser, at AI’s fremtid ikke kun handler om at blive klogere, men især om at fungere mere sikkert og retfærdigt. Hos NetCare mener vi, at AI først virkelig bliver værdifuld, når den er transparent omkring sine egne begrænsninger. Med avancerede værktøjer til uncertainty quantification som Capsa kan I også realisere den vision i praksis.

Gerard

Gerard arbejder som AI-konsulent og leder. Med omfattende erfaring fra store organisationer kan han meget hurtigt afdække et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt ansvarlige beslutninger.