MIT team at work

MIT-team lærer AI-modeller, hvad de ikke vidste endnu.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver stadig mere sammenflettet med vores dagligdag og højrisikobrancher som sundhedspleje, telekommunikation og energi. Men med stor magt følger også stort ansvar: AI-systemer laver nogle gange fejl eller giver usikre svar, der kan have store konsekvenser.

MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør det muligt for AI-modeller at ‘vide, hvad de ikke ved’. Dette betyder, at AI-systemer selv kan angive, når de er usikre på deres forudsigelser, hvilket hjælper med at forhindre fejl, før de forårsager skade.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan nogle gange udvise såkaldte ‘hallucinationer’ – de giver forkerte eller ubegrundede svar. I sektorer, hvor beslutninger har stor vægt, såsom medicinsk diagnose eller autonom kørsel, kan dette have katastrofale konsekvenser. Themis AI udviklede Capsa, en platform, der anvender uncertainty quantification: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan virker det?
Ved at give modeller uncertainty awareness kan de forsyne outputs med en risiko- eller pålidelighedsetiket. For eksempel: en selvkørende bil kan angive, at den er usikker på en situation og derfor aktivere en menneskelig intervention. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch sker indpakning af modellen via capsa_torch.wrapper(), hvor outputtet består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow-modeller fungerer Capsa med en decorator:

tensorflow

Indvirkningen for virksomheder og brugere
For NetCare og dens kunder betyder denne teknologi et kæmpe skridt fremad. Vi kan levere AI-applikationer, der ikke kun er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at træffe bedre informerede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT hold viser, at fremtiden for AI ikke kun handler om at blive smartere, men især også om at fungere sikrere og mere retfærdigt. Hos NetCare tror vi på, at AI først bliver rigtig værdifuld, når den er transparent omkring sine egne begrænsninger. Med avancerede uncertainty quantification-værktøjer som Capsa kan du også omsætte den vision til praksis.

Gerard

Gerard

Gerard er aktiv som AI-konsulent og leder. Med stor erfaring fra store organisationer kan han meget hurtigt afdække et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt ansvarlige valg.

AIR (Artificial Intelligence Robot)