MIT doet onderzoek om AI slimmer te maken

MIT-teamet lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver i stigende grad integreret i vores dagligdag og i højrisikoindustrier som sundhedssektoren, telekommunikation og energi. Men med stor styrke følger også stort ansvar: AI-systemer begår nogle gange fejl eller leverer usikre svar, som kan få alvorlige konsekvenser.

MIT’s Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør det muligt for AI-modeller at "vide, hvad de ikke ved". Det betyder, at AI-systemer selv kan indikere, når de er usikre på deres forudsigelser, så fejl kan forhindres, før de forårsager skader.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan nogle gange fremvise såkaldte "hallucinationer" — de giver fejlagtige eller ubegrundede svar. I sektorer hvor beslutninger har stor vægt, såsom medicinsk diagnosticering eller autonom kørsel, kan dette få katastrofale følger. Themis AI udviklede Capsa, en platform der anvender uncertainty quantification: den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan fungerer det?
Ved at lære modeller uncertainty awareness kan de udstyres med et risikoor på et pålidelighedsetiket. For eksempel kan en selvkørende bil angive, at den er usikker i en given situation og derfor aktivere en menneskelig indgriben. Det øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch foregår omslutningen (wrapping) af modellen via capsa_torch.wrapper() hvor output består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow-modeller arbejder Capsa med en decorator:

tensorflow

Indvirkningen for virksomheder og brugere
For NetCare og vores kunder betyder denne teknologi et stort fremskridt. Vi kan levere AI-løsninger, der ikke kun er intelligente, men også sikre og mere forudsigelige med mindre risiko for hallucinationer. Det hjælper organisationer med at tage bedre underbyggede beslutninger og reducere risici ved implementering af AI i forretningskritiske applikationer.

Konklusion
MIT team viser, at fremtiden for AI ikke kun handler om at blive klogere, men i højere grad om at fungere sikrere og mere retfærdigt. Hos NetCare mener vi, at AI først bliver virkelig værdifuld, når den er gennemsigtig om sine egne begrænsninger. Med avancerede uncertainty quantification-værktøjer som Capsa kan I også realisere den vision i praksis.

Gerard

Gerard er aktiv som AI-konsulent og leder. Med stor erfaring fra større organisationer kan han sætte sig ind i et problem og hurtigt arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt ansvarlige valg.