MIT forsker i at gøre AI klogere

MIT-team lærer AI-modeller, hvad de endnu ikke vidste.

Anvendelsen af kunstig intelligens (AI) vokser hurtigt og bliver i stigende grad vævet ind i vores dagligdag og kritiske industrier som sundhedsvæsen, telekommunikation og energi. Men med stor magt følger også et stort ansvar: AI-systemer laver undertiden fejl eller giver usikre svar, hvilket kan have store konsekvenser.

MIT's Themis AI, medstiftet og ledet af professor Daniela Rus fra CSAIL-laboratoriet, tilbyder en banebrydende løsning. Deres teknologi gør AI-modeller i stand til at ‘vide, hvad de ikke ved’. Det betyder, at AI-systemer selv kan angive, hvornår de er usikre på deres forudsigelser, hvilket kan forhindre fejl, før de forårsager skade.

Hvorfor er dette så vigtigt?
Mange AI-modeller, selv avancerede, kan undertiden udvise såkaldte ‘hallucinationer’—de giver forkerte eller uunderbyggede svar. I sektorer, hvor beslutninger har stor vægt, såsom medicinsk diagnose eller selvkørende teknologi, kan dette have katastrofale følger. Themis AI har udviklet Capsa, en platform, der anvender usikkerhedskvantificering (uncertainty quantification): den måler og kvantificerer usikkerheden i AI-output på en detaljeret og pålidelig måde.

 Hvordan virker det?
Ved at indføre usikkerhedsbevidsthed i modeller kan de output forsynes med en risiko- eller pålidelighedsmærkat. For eksempel kan en selvkørende bil angive, at den er usikker på en situation, og derfor aktivere menneskelig indgriben. Dette øger ikke kun sikkerheden, men også brugernes tillid til AI-systemer.

Eksempler på teknisk implementering

  • Ved integration med PyTorch involverer indpakningen af modellen via capsa_torch.wrapper() hvor outputtet består af både forudsigelsen og risikoen:

Python example met capsa

For TensorFlow models, Capsa uses a decorator:

tensorflow

Impact for businesses and users
For NetCare and its clients, this technology represents a huge step forward. We can deliver AI applications that are not only intelligent but also safe and more predictable with less chance of hallucinations. It helps organizations make better-informed decisions and reduce risks when implementing AI in business-critical applications.

Konklusion
MIT team viser, at fremtiden for AI ikke kun handler om at blive klogere, men især også om at fungere mere sikkert og retfærdigt. Hos NetCare tror vi på, at AI først bliver virkelig værdifuld, når den er gennemsigtig omkring sine egne begrænsninger. Med avancerede værktøjer til kvantificering af usikkerhed som Capsa kan du også omsætte denne vision til praksis.

Gerard

Gerard er aktiv som AI-konsulent og leder. Med stor erfaring fra store organisationer kan han særligt hurtigt gennemskue et problem og arbejde hen imod en løsning. Kombineret med en økonomisk baggrund sikrer han forretningsmæssigt forsvarlige valg.

AIR (Kunstig Intelligens Robot)