MIT forsker på å gjøre AI smartere

MIT-team lærer AI-modeller det de ennå ikke visste.

Bruken av kunstig intelligens (AI) vokser raskt og blir stadig mer sammenvevd med hverdagen vår og kritiske bransjer som helsevesen, telekom og energi. Men med stor kraft følger også stort ansvar: AI-systemer gjør noen ganger feil eller gir usikre svar som kan få store konsekvenser.

Hvorfor er dette så viktig?
Mange AI-modeller, selv avanserte, kan av og til vise såkalte «hallusinasjoner» – de gir feilaktige eller ubegrunnede svar. I sektorer der beslutninger veier tungt, som medisinsk diagnostikk eller selvkjørende biler, kan dette få katastrofale følger. Themis AI har utviklet Capsa, en plattform som bruker usikkerhetskvantifisering (uncertainty quantification): den måler og kvantifiserer usikkerheten i AI-utdata på en detaljert og pålitelig måte.

 Hvordan fungerer det?
Ved å lære modeller usikkerhetsbevissthet, kan de utstyre utdata med en risiko- eller pålitelighetsetikett. For eksempel: en selvkjørende bil kan indikere at den er usikker på en situasjon og derfor aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemer.

Eksempler på teknisk implementering
  • Ved integrasjon med PyTorch skjer innpakningen (wrapping) av modellen via capsa_torch.wrapper() hvor utdata består av både prediksjonen og risikoen:
Python example met capsa
For TensorFlow-modeller fungerer Capsa med en dekoratør:
tensorflow
Effekten for bedrifter og brukere
For NetCare og våre kunder betyr denne teknologien et enormt skritt fremover. Vi kan levere AI-applikasjoner som ikke bare er intelligente, men også trygge og mer forutsigbare med mindre risiko for hallusinasjoner. Det hjelper organisasjoner med å ta bedre beslutninger og redusere risiko ved innføring av AI i virksomhetskritiske applikasjoner.

Konklusjon
MIT-teamet team viser at fremtidens AI ikke bare handler om å bli smartere, men fremfor alt om å fungere tryggere og mer rettferdig. Hos NetCare tror vi at AI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte verktøy for usikkerhetskvantifisering som Capsa, kan du også sette denne visjonen ut i praksis.

Gerard

Gerard er aktiv som AI‑konsulent og leder. Med mye erfaring fra store organisasjoner kan han spesielt raskt avdekke et problem og jobbe mot en løsning. Kombinert med en økonomisk bakgrunn sørger han for forretningsmessig ansvarlige valg.