MIT forsker på å gjøre KI smartere

MIT-team lærer AI-modeller det de ennå ikke visste.

Bruken av kunstig intelligens (KI) vokser raskt og blir stadig mer sammenvevd med vårt daglige liv og kritiske bransjer som helsevesen, telekom og energi. Men med stor kraft følger også stort ansvar: KI-systemer gjør av og til feil eller gir usikre svar som kan få store konsekvenser.

MITs Themis AI, medgrunnlagt og ledet av professor Daniela Rus fra CSAIL-laboratoriet, tilbyr en banebrytende løsning. Teknologien deres gjør det mulig for KI-modeller å «vite hva de ikke vet». Dette betyr at KI-systemer selv kan indikere når de er usikre på sine prediksjoner, noe som kan forhindre feil før de forårsaker skade.

Hvorfor er dette så viktig?
Mange KI-modeller, selv avanserte, kan av og til vise såkalte «hallusinasjoner» – de gir feilaktige eller grunnløse svar. I sektorer der beslutninger har stor vekt, som medisinsk diagnose eller autonom kjøring, kan dette få katastrofale følger. Themis AI utviklet Capsa, en plattform som anvender usikkerhetskvantifisering: den måler og kvantifiserer usikkerheten i KI-resultater på en detaljert og pålitelig måte.

 Hvordan fungerer det?
Ved å gi modeller bevissthet om usikkerhet (uncertainty awareness), kan de utdata merkes med en risiko- eller pålitelighetsetikett. For eksempel kan en selvkjørende bil indikere at den er usikker på en situasjon og dermed utløse menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemer.

Eksempler på teknisk implementering

  • Ved integrasjon med PyTorch innebærer innpakning av modellen via capsa_torch.wrapper() hvor outputen består av både prediksjonen og risikoen:

Python example met capsa

For TensorFlow-modeller bruker Capsa en dekorator:

tensorflow

Virkningen for bedrifter og brukere
For NetCare og deres kunder representerer denne teknologien et enormt fremskritt. Vi kan levere KI-applikasjoner som ikke bare er intelligente, men også trygge og mer forutsigbare med mindre risiko for hallusinasjoner. Det hjelper organisasjoner med å ta bedre informerte beslutninger og redusere risikoen ved implementering av KI i forretningskritiske applikasjoner.

Konklusjon
MIT team viser at fremtiden for KI ikke bare handler om å bli smartere, men fremfor alt om å fungere tryggere og mer rettferdig. Hos NetCare tror vi at KI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte verktøy for usikkerhetskvantifisering (uncertainty quantification) som Capsa, kan du også realisere denne visjonen i praksis.

Gerard

Gerard er aktiv som KI-konsulent og leder. Med bred erfaring fra store organisasjoner kan han raskt analysere et problem og jobbe mot en løsning. Kombinert med en økonomisk bakgrunn sikrer han forretningsmessig forsvarlige valg.

AIR (Kunstig Intelligens Robot)