MIT team at work

MIT-team lærer AI-modeller hva de ikke visste ennå.

Anvendelsen av kunstig intelligens (AI) vokser raskt og blir stadig mer sammenvevd med vårt daglige liv og høyinnsatsindustrier som helsevesen, telekom og energi. Men med stor makt følger også stort ansvar: AI-systemer gjør noen ganger feil eller gir usikre svar som kan ha store konsekvenser.

MITs Themis AI, medgrunnlagt og ledet av professor Daniela Rus fra CSAIL-laboratoriet, tilbyr en banebrytende løsning. Deres teknologi gjør det mulig for AI-modeller å “vite hva de ikke vet”. Dette betyr at AI-systemer selv kan indikere når de er usikre på sine prognoser, noe som kan forhindre feil før de forårsaker skade.

Hvorfor er dette så viktig?
Mange AI-modeller, selv avanserte, kan noen ganger vise såkalte “hallusinasjoner” – de gir feilaktige eller ubegrunnede svar. I sektorer der beslutninger veier tungt, som medisinsk diagnose eller autonom kjøring, kan dette ha katastrofale konsekvenser. Themis AI utviklet Capsa, en plattform som anvender uncertainty quantification: den måler og kvantifiserer usikkerheten i AI-utdata på en detaljert og pålitelig måte.

 Hvordan fungerer det?
Ved å lære modellene uncertainty awareness, kan de forsyne utdata med en risiko- eller pålitelighetsmerking. For eksempel: en selvkjørende bil kan indikere at den er usikker på en situasjon og derfor aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemer.

Eksempler på teknisk implementering

  • Ved integrasjon med PyTorch involverer det å pakke inn modellen via capsa_torch.wrapper() der utdata består av både prognosen og risikoen:

Python example met capsa

For TensorFlow-modeller fungerer Capsa med en dekorator:

tensorflow

Innflytelsen for bedrifter og brukere
For NetCare og deres kunder betyr denne teknologien et enormt skritt fremover. Vi kan levere AI-applikasjoner som ikke bare er intelligente, men også sikre og mer forutsigbare med mindre sjanse for hallusinasjoner. Det hjelper organisasjoner med å ta bedre informerte beslutninger og redusere risikoen ved implementering av AI i forretningskritiske applikasjoner.

Konklusjon
MIT teamet viser at fremtiden for AI ikke bare handler om å bli smartere, men spesielt om å fungere tryggere og mer rettferdig. Hos NetCare tror vi at AI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte uncertainty quantification-verktøy som Capsa kan du også sette denne visjonen ut i praksis.

Gerard

Gerard

Gerard er aktiv som AI-konsulent og leder. Med mye erfaring fra store organisasjoner kan han raskt analysere et problem og arbeide mot en løsning. Kombinert med en økonomisk bakgrunn sikrer han forretningsmessig ansvarlige valg.

AIR (Artificial Intelligence Robot)