MIT doet onderzoek om AI slimmer te maken

MIT-team lærer AI-modeller det de ennå ikke visste.

Bruken av kunstig intelligens (AI) vokser raskt og blir stadig mer integrert i vårt dagligliv og i høyinnsatsindustrier som helsetjenester, telekom og energi. Men med stor kraft følger også stort ansvar: AI-systemer gjør av og til feil eller gir usikre svar som kan få betydelige konsekvenser.

MITs Themis AI, medgrunnlagt og ledet av professor Daniela Rus fra CSAIL-laboratoriet, tilbyr en banebrytende løsning. Deres teknologi gjør det mulig for AI-modeller å «vite hva de ikke vet». Det betyr at AI-systemer selv kan indikere når de er usikre på sine prediksjoner, noe som gjør det mulig å forebygge feil før de forårsaker skade.

Hvorfor er dette så viktig?
Mange AI-modeller, selv avanserte, kan av og til vise såkalte «hallusinasjoner» — de gir feilaktige eller uberettigede svar. I sektorer der beslutninger har stor tyngde, som medisinsk diagnostikk eller autonom kjøring, kan dette få katastrofale følger. Themis AI utviklet Capsa, en plattform som anvender uncertainty quantification: den måler og kvantifiserer usikkerheten i AI-utdata på en detaljert og pålitelig måte.

 Hvordan fungerer det?
Ved å gi modeller awareness om usikkerhet kan de utstyres med et risikoor på pålitelighetslabel for sine output. For eksempel kan en selvkjørende bil indikere at den er usikker i en gitt situasjon og dermed aktivere menneskelig inngripen. Dette øker ikke bare sikkerheten, men også brukernes tillit til AI-systemene.

Eksempler på teknisk implementering

  • Ved integrasjon med PyTorch skjer innpakning (wrapping) av modellen via capsa_torch.wrapper() hvor output består av både prediksjonen og risikoen:

Python example met capsa

For TensorFlow-modeller fungerer Capsa med en dekoratør:

tensorflow

Konsekvensene for bedrifter og brukere
For NetCare og våre kunder betyr denne teknologien et enormt steg framover. Vi kan levere AI-løsninger som ikke bare er intelligente, men også trygge og mer forutsigbare med lavere risiko for hallusinasjoner. Det hjelper organisasjoner å ta bedre underbygde beslutninger og redusere risiko ved innføring av AI i forretningskritiske applikasjoner.

Konklusjon
MIT team viser at fremtiden for AI ikke bare handler om å bli smartere, men i samme grad om å fungere sikrere og mer rettferdig. Hos NetCare mener vi at AI først blir virkelig verdifull når den er transparent om sine egne begrensninger. Med avanserte verktøy for uncertainty quantification som Capsa kan dere også realisere denne visjonen i praksis.

Gerard

Gerard er aktiv som AI-konsulent og leder. Med mye erfaring fra store organisasjoner kan han svært raskt avdekke et problem og arbeide mot en løsning. Kombinert med en økonomisk bakgrunn sørger han for kommersielt forsvarlige valg.