MIT team at work

MIT-team lär AI-modeller vad de inte visste.

Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer sammanflätad med vårt dagliga liv och höginsatsindustrier som hälsovård, telekom och energi. Men med stor kraft följer också stort ansvar: AI-system gör ibland misstag eller ger osäkra svar som kan få stora konsekvenser.

MIT:s Themis AI, medgrundat och lett av professor Daniela Rus från CSAIL-labbet, erbjuder en banbrytande lösning. Deras teknik gör det möjligt för AI-modeller att “veta vad de inte vet”. Detta innebär att AI-system själva kan indikera när de är osäkra på sina förutsägelser, vilket kan förhindra fel innan de orsakar skada.

Varför är detta så viktigt?
Många AI-modeller, även avancerade, kan ibland uppvisa så kallade “hallucinationer” – de ger felaktiga eller ogrundade svar. Inom sektorer där beslut väger tungt, som medicinsk diagnos eller autonom körning, kan detta få katastrofala konsekvenser. Themis AI utvecklade Capsa, en plattform som tillämpar osäkerhetskvantifiering: den mäter och kvantifierar osäkerheten i AI-utdata på ett detaljerat och tillförlitligt sätt.

 Hur fungerar det?
Genom att ge modeller osäkerhetsmedvetenhet kan de förse utdata med en risk- eller tillförlitlighetsmärkning. Till exempel: en självkörande bil kan indikera att den är osäker på en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten, utan också användarnas förtroende för AI-system.

Exempel på teknisk implementering

  • Vid integration med PyTorch sker omslutningen av modellen via capsa_torch.wrapper() där utdata består av både förutsägelsen och risken:

Python example med capsa

För TensorFlow-modeller fungerar Capsa med en dekoratör:

tensorflow

Inverkan för företag och användare
För NetCare och dess kunder innebär denna teknik ett enormt framsteg. Vi kan leverera AI-applikationer som inte bara är intelligenta, utan också säkra och mer förutsägbara med mindre risk för hallucinationer. Det hjälper organisationer att fatta bättre underbyggda beslut och minska riskerna vid införandet av AI i affärskritiska applikationer.

Slutsats
MIT teamet visar att framtiden för AI inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. På NetCare anser vi att AI först blir riktigt värdefullt när det är transparent om sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan du också omsätta den visionen i praktiken.

Gerard

Gerard

Gerard är verksam som AI-konsult och chef. Med omfattande erfarenhet från stora organisationer kan han snabbt identifiera problem och arbeta fram lösningar. I kombination med en ekonomisk bakgrund säkerställer han affärsmässigt ansvarsfulla val.

AIR (Artificial Intelligence Robot)