MIT forskar för att göra AI smartare

MIT‑teamet lär AI‑modeller vad de ännu inte vet.

Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer integrerad i vårt dagliga liv och i höginsatsindustrier som sjukvård, telekommunikation och energi. Men med stor kraft följer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.

MIT:s Themis AI, medgrundat och lett av professor Daniela Rus från CSAIL-labbet, erbjuder en banbrytande lösning. Deras teknik gör det möjligt för AI-modeller att ‘veta vad de inte vet’. Det innebär att AI-system själva kan ange när de är osäkra på sina förutsägelser, vilket kan förhindra fel innan de orsakar skada.

Varför är detta så viktigt?
Många AI-modeller, även avancerade, kan ibland visa så kallade ‘hallucinationer’ – de ger felaktiga eller ogrundade svar. I sektorer där beslut väger tungt, som medicinsk diagnostik eller autonom körning, kan detta få katastrofala följder. Themis AI utvecklade Capsa, en plattform som använder osäkerhetskvantifiering: den mäter och kvantifierar osäkerheten i AI:s output på ett detaljerat och pålitligt sätt.

 Hur fungerar det?
Genom att ge modeller medvetenhet om osäkerhet kan de deras output förses med en risk- eller pålitlighetsetikett. Till exempel kan en självkörande bil indikera att den är osäker på en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten utan också användarnas förtroende för AI-system.

Exempel på teknisk implementering

  • Vid integration med PyTorch handlar det om att wrappa modellen via capsa_torch.wrapper() där outputen består av både förutsägelsen och risken:

Python example met capsa

För TensorFlow-modeller fungerar Capsa med en dekoratör:

tensorflow

Påverkan för företag och användare
För NetCare och dess kunder innebär denna teknik ett enormt steg framåt. Vi kan leverera AI-tillämpningar som inte bara är intelligenta utan också säkra och mer förutsägbara med mindre risk för hallucinationer. Det hjälper organisationer att fatta bättre underbyggda beslut och minska riskerna när AI införs i affärskritiska applikationer.

Slutsats
MIT team visar att AI:s framtid inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och rättvisare. På NetCare tror vi att AI först blir riktigt värdefull när den är transparent om sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan du också omsätta den visionen i praktiken.

Gerard

Gerard är aktiv som AI‑konsult och manager. Med stor erfarenhet från stora organisationer kan han snabbt avkoda ett problem och arbeta mot en lösning. Kombinerat med en ekonomisk bakgrund säkerställer han affärsmässiga och ansvarsfulla val.