MIT forskar för att göra AI smartare

MIT-team lär AI-modeller vad de ännu inte visste.

Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer sammanflätad med vårt dagliga liv och högriskbranscher som hälso- och sjukvård, telekom och energi. Men med stor kraft kommer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.

Varför är detta så viktigt?
Många AI-modeller, även avancerade sådana, kan ibland uppvisa så kallade 'hallucinationer'—de ger felaktiga eller ogrundade svar. Inom sektorer där beslut väger tungt, som medicinsk diagnostik eller autonom körning, kan detta få katastrofala följder. Themis AI har utvecklat Capsa, en plattform som tillämpar osäkerhetskvantifiering (uncertainty quantification): den mäter och kvantifierar osäkerheten i AI-utdata på ett detaljerat och tillförlitligt sätt.

 Hur fungerar det?
Genom att lära modeller osäkerhetsmedvetenhet kan de förse utdata med en risk- eller tillförlitlighetsetikett. Till exempel: en självkörande bil kan indikera att den är osäker på en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten utan även användarnas förtroende för AI-system.

Exempel på teknisk implementering
  • Vid integrering med PyTorch sker omslutningen (wrapping) av modellen via capsa_torch.wrapper() där utdatan består av både förutsägelsen och risken:
Python example met capsa
För TensorFlow-modeller fungerar Capsa med en dekorator:
tensorflow
Effekten för företag och användare
För NetCare och våra kunder innebär denna teknik ett enormt steg framåt. Vi kan leverera AI-tillämpningar som inte bara är intelligenta, utan också säkra och mer förutsägbara med mindre risk för hallucinationer. Det hjälper organisationer att fatta bättre underbyggda beslut och minska riskerna vid implementering av AI i affärskritiska applikationer.

Slutsats
MIT-teamet team visar att framtidens AI inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. På NetCare tror vi att AI först blir genuint värdefull när den är transparent kring sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan du omsätta den visionen i praktiken.

Gerard

Gerard är aktiv som AI‑konsult och manager. Med mycket erfarenhet från stora organisationer kan han särskilt snabbt lösa ett problem och arbeta mot en lösning. Kombinerat med en ekonomisk bakgrund säkerställer han affärsmässiga och ansvarsfulla val.