Tillämpningen av artificiell intelligens (AI) växer snabbt och blir alltmer sammanflätad med vårt dagliga liv och högriskbranscher som hälso- och sjukvård, telekom och energi. Men med stor kraft kommer också stort ansvar: AI-system gör ibland fel eller ger osäkra svar som kan få stora konsekvenser.
Varför är detta så viktigt?
Många AI-modeller, även avancerade sådana, kan ibland uppvisa så kallade 'hallucinationer'—de ger felaktiga eller ogrundade svar. Inom sektorer där beslut väger tungt, som medicinsk diagnostik eller autonom körning, kan detta få katastrofala följder. Themis AI har utvecklat Capsa, en plattform som tillämpar osäkerhetskvantifiering (uncertainty quantification): den mäter och kvantifierar osäkerheten i AI-utdata på ett detaljerat och tillförlitligt sätt.
Hur fungerar det?
Genom att lära modeller osäkerhetsmedvetenhet kan de förse utdata med en risk- eller tillförlitlighetsetikett. Till exempel: en självkörande bil kan indikera att den är osäker på en situation och därför aktivera mänsklig intervention. Detta ökar inte bara säkerheten utan även användarnas förtroende för AI-system.
capsa_torch.wrapper() där utdatan består av både förutsägelsen och risken:
Slutsats
MIT-teamet team visar att framtidens AI inte bara handlar om att bli smartare, utan framför allt om att fungera säkrare och mer rättvist. På NetCare tror vi att AI först blir genuint värdefull när den är transparent kring sina egna begränsningar. Med avancerade verktyg för osäkerhetskvantifiering som Capsa kan du omsätta den visionen i praktiken.