L'applicazione dell'intelligenza artificiale (IA) sta crescendo rapidamente e si intreccia sempre più con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l'energia. Ma con grande potere arriva anche grande responsabilità: i sistemi IA a volte commettono errori o forniscono risposte incerte che possono avere gravi conseguenze.
Perché è così importante?
Molti modelli di IA, anche avanzati, possono talvolta mostrare le cosiddette “allucinazioni” — forniscono risposte errate o infondate. In settori in cui le decisioni hanno un peso significativo, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza: misura e quantifica l'incertezza dell'output dell'IA in modo dettagliato e affidabile.
Come funziona?
Instillando ai modelli la consapevolezza dell'incertezza, è possibile dotare gli output di un'etichetta di rischio o di affidabilità. Ad esempio, un'auto a guida autonoma può segnalare di non essere sicura di una situazione e quindi attivare un intervento umano. Questo non solo aumenta la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.
capsa_torch.wrapper() in cui l'output comprende sia la previsione sia il rischio:
Conclusione
Il MIT team dimostra che il futuro dell'IA non riguarda solo diventare più intelligenti, ma soprattutto funzionare in modo più sicuro ed equo. In NetCare crediamo che l'IA diventi davvero preziosa solo quando è trasparente sui propri limiti. Con strumenti avanzati di quantificazione dell'incertezza come Capsa, può mettere in pratica questa visione.