Il MIT conduce ricerche per rendere l'IA più intelligente

Il team del MIT insegna ai modelli di IA ciò che ancora non sapevano.

L'applicazione dell'intelligenza artificiale (IA) sta crescendo rapidamente e si intreccia sempre più con la nostra vita quotidiana e con industrie ad alto rischio come la sanità, le telecomunicazioni e l'energia. Ma con grande potere arriva anche grande responsabilità: i sistemi IA a volte commettono errori o forniscono risposte incerte che possono avere gravi conseguenze.

Themis AI del MIT, co-fondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione rivoluzionaria. La loro tecnologia consente ai modelli di IA di ‘sapere ciò che non sanno’. Ciò significa che i sistemi IA possono indicare autonomamente quando sono incerti sulle loro previsioni, evitando errori prima che causino danni.

Perché è così importante?
Molti modelli di IA, anche avanzati, possono talvolta mostrare le cosiddette ‘allucinazioni’—fornendo risposte errate o infondate. In settori in cui le decisioni hanno un peso significativo, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza: misura e quantifica l'incertezza dell'output dell'IA in modo dettagliato e affidabile.

 Come funziona?
Insegnando ai modelli la consapevolezza dell'incertezza, possono fornire le uscite con un'etichetta di rischio o affidabilità. Ad esempio, un'auto a guida autonoma può indicare che non è sicura di una situazione e quindi attivare un intervento umano. Questo aumenta non solo la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.

Esempi di implementazione tecnica

  • Con l'integrazione con PyTorch, si avvolge il modello tramite capsa_torch.wrapper() dove l'output consiste sia nella previsione sia nel rischio:

Python example met capsa

Per i modelli TensorFlow, Capsa funziona con un decoratore:

tensorflow

L'impatto per le aziende e gli utenti
Per NetCare e i suoi clienti, questa tecnologia rappresenta un enorme passo avanti. Possiamo fornire applicazioni di IA che non sono solo intelligenti, ma anche sicure e più prevedibili, con minori probabilità di allucinazioni. Aiuta le organizzazioni a prendere decisioni meglio fondate e a ridurre i rischi nell'implementazione dell'IA in applicazioni critiche per l'azienda.

Conclusione
Il MIT team dimostra che il futuro dell'IA non riguarda solo diventare più intelligenti, ma soprattutto funzionare in modo più sicuro ed equo. In NetCare crediamo che l'IA diventi davvero preziosa solo quando è trasparente sui propri limiti. Con strumenti avanzati di quantificazione dell'incertezza come Capsa, può mettere in pratica questa visione.

Gerard

Gerard è attivo come consulente e manager AI. Con molta esperienza in grandi organizzazioni, riesce a svelare rapidamente un problema e a lavorare verso una soluzione. Unito a una formazione economica, garantisce scelte commercialmente responsabili.