MIT team at work

Il team del MIT insegna ai modelli di intelligenza artificiale ciò che non sapevano ancora.

L’applicazione dell’intelligenza artificiale (IA) è in rapida crescita e si sta sempre più intrecciando con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l’energia. Ma con grande potere arriva anche grande responsabilità: i sistemi di IA a volte commettono errori o forniscono risposte incerte che possono avere gravi conseguenze.

Themis AI del MIT, co-fondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione innovativa. La loro tecnologia consente ai modelli di IA di “sapere cosa non sanno”. Ciò significa che i sistemi di IA possono indicare da soli quando sono incerti sulle loro previsioni, prevenendo così gli errori prima che causino danni.

Perché è così importante?
Molti modelli di IA, anche quelli avanzati, a volte possono mostrare le cosiddette “allucinazioni”, ovvero fornire risposte errate o infondate. In settori in cui le decisioni hanno un peso significativo, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell’incertezza: misura e quantifica l’incertezza dell’output dell’IA in modo dettagliato e affidabile.

 Come funziona?
Insegnando ai modelli la consapevolezza dell’incertezza, possono fornire output con un’etichetta di rischio o affidabilità. Ad esempio: un’auto a guida autonoma può indicare di non essere sicura di una situazione e quindi attivare un intervento umano. Ciò non solo aumenta la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.

Esempi di implementazione tecnica

  • Nell’integrazione con PyTorch, il wrapping del modello avviene tramite capsa_torch.wrapper(), dove l’output consiste sia nella previsione che nel rischio:

Python example met capsa

Per i modelli TensorFlow, Capsa funziona con un decoratore:

tensorflow

L’impatto per aziende e utenti
Per NetCare e i suoi clienti, questa tecnologia rappresenta un enorme passo avanti. Possiamo fornire applicazioni di IA che non sono solo intelligenti, ma anche sicure e più prevedibili con minori possibilità di allucinazioni. Aiuta le organizzazioni a prendere decisioni meglio informate e a ridurre i rischi nell’introduzione dell’IA in applicazioni critiche per l’azienda.

Conclusione
Il team del MIT dimostra che il futuro dell’IA non riguarda solo il diventare più intelligenti, ma soprattutto il funzionare in modo più sicuro ed equo. In NetCare crediamo che l’IA diventi veramente preziosa solo quando è trasparente sui propri limiti. Con strumenti avanzati di quantificazione dell’incertezza come Capsa, potete anche voi mettere in pratica questa visione.

Gerard

Gerard

Gerard è attivo come consulente e manager AI. Con molta esperienza in grandi organizzazioni, è in grado di analizzare rapidamente un problema e lavorare verso una soluzione. Combinato con un background economico, garantisce scelte commercialmente responsabili.

AIR (Artificial Intelligence Robot)