Il MIT conduce ricerche per rendere l'IA più intelligente

Il team del MIT insegna ai modelli di IA ciò che ancora non sapevano.

L'applicazione dell'intelligenza artificiale (IA) sta crescendo rapidamente ed è sempre più intrecciata con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l'energia. Ma da un grande potere derivano grandi responsabilità: i sistemi di IA a volte commettono errori o forniscono risposte incerte che possono avere gravi conseguenze.

Perché è così importante?
Molti modelli di IA, anche quelli avanzati, possono talvolta mostrare le cosiddette 'allucinazioni', ovvero fornire risposte errate o prive di fondamento. In settori in cui le decisioni hanno un peso notevole, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza: misura e quantifica l'incertezza dell'output dell'IA in modo dettagliato e affidabile.

 Come funziona?
Dotando i modelli di consapevolezza dell'incertezza (uncertainty awareness), è possibile fornire agli output un'etichetta di rischio o di affidabilità. Ad esempio: un'auto a guida autonoma può segnalare di non essere sicura di una situazione e quindi attivare un intervento umano. Ciò aumenta non solo la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.

Esempi di implementazione tecnica
  • Nell'integrazione con PyTorch, il wrapping del modello avviene tramite capsa_torch.wrapper() dove l'output consiste sia nella previsione che nel rischio:
Python example met capsa
Per i modelli TensorFlow, Capsa funziona con un decorator:
tensorflow
L'impatto per le aziende e gli utenti
Per NetCare e i suoi clienti, questa tecnologia rappresenta un enorme passo avanti. Possiamo fornire applicazioni di IA che non sono solo intelligenti, ma anche sicure e più prevedibili, con una minore probabilità di allucinazioni. Ciò aiuta le organizzazioni a prendere decisioni meglio informate e a ridurre i rischi durante l'implementazione dell'IA in applicazioni critiche per il business.

Conclusione
Il MIT team dimostra che il futuro dell'IA non riguarda solo il diventare più intelligenti, ma soprattutto il funzionare in modo più sicuro ed equo. In NetCare crediamo che l'IA diventi veramente preziosa solo quando è trasparente riguardo ai propri limiti. Con strumenti avanzati di quantificazione dell'incertezza come Capsa, potete mettere in pratica questa visione.

Gerard

Gerard opera come consulente e manager di IA. Grazie alla sua vasta esperienza in grandi organizzazioni, è in grado di analizzare rapidamente un problema e lavorare verso una soluzione. Combinando questo con un background economico, garantisce scelte aziendali responsabili.