Il MIT conduce ricerche per rendere l'IA più intelligente

Il Team MIT insegna ai modelli di IA ciò che ancora non sapevano.

L'applicazione dell'intelligenza artificiale (IA) è in rapida crescita e si sta sempre più intrecciando con la nostra vita quotidiana e con settori ad alto rischio come la sanità, le telecomunicazioni e l'energia. Ma con grandi poteri derivano grandi responsabilità: i sistemi di IA a volte commettono errori o forniscono risposte incerte che possono avere conseguenze significative.

Themis AI del MIT, co-fondata e guidata dalla professoressa Daniela Rus del laboratorio CSAIL, offre una soluzione rivoluzionaria. La loro tecnologia consente ai modelli di IA di 'sapere ciò che non sanno'. Ciò significa che i sistemi di IA possono indicare autonomamente quando sono incerti sulle loro previsioni, prevenendo così errori prima che causino danni.

Perché è così importante?
Molti modelli di IA, anche quelli avanzati, possono talvolta manifestare le cosiddette 'allucinazioni': forniscono risposte errate o infondate. In settori in cui le decisioni hanno un peso notevole, come la diagnosi medica o la guida autonoma, ciò può avere conseguenze disastrose. Themis AI ha sviluppato Capsa, una piattaforma che applica la quantificazione dell'incertezza (uncertainty quantification): misura e quantifica l'incertezza degli output dell'IA in modo dettagliato e affidabile.

 Come funziona?
Integrando la consapevolezza dell'incertezza nei modelli, è possibile dotare gli output di un'etichetta di rischio o affidabilità. Ad esempio, un'auto a guida autonoma può segnalare di non essere sicura di una situazione e attivare di conseguenza un intervento umano. Questo non solo aumenta la sicurezza, ma anche la fiducia degli utenti nei sistemi di IA.

Esempi di implementazione tecnica

  • Quando si integra con PyTorch, l'avvolgimento del modello avviene tramite capsa_torch.wrapper() dove l'output consiste sia nella previsione che nel rischio:

Python example met capsa

Per i modelli TensorFlow, Capsa utilizza un decoratore:

TensorFlow

L'impatto per aziende e utenti
Per NetCare e per i suoi clienti, questa tecnologia rappresenta un enorme passo avanti. Siamo in grado di fornire applicazioni di IA che non sono solo intelligenti, ma anche sicure e più prevedibili, con minori probabilità di allucinazioni. Aiuta le organizzazioni a prendere decisioni più informate e a ridurre i rischi nell'implementazione dell'IA in applicazioni critiche per il business.

Conclusione
Il MIT Team dimostra che il futuro dell'IA non riguarda solo il diventare più intelligenti, ma soprattutto il funzionare in modo più sicuro ed equo. Noi di NetCare crediamo che l'IA diventi veramente preziosa solo quando è trasparente riguardo ai propri limiti. Con strumenti avanzati di quantificazione dell'incertezza come Capsa, potete tradurre questa visione in pratica.

Gerard

Gerard è attivo come consulente e manager di IA. Con una vasta esperienza maturata in grandi organizzazioni, è in grado di analizzare rapidamente un problema e lavorare per trovare una soluzione. Unito a un background economico, assicura scelte commercialmente valide.

AIR (Robot Intelligenza Artificiale)