Le MIT mène des recherches pour rendre l'IA plus intelligente

L'équipe du MIT apprend aux modèles d'IA ce qu'ils ne savaient pas encore.

De toepassing van kunstmatige intelligentie (AI) groeit snel en raakt steeds meer verweven met ons dagelijks leven en high-stakes industrieën zoals gezondheidszorg, telecom en energie. Maar met grote kracht komt ook grote verantwoordelijkheid: AI-systemen maken soms fouten of geven onzekere antwoorden die grote gevolgen kunnen hebben.

MIT’s Themis AI, mede opgericht en geleid door professor Daniela Rus van het CSAIL-lab, biedt een baanbrekende oplossing. Hun technologie stelt AI-modellen in staat om te ‘weten wat ze niet weten’. Dit betekent dat AI-systemen zelf kunnen aangeven wanneer ze onzeker zijn over hun voorspellingen, waardoor fouten kunnen worden voorkomen voordat ze schade aanrichten.

Waarom is dit zo belangrijk?
Veel AI-modellen, zelfs geavanceerde, kunnen soms zogenaamde ‘hallucinaties’ vertonen—ze geven foutieve of ongefundeerde antwoorden. In sectoren waar beslissingen zwaar wegen, zoals medische diagnose of autonoom rijden, kan dit desastreuze gevolgen hebben. Themis AI ontwikkelde Capsa, een platform dat uncertainty quantification toepast: het meet en kwantificeert de onzekerheid van AI-uitvoer op een gedetailleerde en betrouwbare manier.

 Comment ça fonctionne ?
En apprenant aux modèles la prise en compte de l'incertitude, ils peuvent fournir leurs sorties avec une étiquette de risque ou de fiabilité. Par exemple, une voiture autonome peut indiquer qu'elle n'est pas sûre d'une situation et ainsi déclencher une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d'IA.

Exemples d'implémentation technique

  • Lors de l'intégration avec PyTorch, il s'agit d'envelopper le modèle via capsa_torch.wrapper() dont la sortie comprend à la fois la prédiction et le risque :

Python example met capsa

Pour les modèles TensorFlow, Capsa fonctionne avec un décorateur :

tensorflow

L'impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente un bond en avant considérable. Nous pouvons fournir des applications d'IA qui ne sont pas seulement intelligentes, mais aussi sûres et plus prévisibles, avec moins de risques d'hallucinations. Elle aide les organisations à prendre des décisions mieux étayées et à réduire les risques lors de l'intégration de l'IA dans des applications critiques pour l'entreprise.

Conclusion
Le MIT équipe Montre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligente, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous croyons que l'IA ne devient réellement précieuse que lorsqu'elle est transparente quant à ses propres limites. Avec des outils avancés de quantification de l'incertitude tels que Capsa, vous pouvez également mettre cette vision en pratique.

Gérard

Gérard est actif en tant que consultant et manager en IA. Fort d'une grande expérience au sein de grandes organisations, il peut démêler un problème très rapidement et travailler à une solution. Associé à une formation économique, il assure des choix responsables sur le plan commercial.