MIT team at work

Une équipe du MIT apprend aux modèles d'IA ce qu'ils ne savaient pas encore.

L’application de l’intelligence artificielle (IA) connaît une croissance rapide et s’intègre de plus en plus dans notre vie quotidienne et dans des secteurs à enjeux élevés tels que la santé, les télécommunications et l’énergie. Mais avec un grand pouvoir vient une grande responsabilité : les systèmes d’IA peuvent parfois commettre des erreurs ou donner des réponses incertaines qui peuvent avoir des conséquences majeures.

Themis AI du MIT, co-fondée et dirigée par la professeure Daniela Rus du laboratoire CSAIL, offre une solution révolutionnaire. Leur technologie permet aux modèles d’IA de « savoir ce qu’ils ne savent pas ». Cela signifie que les systèmes d’IA peuvent indiquer eux-mêmes quand ils sont incertains de leurs prédictions, ce qui permet d’éviter les erreurs avant qu’elles ne causent des dommages.

Pourquoi est-ce si important ?
De nombreux modèles d’IA, même les plus avancés, peuvent parfois présenter des « hallucinations » – ils donnent des réponses erronées ou non fondées. Dans les secteurs où les décisions ont un poids important, comme le diagnostic médical ou la conduite autonome, cela peut avoir des conséquences désastreuses. Themis AI a développé Capsa, une plateforme qui applique la quantification de l’incertitude : elle mesure et quantifie l’incertitude des sorties d’IA de manière détaillée et fiable.

 Comment ça marche ?
En dotant les modèles d’une conscience de l’incertitude, ils peuvent fournir des sorties avec une étiquette de risque ou de fiabilité. Par exemple : une voiture autonome peut indiquer qu’elle n’est pas sûre d’une situation et activer une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d’IA.

Exemples d’implémentation technique

  • Lors de l’intégration avec PyTorch, l’encapsulation du modèle se fait via capsa_torch.wrapper(), où la sortie comprend à la fois la prédiction et le risque :

Python example met capsa

Pour les modèles TensorFlow, Capsa fonctionne avec un décorateur :

tensorflow

L’impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente un énorme pas en avant. Nous pouvons fournir des applications d’IA qui sont non seulement intelligentes, mais aussi sûres et plus prévisibles, avec moins de risques d’hallucinations. Cela aide les organisations à prendre des décisions mieux fondées et à réduire les risques lors de l’introduction de l’IA dans des applications critiques pour l’entreprise.

Conclusion
L’équipe du MIT montre que l’avenir de l’IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous pensons que l’IA ne devient vraiment précieuse que lorsqu’elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l’incertitude comme Capsa, vous pouvez également mettre cette vision en pratique.

Gerard

Gerard

Gérard est un consultant et manager expérimenté en IA. Fort de son expérience au sein de grandes organisations, il est capable d'identifier rapidement les problèmes et de proposer des solutions efficaces. Son expertise économique lui permet de garantir des choix commercialement viables.

AIR (Artificial Intelligence Robot)