Le MIT mène des recherches pour rendre l'IA plus intelligente

Une équipe du MIT apprend aux modèles d'IA ce qu'ils ignoraient encore.

L'application de l'intelligence artificielle (IA) se développe rapidement et s'intègre de plus en plus à notre vie quotidienne ainsi qu'à des secteurs à enjeux élevés tels que la santé, les télécommunications et l'énergie. Mais un grand pouvoir implique de grandes responsabilités : les systèmes d'IA commettent parfois des erreurs ou fournissent des réponses incertaines pouvant entraîner des conséquences majeures.

Pourquoi est-ce si important ?
De nombreux modèles d'IA, même avancés, peuvent parfois présenter des « hallucinations » : ils fournissent des réponses erronées ou non fondées. Dans des secteurs où les décisions ont un poids important, comme le diagnostic médical ou la conduite autonome, cela peut avoir des conséquences désastreuses. Themis AI a développé Capsa, une plateforme qui applique la quantification de l'incertitude : elle mesure et quantifie l'incertitude des résultats de l'IA de manière détaillée et fiable.

 Comment cela fonctionne-t-il ?
En dotant les modèles d'une conscience de l'incertitude, ils peuvent assortir leurs résultats d'un label de risque ou de fiabilité. Par exemple : une voiture autonome peut signaler qu'elle n'est pas certaine d'une situation et ainsi activer une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs envers les systèmes d'IA.

Exemples d'implémentation technique
  • Lors de l'intégration avec PyTorch, l'encapsulation (wrapping) du modèle s'effectue via capsa_torch.wrapper() où le résultat se compose à la fois de la prédiction et du risque :
Python example met capsa
Pour les modèles TensorFlow, Capsa fonctionne avec un décorateur :
tensorflow
L'impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente un énorme pas en avant. Nous pouvons fournir des applications d'IA qui sont non seulement intelligentes, mais aussi sûres et plus prévisibles, avec moins de risques d'hallucinations. Cela aide les organisations à prendre des décisions mieux étayées et à réduire les risques lors de l'introduction de l'IA dans des applications critiques pour l'entreprise.

Conclusion
Le MIT équipe démontre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous pensons que l'IA ne devient réellement précieuse que lorsqu'elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l'incertitude comme Capsa, vous pouvez également mettre cette vision en pratique.

Gerard

Gerard est actif en tant que consultant et manager en IA. Grâce à sa grande expérience au sein de grandes organisations, il est capable de décortiquer un problème et d'élaborer une solution avec une rapidité remarquable. Combiné à une formation en économie, il garantit des choix économiquement responsables.