Le MIT mène des recherches pour rendre l'IA plus intelligente

L'équipe du MIT apprend aux modèles d'IA ce qu'ils ignoraient encore.

L'application de l'intelligence artificielle (IA) progresse rapidement et s'intègre de plus en plus dans notre vie quotidienne et dans des secteurs à fort enjeu tels que la santé, les télécommunications et l'énergie. Mais un grand pouvoir implique de grandes responsabilités : les systèmes d'IA commettent parfois des erreurs ou fournissent des réponses incertaines qui peuvent avoir des conséquences majeures.

Themis AI du MIT, co-fondée et dirigée par la professeure Daniela Rus du laboratoire CSAIL, propose une solution révolutionnaire. Leur technologie permet aux modèles d'IA de “savoir ce qu'ils ne savent pas”. Cela signifie que les systèmes d'IA peuvent indiquer eux-mêmes lorsqu'ils sont incertains de leurs prédictions, ce qui permet d'éviter les erreurs avant qu'elles ne causent des dommages.

Pourquoi est-ce si important ?
De nombreux modèles d'IA, même les plus sophistiqués, peuvent parfois présenter des « hallucinations » – ils donnent des réponses erronées ou non fondées. Dans les secteurs où les décisions sont lourdes de conséquences, comme le diagnostic médical ou la conduite autonome, cela peut avoir des effets désastreux. Themis AI a développé Capsa, une plateforme qui applique la quantification de l'incertitude : elle mesure et quantifie l'incertitude des sorties de l'IA de manière détaillée et fiable.

 Comment cela fonctionne-t-il ?
En dotant les modèles d'une conscience de l'incertitude, il est possible de leur attribuer une étiquette de risque ou de fiabilité pour leurs sorties. Par exemple, une voiture autonome peut indiquer qu'elle n'est pas certaine d'une situation et activer par conséquent une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d'IA.

Exemples d'implémentation technique

  • Lors de l'intégration avec PyTorch, l'encapsulation du modèle se fait via capsa_torch.wrapper() où la sortie se compose à la fois de la prédiction et du risque :

Python example met capsa

Pour les modèles TensorFlow, Capsa utilise un décorateur :

tensorflow

L'impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente un énorme pas en avant. Nous pouvons fournir des applications d'IA qui ne sont pas seulement intelligentes, mais aussi sûres et plus prévisibles avec moins de risques d'hallucinations. Cela aide les organisations à prendre des décisions mieux étayées et à réduire les risques lors de l'intégration de l'IA dans des applications critiques pour l'entreprise.

Conclusion
Le MIT équipe montre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous pensons que l'IA n'acquiert une réelle valeur que lorsqu'elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l'incertitude tels que Capsa, vous pouvez également mettre cette vision en pratique.

Gerard

Gerard est actif en tant que consultant et manager en IA. Fort de son expérience au sein de grandes organisations, il peut démêler un problème très rapidement et œuvrer à une solution. Combiné à une formation économique, il garantit des choix commercialement responsables.

AIR (Robot d'Intelligence Artificielle)