Le MIT mène des recherches pour rendre l'IA plus intelligente

L'équipe MIT apprend aux modèles d'IA ce qu'ils ne savaient pas.

L'application de l'intelligence artificielle (IA) croît rapidement et s'entrelace de plus en plus avec notre quotidien ainsi qu'avec des industries à enjeux élevés telles que la santé, les télécommunications et l'énergie. Mais avec un grand pouvoir vient une grande responsabilité : les systèmes d'IA commettent parfois des erreurs ou donnent des réponses incertaines qui peuvent avoir de lourdes conséquences.

Pourquoi est-ce si important ?
De nombreux modèles d'IA, même avancés, peuvent parfois présenter ce que l’on appelle des « hallucinations » — ils fournissent des réponses erronées ou non fondées. Dans les secteurs où les décisions sont lourdes de conséquences, comme le diagnostic médical ou la conduite autonome, cela peut entraîner des effets désastreux. Themis AI a développé Capsa, une plateforme qui applique la quantification de l’incertitude : elle mesure et quantifie l’incertitude des sorties d’IA de manière détaillée et fiable.

 Comment ça fonctionne ?
En inculquant aux modèles la prise de conscience de l’incertitude, ils peuvent doter leurs sorties d’une étiquette de risque ou de fiabilité. Par exemple, une voiture autonome peut indiquer qu’elle n’est pas sûre d’une situation et ainsi déclencher une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d’IA.

Exemples d'implémentation technique
  • Lors de l'intégration avec PyTorch, il s'agit d'envelopper le modèle via capsa_torch.wrapper() où la sortie comprend à la fois la prédiction et le risque :
Python example met capsa
Pour les modèles TensorFlow, Capsa fonctionne avec un décorateur :
tensorflow
L'impact pour les entreprises et les utilisateurs
Pour NetCare et ses clients, cette technologie représente un bond en avant considérable. Nous pouvons fournir des applications d’IA qui ne sont pas seulement intelligentes, mais aussi sûres et plus prévisibles, avec moins de risques d’hallucinations. Elle aide les organisations à prendre des décisions mieux étayées et à réduire les risques lors de l’intégration de l’IA dans des applications critiques pour l’entreprise.

Conclusion
Le MIT équipe démontre que l’avenir de l’IA ne consiste pas seulement à devenir plus intelligente, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous croyons que l’IA ne devient réellement précieuse que lorsqu’elle est transparente quant à ses propres limites. Avec des outils avancés de quantification de l’incertitude comme Capsa, vous pouvez également mettre cette vision en pratique.

Gerard

Gerard travaille comme consultant en IA et manager. Fort d'une vaste expérience au sein de grandes organisations, il peut démêler un problème très rapidement et travailler à une solution. Associé à une formation économique, il garantit des choix commercialement responsables.