L'application de l'intelligence artificielle (IA) se développe rapidement et s'intègre de plus en plus à notre vie quotidienne ainsi qu'à des secteurs à enjeux élevés tels que la santé, les télécommunications et l'énergie. Mais un grand pouvoir implique de grandes responsabilités : les systèmes d'IA commettent parfois des erreurs ou fournissent des réponses incertaines pouvant entraîner des conséquences majeures.
Pourquoi est-ce si important ?
De nombreux modèles d'IA, même avancés, peuvent parfois présenter des « hallucinations » : ils fournissent des réponses erronées ou non fondées. Dans des secteurs où les décisions ont un poids important, comme le diagnostic médical ou la conduite autonome, cela peut avoir des conséquences désastreuses. Themis AI a développé Capsa, une plateforme qui applique la quantification de l'incertitude : elle mesure et quantifie l'incertitude des résultats de l'IA de manière détaillée et fiable.
Comment cela fonctionne-t-il ?
En dotant les modèles d'une conscience de l'incertitude, ils peuvent assortir leurs résultats d'un label de risque ou de fiabilité. Par exemple : une voiture autonome peut signaler qu'elle n'est pas certaine d'une situation et ainsi activer une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs envers les systèmes d'IA.
capsa_torch.wrapper() où le résultat se compose à la fois de la prédiction et du risque :
Conclusion
Le MIT équipe démontre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous pensons que l'IA ne devient réellement précieuse que lorsqu'elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l'incertitude comme Capsa, vous pouvez également mettre cette vision en pratique.