L'application de l'intelligence artificielle (IA) se développe rapidement et s'intègre de plus en plus à notre vie quotidienne et à des secteurs à enjeux élevés tels que la santé, les télécommunications et l'énergie. Mais un grand pouvoir implique aussi une grande responsabilité : les systèmes d'IA font parfois des erreurs ou fournissent des réponses incertaines pouvant avoir de lourdes conséquences.
Themis AI du MIT, cofondée et dirigée par la professeure Daniela Rus du laboratoire CSAIL, propose une solution révolutionnaire. Leur technologie permet aux modèles d'IA de « savoir ce qu'ils ne savent pas ». Cela signifie que les systèmes d'IA peuvent eux-mêmes indiquer lorsqu'ils sont incertains quant à leurs prédictions, ce qui permet d'éviter des erreurs avant qu'elles ne causent des dommages.
Pourquoi est-ce si important ?
De nombreux modèles d'IA, même avancés, peuvent parfois présenter ce qu'on appelle des « hallucinations » — ils fournissent des réponses erronées ou non fondées. Dans des secteurs où les décisions ont des conséquences importantes, comme le diagnostic médical ou la conduite autonome, cela peut être désastreux. Themis AI a développé Capsa, une plateforme qui applique la quantification de l'incertitude : elle mesure et quantifie l'incertitude des sorties d'IA de manière détaillée et fiable.
Comment cela fonctionne-t-il ?
En enseignant aux modèles la conscience de l'incertitude, ils peuvent fournir des sorties accompagnées d'une étiquette de risque ou de fiabilité. Par exemple : une voiture autonome peut indiquer qu'elle n'est pas certaine d'une situation et ainsi déclencher une intervention humaine. Cela augmente non seulement la sécurité, mais aussi la confiance des utilisateurs dans les systèmes d'IA.
capsa_torch.wrapper() où la sortie se compose à la fois de la prédiction et du risque :

Conclusion
Le MIT équipe montre que l'avenir de l'IA ne consiste pas seulement à devenir plus intelligent, mais surtout à fonctionner de manière plus sûre et plus équitable. Chez NetCare, nous croyons que l'IA ne devient véritablement précieuse que lorsqu'elle est transparente sur ses propres limites. Avec des outils avancés de quantification de l'incertitude comme Capsa, vous pouvez concrétiser cette vision.