La aplicación de la inteligencia artificial (IA) crece rápidamente y está cada vez más entrelazada con nuestra vida cotidiana y con sectores de alto riesgo como la atención sanitaria, las telecomunicaciones y la energía. Pero un gran poder conlleva una gran responsabilidad: los sistemas de IA a veces cometen errores o dan respuestas inciertas que pueden tener graves consecuencias.
¿Por qué es esto tan importante?
Muchos modelos de IA, incluso los avanzados, pueden mostrar a veces las llamadas 'alucinaciones': dan respuestas erróneas o infundadas. En sectores donde las decisiones tienen un gran peso, como el diagnóstico médico o la conducción autónoma, esto puede tener consecuencias desastrosas. Themis AI ha desarrollado Capsa, una plataforma que aplica la cuantificación de la incertidumbre: mide y cuantifica la incertidumbre de los resultados de la IA de forma detallada y fiable.
¿Cómo funciona?
Al dotar a los modelos de conciencia de la incertidumbre, pueden proporcionar etiquetas de riesgo o fiabilidad a sus resultados. Por ejemplo: un coche autónomo puede indicar que no está seguro de una situación y, por tanto, activar la intervención humana. Esto no solo aumenta la seguridad, sino también la confianza de los usuarios en los sistemas de IA.
capsa_torch.wrapper() donde el resultado consiste tanto en la predicción como en el riesgo:
Conclusión
El MIT equipo demuestra que el futuro de la IA no solo consiste en ser más inteligente, sino sobre todo en funcionar de forma más segura y justa. En NetCare creemos que la IA solo es realmente valiosa cuando es transparente sobre sus propias limitaciones. Con herramientas avanzadas de cuantificación de la incertidumbre como Capsa, usted también puede llevar esa visión a la práctica.