La aplicación de la inteligencia artificial (IA) crece rápidamente y está cada vez más integrada en nuestra vida cotidiana y en industrias de alto riesgo como la salud, las telecomunicaciones y la energía. Pero con gran poder también viene una gran responsabilidad: los sistemas de IA a veces cometen errores o dan respuestas inciertas que pueden tener graves consecuencias.
¿Por qué es tan importante?
Muchos modelos de IA, incluso los avanzados, pueden a veces presentar lo que se denomina ‘alucinaciones’, es decir, ofrecer respuestas erróneas o infundadas. En sectores donde las decisiones son críticas, como el diagnóstico médico o la conducción autónoma, esto puede tener consecuencias desastrosas. Themis AI desarrolló Capsa, una plataforma que aplica la cuantificación de la incertidumbre: mide y cuantifica la incertidumbre de la salida de la IA de manera detallada y fiable.
¿Cómo funciona?
Al dotar a los modelos de conciencia de incertidumbre, pueden proporcionar a sus salidas una etiqueta de riesgo o de fiabilidad. Por ejemplo, un coche autónomo puede indicar que no está seguro de una situación y, por lo tanto, activar una intervención humana. Esto no solo aumenta la seguridad, sino también la confianza de los usuarios en los sistemas de IA.
capsa_torch.wrapper() donde la salida consiste tanto en la predicción como en el riesgo:
Conclusión
El MIT equipo demuestra que el futuro de la IA no solo se trata de volverse más inteligente, sino también de funcionar de manera más segura y justa. En NetCare creemos que la IA solo se vuelve realmente valiosa cuando es transparente sobre sus propias limitaciones. Con herramientas avanzadas de cuantificación de la incertidumbre como Capsa, usted también puede llevar esa visión a la práctica.