MIT team at work

El equipo del MIT enseña a los modelos de IA lo que aún no sabían.

La aplicación de la inteligencia artificial (IA) está creciendo rápidamente y se está entrelazando cada vez más con nuestra vida diaria y con industrias de alto riesgo como la atención médica, las telecomunicaciones y la energía. Pero un gran poder conlleva una gran responsabilidad: los sistemas de IA a veces cometen errores o dan respuestas inciertas que pueden tener graves consecuencias.

Themis AI del MIT, cofundada y dirigida por la profesora Daniela Rus del laboratorio CSAIL, ofrece una solución innovadora. Su tecnología permite que los modelos de IA “sepan lo que no saben”. Esto significa que los sistemas de IA pueden indicar por sí mismos cuándo no están seguros de sus predicciones, lo que ayuda a prevenir errores antes de que causen daños.

¿Por qué es tan importante?
Muchos modelos de IA, incluso los avanzados, a veces pueden exhibir las llamadas “alucinaciones”: dan respuestas incorrectas o infundadas. En sectores donde las decisiones tienen un gran peso, como el diagnóstico médico o la conducción autónoma, esto puede tener consecuencias desastrosas. Themis AI desarrolló Capsa, una plataforma que aplica la cuantificación de la incertidumbre: mide y cuantifica la incertidumbre de la salida de la IA de una manera detallada y confiable.

 ¿Cómo funciona?
Al enseñar a los modelos la conciencia de la incertidumbre, pueden proporcionar a las salidas una etiqueta de riesgo o confiabilidad. Por ejemplo: un coche autónomo puede indicar que no está seguro de una situación y, por lo tanto, activar una intervención humana. Esto no solo aumenta la seguridad, sino también la confianza de los usuarios en los sistemas de IA.

Ejemplos de implementación técnica

  • Al integrar con PyTorch, el modelo se envuelve a través de capsa_torch.wrapper(), donde la salida consiste tanto en la predicción como en el riesgo:

Python example met capsa

Para los modelos de TensorFlow, Capsa funciona con un decorador:

tensorflow

El impacto para las empresas y los usuarios
Para NetCare y sus clientes, esta tecnología significa un gran avance. Podemos ofrecer aplicaciones de IA que no solo son inteligentes, sino también seguras y más predecibles con menos posibilidades de alucinaciones. Ayuda a las organizaciones a tomar decisiones mejor informadas y a reducir los riesgos al introducir la IA en aplicaciones críticas para el negocio.

Conclusión
El equipo del MIT demuestra que el futuro de la IA no solo se trata de volverse más inteligente, sino también, y lo que es más importante, de funcionar de manera más segura y justa. En NetCare, creemos que la IA solo se vuelve verdaderamente valiosa cuando es transparente sobre sus propias limitaciones. Con herramientas avanzadas de cuantificación de la incertidumbre como Capsa, usted también puede poner en práctica esa visión.

Gerard

Gerard

Gerard es un consultor y gerente de IA activo. Con una amplia experiencia en grandes organizaciones, puede desentrañar un problema muy rápidamente y trabajar hacia una solución. Combinado con una formación económica, garantiza decisiones comercialmente sólidas.

AIR (Artificial Intelligence Robot)