MIT team at work

El equipo del MIT enseña a los modelos de IA lo que aún no sabían.

La aplicación de la inteligencia artificial (IA) está creciendo rápidamente y se está entrelazando cada vez más con nuestra vida diaria e industrias de alto riesgo como la atención médica, las telecomunicaciones y la energía. Pero con un gran poder viene una gran responsabilidad: los sistemas de IA a veces cometen errores o dan respuestas inciertas que pueden tener grandes consecuencias.

Themis AI del MIT, cofundada y dirigida por la profesora Daniela Rus del laboratorio CSAIL, ofrece una solución innovadora. Su tecnología permite a los modelos de IA “saber lo que no saben”. Esto significa que los sistemas de IA pueden indicar por sí mismos cuándo no están seguros de sus predicciones, lo que ayuda a prevenir errores antes de que causen daños.

¿Por qué es esto tan importante?
Muchos modelos de IA, incluso los avanzados, a veces pueden mostrar las llamadas “alucinaciones”: dan respuestas incorrectas o infundadas. En sectores donde las decisiones tienen un gran peso, como el diagnóstico médico o la conducción autónoma, esto puede tener consecuencias desastrosas. Themis AI desarrolló Capsa, una plataforma que aplica la cuantificación de la incertidumbre: mide y cuantifica la incertidumbre de la salida de la IA de una manera detallada y confiable.

 ¿Cómo funciona?
Al enseñar a los modelos a ser conscientes de la incertidumbre, pueden proporcionar a las salidas una etiqueta de riesgo o confiabilidad. Por ejemplo: un coche autónomo puede indicar que no está seguro de una situación y, por lo tanto, activar una intervención humana. Esto no solo aumenta la seguridad, sino también la confianza de los usuarios en los sistemas de IA.

Ejemplos de implementación técnica

  • Al integrarse con PyTorch, el modelo se envuelve a través de capsa_torch.wrapper(), donde la salida consiste tanto en la predicción como en el riesgo:

Python example met capsa

Para los modelos de TensorFlow, Capsa funciona con un decorador:

tensorflow

El impacto para empresas y usuarios
Para NetCare y sus clientes, esta tecnología significa un gran paso adelante. Podemos ofrecer aplicaciones de IA que no solo son inteligentes, sino también seguras y más predecibles con menos posibilidades de alucinaciones. Ayuda a las organizaciones a tomar decisiones mejor informadas y a reducir los riesgos al introducir la IA en aplicaciones críticas para el negocio.

Conclusión
El equipo del MIT demuestra que el futuro de la IA no solo se trata de ser más inteligente, sino sobre todo de funcionar de forma más segura y justa. En NetCare creemos que la IA solo se vuelve realmente valiosa cuando es transparente sobre sus propias limitaciones. Con herramientas avanzadas de cuantificación de la incertidumbre como Capsa, usted también puede poner en práctica esa visión.

Gerard

Gerard

Gerard está activo como consultor y gerente de IA. Con mucha experiencia en grandes organizaciones, puede desentrañar un problema muy rápidamente y trabajar hacia una solución. Combinado con una formación económica, asegura decisiones comercialmente responsables.

AIR (Artificial Intelligence Robot)