MIT investiga para tornar a IA mais inteligente

A Equipa MIT ensina aos modelos de IA o que eles ainda não sabiam.

A aplicação da inteligência artificial (IA) cresce rapidamente e está cada vez mais interligada com o nosso dia a dia e com setores de alto risco como saúde, telecomunicações e energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA cometem, por vezes, erros ou fornecem respostas incertas que podem ter grandes consequências.

A Themis AI do MIT, cofundada e liderada pela professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA "saibam o que não sabem". Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, permitindo evitar erros antes que causem danos.

Porque é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem, por vezes, apresentar as chamadas "alucinações" — fornecem respostas incorretas ou infundadas. Em setores onde as decisões têm um peso elevado, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu a Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.

 Como funciona?
Ao dotar os modelos de consciência de incerteza, é possível fornecer aos seus resultados um rótulo de risco ou fiabilidade. Por exemplo, um carro autónomo pode indicar que não está seguro sobre uma determinada situação e, por isso, acionar uma intervenção humana. Isto não só aumenta a segurança, como também a confiança dos utilizadores nos sistemas de IA.

Exemplos de Implementação Técnica

  • Ao integrar com PyTorch, o encapsulamento do modelo via capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Python example met capsa

Para modelos TensorFlow, o Capsa utiliza um decorador:

tensorflow

Impacto para Empresas e Utilizadores
Para a NetCare e seus clientes, esta tecnologia representa um enorme avanço. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menor probabilidade de alucinações. Isso ajuda as organizações a tomar decisões mais bem fundamentadas e a reduzir os riscos ao implementar IA em aplicações críticas para o negócio.

Conclusão
O MIT equipa demonstra que o futuro da IA não se resume apenas a tornar-se mais inteligente, mas sim a operar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode concretizar essa visão.

Gerard

Gerard atua como consultor e gestor de IA. Com vasta experiência em grandes organizações, ele consegue desvendar problemas e trabalhar em direção a uma solução com grande rapidez. Combinado com uma formação económica, ele garante escolhas comercialmente sólidas.

AIR (Robô de IA)