MIT investiga para tornar a IA mais inteligente

Equipa do MIT ensina aos modelos de IA o que eles ainda não sabiam.

A aplicação da inteligência artificial (IA) está a crescer rapidamente e a entrelaçar-se cada vez mais com a nossa vida quotidiana e com indústrias de alto risco, como saúde, telecomunicações e energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA cometem, por vezes, erros ou fornecem respostas incertas que podem ter grandes consequências.

A Themis AI do MIT, cofundada e liderada pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA 'saibam o que não sabem'. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, prevenindo erros antes que causem danos.

Porque é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem, por vezes, apresentar as chamadas 'alucinações' — fornecendo respostas incorretas ou infundadas. Em setores onde as decisões têm grande peso, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu a Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.

 Como funciona?
Ao dotar os modelos de consciência de incerteza, é possível fornecer saídas com um rítulo de risco ou confiança. Por exemplo: um carro autônomo pode indicar que não está seguro sobre uma situação e, por isso, ativar uma intervenção humana. Isto não só aumenta a segurança, mas também a confiança dos utilizadores nos sistemas de IA.

Exemplos de implementação técnica

  • Ao integrar com PyTorch, o encapsulamento do modelo através capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Python example met capsa

Para modelos TensorFlow, o Capsa funciona com um decorador:

tensorflow

O impacto para empresas e utilizadores
Para a NetCare e seus clientes, esta tecnologia representa um enorme avanço. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menor probabilidade de alucinações. Isso ajuda as organizações a tomar decisões mais bem fundamentadas e a reduzir os riscos ao implementar IA em aplicações críticas para o negócio.

Conclusão
O MIT equipa demonstra que o futuro da IA não se resume apenas a tornar-se mais inteligente, mas principalmente a operar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode concretizar essa visão.

Gerard

Gerard atua como consultor e gestor de IA. Com vasta experiência em grandes organizações, ele consegue desvendar problemas e trabalhar em direção a uma solução com grande rapidez. Combinado com uma formação económica, ele garante escolhas comercialmente sólidas.

IRA (Inteligência Artificial Robótica)