MIT team at work

Equipe do MIT ensina modelos de IA o que eles ainda não sabiam.

A aplicação da inteligência artificial (IA) está a crescer rapidamente e a tornar-se cada vez mais interligada com a nossa vida quotidiana e com indústrias de alto risco, como a saúde, as telecomunicações e a energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA por vezes cometem erros ou dão respostas incertas que podem ter grandes consequências.

A Themis AI do MIT, cofundada e liderada pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “saibam o que não sabem”. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, o que pode evitar erros antes que causem danos.

Por que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem por vezes exibir as chamadas “alucinações” — dão respostas incorretas ou infundadas. Em setores onde as decisões são importantes, como o diagnóstico médico ou a condução autónoma, isso pode ter consequências desastrosas. A Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação da incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.

 Como funciona?
Ao ensinar os modelos a ter consciência da incerteza, eles podem fornecer saídas com um rótulo de risco ou fiabilidade. Por exemplo: um carro autónomo pode indicar que não tem certeza sobre uma situação e, portanto, ativar uma intervenção humana. Isso não só aumenta a segurança, mas também a confiança dos utilizadores nos sistemas de IA.

Exemplos de implementação técnica

  • Ao integrar com o PyTorch, o encapsulamento do modelo é feito através de capsa_torch.wrapper(), onde a saída consiste tanto na previsão quanto no risco:

Python example met capsa

Para modelos TensorFlow, o Capsa funciona com um decorador:

tensorflow

O impacto para empresas e utilizadores
Para a NetCare e os seus clientes, esta tecnologia representa um enorme avanço. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menos hipóteses de alucinações. Ajuda as organizações a tomar decisões mais informadas e a reduzir os riscos ao introduzir a IA em aplicações críticas para os negócios.

Conclusão
A equipa do MIT mostra que o futuro da IA não é apenas sobre ser mais inteligente, mas principalmente sobre funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação da incerteza como o Capsa, também pode colocar essa visão em prática.

Gerard

Gerard

Gerard atua como consultor e gerente de IA. Com vasta experiência em grandes organizações, ele consegue desvendar um problema e trabalhar em direção a uma solução com muita rapidez. Combinado com uma formação econômica, ele garante escolhas comercialmente sólidas.

AIR (Artificial Intelligence Robot)