A aplicação da Inteligência Artificial (IA) está a crescer rapidamente e a tornar-se cada vez mais interligada com o nosso quotidiano e com indústrias de alto risco, como a saúde, as telecomunicações e a energia. No entanto, com grande poder vem grande responsabilidade: os sistemas de IA por vezes cometem erros ou fornecem respostas incertas que podem ter consequências significativas.
A Themis AI do MIT, cofundada e liderada pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA “saibam o que não sabem”. Isto significa que os próprios sistemas de IA podem indicar quando estão incertos sobre as suas previsões, ajudando a prevenir erros antes que causem danos.
Por que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem por vezes exibir as chamadas “alucinações” — fornecendo respostas incorretas ou infundadas. Em setores onde as decisões são de grande peso, como o diagnóstico médico ou a condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação da incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.
Como funciona?
Ao incutir nos modelos a consciência da incerteza, eles podem fornecer saídas com um rótulo de risco ou fiabilidade. Por exemplo: um carro autónomo pode indicar que não tem certeza sobre uma situação e, portanto, ativar uma intervenção humana. Isto não só aumenta a segurança, mas também a confiança dos utilizadores nos sistemas de IA.
capsa_torch.wrapper()
, onde a saída consiste tanto na previsão quanto no risco:
Conclusão
A equipa do MIT mostra que o futuro da IA não se trata apenas de se tornar mais inteligente, mas principalmente de funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação da incerteza como o Capsa, pode também colocar essa visão em prática.