A aplicação da inteligência artificial (IA) cresce rapidamente e está cada vez mais interligada com o nosso dia a dia e com setores de alto risco como saúde, telecomunicações e energia. Mas com grande poder vem grande responsabilidade: os sistemas de IA cometem, por vezes, erros ou fornecem respostas incertas que podem ter grandes consequências.
A Themis AI do MIT, cofundada e liderada pela Professora Daniela Rus do laboratório CSAIL, oferece uma solução inovadora. A sua tecnologia permite que os modelos de IA 'saibam o que não sabem'. Isto significa que os sistemas de IA podem indicar quando estão incertos sobre as suas previsões, permitindo evitar erros antes que causem danos.
Porque é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem, por vezes, apresentar as chamadas 'alucinações' — fornecem respostas incorretas ou infundadas. Em setores onde as decisões têm um peso elevado, como diagnóstico médico ou condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu a Capsa, uma plataforma que aplica a quantificação de incerteza: mede e quantifica a incerteza da saída da IA de forma detalhada e fiável.
Como funciona?
Ao dotar os modelos de consciência de incerteza, é possível fornecer aos seus resultados um rótulo de risco ou fiabilidade. Por exemplo, um carro autónomo pode indicar que não está seguro sobre uma determinada situação e, por isso, acionar uma intervenção humana. Isto não só aumenta a segurança, como também a confiança dos utilizadores nos sistemas de IA.
capsa_torch.wrapper() cujo o resultado inclui tanto a previsão quanto o risco:

Conclusão
O MIT equipa demonstra que o futuro da IA não se resume apenas a tornar-se mais inteligente, mas sim a operar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação de incerteza como o Capsa, também pode concretizar essa visão.