A aplicação da inteligência artificial (IA) está a crescer rapidamente e a tornar-se cada vez mais integrada no nosso quotidiano e em setores de alto risco, como a saúde, as telecomunicações e a energia. No entanto, com grandes poderes vêm grandes responsabilidades: os sistemas de IA cometem erros por vezes ou fornecem respostas incertas que podem ter consequências graves.
Porque é que isto é tão importante?
Muitos modelos de IA, mesmo os avançados, podem por vezes apresentar as chamadas 'alucinações' — fornecem respostas incorretas ou infundadas. Em setores onde as decisões têm um peso significativo, como no diagnóstico médico ou na condução autónoma, isto pode ter consequências desastrosas. A Themis AI desenvolveu o Capsa, uma plataforma que aplica a quantificação da incerteza: mede e quantifica a incerteza dos resultados da IA de uma forma detalhada e fiável.
Como funciona?
Ao dotar os modelos de consciência da incerteza, é possível atribuir etiquetas de risco ou de fiabilidade aos resultados. Por exemplo: um carro autónomo pode indicar que não tem a certeza sobre uma situação e, por isso, solicitar uma intervenção humana. Isto aumenta não só a segurança, mas também a confiança dos utilizadores nos sistemas de IA.
capsa_torch.wrapper() em que o resultado consiste tanto na previsão como no risco:
Conclusão
O MIT equipa demonstra que o futuro da IA não se resume apenas a tornar-se mais inteligente, mas sobretudo a funcionar de forma mais segura e justa. Na NetCare, acreditamos que a IA só se torna verdadeiramente valiosa quando é transparente sobre as suas próprias limitações. Com ferramentas avançadas de quantificação da incerteza, como o Capsa, pode colocar essa visão em prática.