MIT doet onderzoek om AI slimmer te maken

Equipe do MIT Ensina Modelos de IA Sobre o Que Eles Ainda Não Sabiam

De toepassing van kunstmatige intelligentie (AI) groeit snel en raakt steeds meer verweven met ons dagelijks leven en high-stakes industrieën zoals gezondheidszorg, telecom en energie. Maar met grote kracht komt ook grote verantwoordelijkheid: AI-systemen maken soms fouten of geven onzekere antwoorden die grote gevolgen kunnen hebben.

MIT’s Themis AI, mede opgericht en geleid door professor Daniela Rus van het CSAIL-lab, biedt een baanbrekende oplossing. Hun technologie stelt AI-modellen in staat om te ‘weten wat ze niet weten’. Dit betekent dat AI-systemen zelf kunnen aangeven wanneer ze onzeker zijn over hun voorspellingen, waardoor fouten kunnen worden voorkomen voordat ze schade aanrichten.

Waarom is dit zo belangrijk?
Veel AI-modellen, zelfs geavanceerde, kunnen soms zogenaamde ‘hallucinaties’ vertonen—ze geven foutieve of ongefundeerde antwoorden. In sectoren waar beslissingen zwaar wegen, zoals medische diagnose of autonoom rijden, kan dit desastreuze gevolgen hebben. Themis AI ontwikkelde Capsa, een platform dat uncertainty quantification toepast: het meet en kwantificeert de onzekerheid van AI-uitvoer op een gedetailleerde en betrouwbare manier.

 Hoe werkt het?
Door modellen uncertainty awareness bij te brengen, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Bijvoorbeeld: een zelfrijdende auto kan aangeven dat het niet zeker is over een situatie en daarom een menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

Exemplos de implementação técnica

  • Ao integrar com PyTorch, o encapsulamento do modelo via capsa_torch.wrapper() onde a saída consiste tanto na previsão quanto no risco:

Python example met capsa

Para modelos TensorFlow, o Capsa utiliza um decorador:

tensorflow

O impacto para empresas e utilizadores
Para a NetCare e seus clientes, esta tecnologia representa um enorme passo em frente. Podemos fornecer aplicações de IA que não são apenas inteligentes, mas também seguras e mais previsíveis, com menor probabilidade de alucinações. Ajuda as organizações a tomar decisões mais fundamentadas e a reduzir os riscos ao implementar IA em aplicações críticas para o negócio.

Conclusão
Het MIT team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde uncertainty quantification-tools zoals Capsa kunt u die visie ook in de praktijk brengen.

Gerard

Gerard atua como consultor e gestor de IA. Com vasta experiência em grandes organizações, ele consegue desvendar problemas e trabalhar em direção a uma solução com grande rapidez. Combinado com sua formação em economia, ele garante escolhas comercialmente sólidas.

AIR (Robô Inteligência Artificial)