MIT team at work

MIT Team leert AI modellen wat ze nog niet wisten.

De toepassing van kunstmatige intelligentie (AI) groeit snel en raakt steeds meer verweven met ons dagelijks leven en high-stakes industrieën zoals gezondheidszorg, telecom en energie. Maar met grote kracht komt ook grote verantwoordelijkheid: AI-systemen maken soms fouten of geven onzekere antwoorden die grote gevolgen kunnen hebben.

MIT’s Themis AI, mede opgericht en geleid door professor Daniela Rus van het CSAIL-lab, biedt een baanbrekende oplossing. Hun technologie stelt AI-modellen in staat om te ‘weten wat ze niet weten’. Dit betekent dat AI-systemen zelf kunnen aangeven wanneer ze onzeker zijn over hun voorspellingen, waardoor fouten kunnen worden voorkomen voordat ze schade aanrichten.

Waarom is dit zo belangrijk?
Veel AI-modellen, zelfs geavanceerde, kunnen soms zogenaamde ‘hallucinaties’ vertonen—ze geven foutieve of ongefundeerde antwoorden. In sectoren waar beslissingen zwaar wegen, zoals medische diagnose of autonoom rijden, kan dit desastreuze gevolgen hebben. Themis AI ontwikkelde Capsa, een platform dat uncertainty quantification toepast: het meet en kwantificeert de onzekerheid van AI-uitvoer op een gedetailleerde en betrouwbare manier.

 Hoe werkt het?
Door modellen uncertainty awareness bij te brengen, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Bijvoorbeeld: een zelfrijdende auto kan aangeven dat het niet zeker is over een situatie en daarom een menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

Voorbeelden van technische implementatie

  • Bij integratie met PyTorch gaat het Wrappen van het model via capsa_torch.wrapper() waarbij de output bestaat uit zowel de voorspelling als het risico:

Python example met capsa

Voor TensorFlow-modellen werkt Capsa met een decorator:

tensorflow

De impact voor bedrijven en gebruikers
Voor NetCare en haar klanten betekent deze technologie een enorme stap vooruit . Wij kunnen AI-toepassingen leveren die niet alleen intelligent zijn, maar ook veilig en beter voorspelbaar met minder kans op hallucinaties. Het helpt organisaties in het maken van beter onderbouwde beslissingen en het reduceren van risico’s bij het invoeren van AI in bedrijfskritische applicaties.

Conclusie
Het MIT team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde uncertainty quantification-tools zoals Capsa kunt u die visie ook in de praktijk brengen.

Gerard

Gerard

Gerard is actief als AI consultant en manager. Met veel ervaring bij grote organisaties kan hij bijzonder snel een probleem ontrafelen en naar een oplossing toewerken. Gecombineerd met een economische achtergrond zorgt hij voor zakelijk verantwoorde keuzes.

AIR (Artificial Intelligence Robot)