MIT doet onderzoek om AI slimmer te maken

צוות MIT מלמד מודלי AI את מה שהם עדיין לא יודעים

De toepassing van kunstmatige intelligentie (AI) groeit snel en raakt steeds meer verweven met ons dagelijks leven en high-stakes industrieën zoals gezondheidszorg, telecom en energie. Maar met grote kracht komt ook grote verantwoordelijkheid: AI-systemen maken soms fouten of geven onzekere antwoorden die grote gevolgen kunnen hebben.

MIT’s Themis AI, mede opgericht en geleid door professor Daniela Rus van het CSAIL-lab, biedt een baanbrekende oplossing. Hun technologie stelt AI-modellen in staat om te ‘weten wat ze niet weten’. Dit betekent dat AI-systemen zelf kunnen aangeven wanneer ze onzeker zijn over hun voorspellingen, waardoor fouten kunnen worden voorkomen voordat ze schade aanrichten.

Waarom is dit zo belangrijk?
Veel AI-modellen, zelfs geavanceerde, kunnen soms zogenaamde ‘hallucinaties’ vertonen—ze geven foutieve of ongefundeerde antwoorden. In sectoren waar beslissingen zwaar wegen, zoals medische diagnose of autonoom rijden, kan dit desastreuze gevolgen hebben. Themis AI ontwikkelde Capsa, een platform dat uncertainty quantification toepast: het meet en kwantificeert de onzekerheid van AI-uitvoer op een gedetailleerde en betrouwbare manier.

 Hoe werkt het?
Door modellen uncertainty awareness bij te brengen, kunnen ze outputs voorzien van een risico- of betrouwbaarheidslabel. Bijvoorbeeld: een zelfrijdende auto kan aangeven dat het niet zeker is over een situatie en daarom een menselijke interventie activeren. Dit verhoogt niet alleen de veiligheid, maar ook het vertrouwen van gebruikers in AI-systemen.

דוגמאות ליישום טכני

  • בעת שילוב עם PyTorch, עטיפת המודל באמצעות capsa_torch.wrapper() כאשר הפלט מורכב הן מהחיזוי והן מהסיכון:

Python example met capsa

עבור מודלי TensorFlow, Capsa משתמשת בקישוט (decorator):

tensorflow

ההשפעה על עסקים ומשתמשים
עבור NetCare ולקוחותיה, טכנולוגיה זו מייצגת קפיצת מדרגה משמעותית. אנו יכולים לספק יישומי בינה מלאכותית שהם לא רק חכמים, אלא גם בטוחים וניתנים לחיזוי טוב יותר עם פחות סיכוי להזיות. זה מסייע לארגונים לקבל החלטות מבוססות יותר ולהפחית סיכונים בהטמעת בינה מלאכותית ביישומים קריטיים לעסק.

סיכום
Het MIT team laat zien dat de toekomst van AI niet alleen draait om slimmer worden, maar vooral ook om veiliger en eerlijker functioneren. Bij NetCare geloven we dat AI pas écht waardevol wordt als het transparant is over zijn eigen beperkingen. Met geavanceerde uncertainty quantification-tools zoals Capsa kunt u die visie ook in de praktijk brengen.

ג'רארד

ג'רארד פעיל כיועץ ומנהל בתחום ה-AI. עם ניסיון רב בארגונים גדולים, הוא מסוגל לפענח בעיות ולעבוד לקראת פתרון במהירות יוצאת דופן. בשילוב עם רקע כלכלי, הוא מבטיח בחירות אחראיות מבחינה עסקית.

AIR (רובוט בינה מלאכותית)