השימוש בבינה מלאכותית (AI) מתפתח במהירות ונעשה משולב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח רב מגיעה גם אחריות רבה: מערכות AI טועות לעתים או מספקות תשובות לא ודאיות שעלולות לגרום לתוצאות משמעותיות.
Themis AI של MIT, שהוקמה ומנוהלת בחלקה על ידי הפרופסור דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלהם מאפשרת למודלי AI "לדעת את מה שהם לא יודעים". משמעות הדבר היא שמערכות AI יכולות לציין בעצמן מתי הן לא בטוחות בתחזיותיהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה חשוב כל כך?
רבים ממודלי ה-AI, אפילו מתקדמים, עלולים להציג לעתים מה שנקרא "הלוצינציות" — הם מספקים תשובות שגויות או חסרות ביסוס. בסקטורים שבהם החלטות נושאות משקל כבד, כמו אבחנה רפואית או נהיגה אוטונומית, הדבר עלול להוביל לתוצאות קטסטרופליות. Themis AI פיתחה את Capsa, פלטפורמה המשתמשת במדידת אי־ודאות (uncertainty quantification): היא מודדת ומחשבת את חוסר הוודאות ביציאות ה-AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הענקת מודעות לאי־ודאות למודלים, ניתן לספק לתוצרים תווית סיכון או אמינות. לדוגמה: רכב אוטונומי יכול לציין שאינו בטוח לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מעלה את הבטיחות, אלא גם את אמון המשתמשים במערכות ה-AI.
capsa_torch.wrapper() כאשר הפלט מורכב גם מהתחזית וגם מהסיכון:

מסקנה
MIT צוות מראה שהעתיד של ה-AI אינו מסתכם רק בהפיכה לחכמים יותר, אלא בעיקר בתפקוד בטוח וצודק יותר. ב-NetCare אנו מאמינים ש-AI הופך לחשוב באמת רק כשהוא שקוף לגבי מגבלותיו. עם כלי מדידה מתקדמים של אי־ודאות כמו Capsa תוכלו לממש את החזון הזה בפועל.