היישום של בינה מלאכותית (AI) צומח במהירות ומשתלב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות AI טועות לעיתים או מספקות תשובות לא ודאיות שעלולות להיות בעלות השלכות מרחיקות לכת.
Themis AI של MIT, שנוסדה והובלה על ידי הפרופסורית דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלה מאפשרת למודלי AI 'לדעת את מה שהם לא יודעים'. משמעות הדבר היא שמערכות AI יכולות להצביע בעצמן מתי הן אינן בטוחות לגבי התחזיות שלהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה כל כך חשוב?
מודלי AI רבים, אפילו מתקדמים, עלולים להפגין לעיתים מה שמכונה 'הזיות' – הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם ההחלטות כבדות משקל, כמו אבחון רפואי או נהיגה אוטונומית, הדבר עלול להיות בעל השלכות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלטי AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הוספת מודעות לאי-ודאות למודלים, ניתן לספק פלטים עם תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה מגביר לא רק את הבטיחות, אלא גם את אמון המשתמשים במערכות בינה מלאכותית.
capsa_torch.wrapper() כאשר הפלט מורכב הן מהחיזוי והן מהסיכון:

מסקנה
MIT צוות מראה שהעתיד של AI אינו רק להיות חכם יותר, אלא בעיקר לתפקד בצורה בטוחה והוגנת יותר. ב-NetCare אנו מאמינים ש-AI הופך לבעל ערך אמיתי רק כאשר הוא שקוף לגבי מגבלותיו. עם כלי כימות אי-ודאות מתקדמים כמו Capsa, תוכלו להגשים את החזון הזה בפועל.