היישום של בינה מלאכותית (AI) צומח במהירות ומשתלב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות AI טועות לעיתים או מספקות תשובות לא ודאיות שעלולות להיות בעלות השלכות מרחיקות לכת.
Themis AI של MIT, שהוקמה ומוּנחית על ידי פרופסור דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלה מאפשרת למודלי AI 'לדעת את מה שהם לא יודעים'. משמעות הדבר היא שמערכות AI יכולות להצביע בעצמן מתי הן אינן בטוחות לגבי התחזיות שלהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה כל כך חשוב?
מודלי AI רבים, אפילו מתקדמים, עלולים להפגין לעיתים מה שמכונה 'הזיות' – הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם ההחלטות כבדות משקל, כמו אבחון רפואי או נהיגה אוטונומית, הדבר עלול להיות בעל השלכות הרות אסון. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלטי ה-AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הטמעת מודעות לאי-ודאות במודלים, ניתן לספק פלטים עם תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מגביר את הבטיחות, אלא גם את אמון המשתמשים במערכות בינה מלאכותית.
capsa_torch.wrapper() כאשר הפלט כולל גם את התחזית וגם את הסיכון:

סיכום
MIT צוות מראה שהעתיד של בינה מלאכותית אינו רק להיות חכמה יותר, אלא בעיקר לתפקד בצורה בטוחה והוגנת יותר. ב-NetCare אנו מאמינים שבינה מלאכותית הופכת לבעלת ערך אמיתי רק כאשר היא שקופה לגבי מגבלותיה. עם כלי כימות אי-ודאות מתקדמים כמו Capsa, תוכלו להגשים חזון זה בפועל.