היישום של בינה מלאכותית (AI) צומח במהירות ומשתלב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות בינה מלאכותית עושות לעיתים טעויות או מספקות תשובות לא ודאיות שעלולות להיות להן השלכות גדולות.
Themis AI של MIT, שהוקמה ומוּנְחָה במשותף על ידי פרופסור דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלה מאפשרת למודלי בינה מלאכותית 'לדעת את מה שהם לא יודעים'. משמעות הדבר היא שמערכות בינה מלאכותית יכולות להצביע בעצמן מתי הן אינן בטוחות לגבי התחזיות שלהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
מדוע זה כל כך חשוב?
מודלי בינה מלאכותית רבים, אפילו מתקדמים, עלולים לעיתים להפגין 'הזיות' – הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם ההחלטות כבדות משקל, כמו אבחון רפואי או נהיגה אוטונומית, הדבר עלול להיות בעל השלכות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלטי הבינה המלאכותית בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הקניית מודעות לאי-ודאות, ניתן לספק לפלטים תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה מגביר לא רק את הבטיחות, אלא גם את אמון המשתמשים במערכות בינה מלאכותית.
capsa_torch.wrapper() כאשר הפלט מורכב הן מהחיזוי והן מהסיכון:

סיכום
ה-MIT צוות מראה שהעתיד של בינה מלאכותית אינו רק הופך לחכם יותר, אלא בעיקר מתפקד בצורה בטוחה והוגנת יותר. ב-NetCare אנו מאמינים שבינה מלאכותית הופכת לבעלת ערך אמיתי רק כאשר היא שקופה לגבי מגבלותיה שלה. עם כלי כימות אי-ודאות מתקדמים כמו Capsa, תוכלו להביא חזון זה לידי ביצוע.