היישום של אינטליגנציה מלאכותית (AI) גדל במהירות ומשתלב יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כגון בריאות, טלקום ואנרגיה. אך עם כוח רב מגיעה גם אחריות גדולה: מערכות AI לעיתים טוענות שגיאות או נותנות תשובות לא בטוחות שיכולות לגרום להשלכות משמעותיות.
Themis AI של MIT, שהוקמה במשותף ומנוהלת על ידי הפרופסור דניאלה רוס ממעבדת CSAIL, מציעה פתרון פורץ דרך. הטכנולוגיה שלהם מאפשרת למודלים של AI ‘לדעת מה הם לא יודעים’. משמעות הדבר שמערכות AI יכולות בעצמן לציין מתי הן אינן בטוחות בתחזיותיהן, ובכך למנוע טעויות לפני שהן גורמות נזק.
למה זה כל כך חשוב?
רבים ממודלי AI, אפילו מתקדמים, יכולים לעיתים להציג מה שנקרא ‘הזיות’ — הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם החלטות חשובות מאוד, כגון אבחון רפואי או נהיגה אוטונומית, זה עלול לגרום לתוצאות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת מדידת אי‑ודאות: היא מודדת וכימות את חוסר הוודאות בפלט של AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי העברת מודעות לאי‑ודאות למודלים, הם יכולים לצרף לתוצאות תווית של סיכון או אמינות. לדוגמה: רכב אוטונומי יכול לציין שהוא אינו בטוח לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מגביר את הבטיחות, אלא גם את האמון של המשתמשים במערכות AI.
capsa_torch.wrapper() כאשר הפלט כולל הן את התחזית והן את הסיכון:

סיכום
MIT צוות מראה שהעתיד של AI אינו רק מתמקד בלהיות חכם יותר, אלא בעיקר בתפקוד בטוח והוגן יותר. ב‑NetCare אנו מאמינים ש‑AI הופך לערך אמיתי רק כאשר הוא שקוף לגבי המגבלות שלו. עם כלי מדידת אי‑ודאות מתקדמים כגון Capsa, תוכלו ליישם חזון זה גם בפועל.