השימוש בבינה מלאכותית (AI) צומח במהירות והופך לשזור יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה אחריות גדולה: מערכות AI מבצעות לעיתים טעויות או מספקות תשובות לא ודאיות שעלולות להיות בעלות השלכות כבדות משקל.
מדוע זה כל כך חשוב?
מודלים רבים של AI, אפילו המתקדמים שבהם, עלולים לעיתים להפגין מה שמכונה 'הזיות' (hallucinations) – הם מספקים תשובות שגויות או חסרות בסיס. במגזרים שבהם להחלטות יש משקל רב, כמו אבחון רפואי או נהיגה אוטונומית, לכך עלולות להיות השלכות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלט ה-AI בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הקניית מודעות לאי-ודאות (uncertainty awareness) למודלים, ניתן להוסיף לפלטים שלהם תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מעלה את הבטיחות, אלא גם את אמון המשתמשים במערכות AI.
capsa_torch.wrapper() כאשר הפלט מורכב הן מהתחזית והן מהסיכון:
סיכום
צוות ה-MIT צוות מראה שהעתיד של ה-AI אינו סובב רק סביב הפיכה לחכם יותר, אלא בעיקר סביב תפקוד בטוח והוגן יותר. ב-NetCare אנו מאמינים ש-AI הופך לבעל ערך אמיתי רק כאשר הוא שקוף לגבי המגבלות של עצמו. עם כלי כימות אי-ודאות מתקדמים כמו Capsa, גם אתם יכולים להוציא חזון זה אל הפועל.