השימוש בבינה מלאכותית (AI) צומח במהירות והופך לשזור יותר ויותר בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כמו בריאות, טלקום ואנרגיה. אך עם כוח רב מגיעה אחריות רבה: מערכות בינה מלאכותית מבצעות לעיתים טעויות או מספקות תשובות לא ודאיות שעלולות להיות בעלות השלכות כבדות משקל.
מדוע זה כל כך חשוב?
מודלי בינה מלאכותית רבים, אפילו המתקדמים שבהם, עלולים לעיתים להפגין מה שמכונה 'הזיות' (hallucinations) – הם מספקים תשובות שגויות או חסרות בסיס. במגזרים שבהם להחלטות יש משקל רב, כמו אבחון רפואי או נהיגה אוטונומית, הדבר עלול להוביל לתוצאות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי-ודאות (uncertainty quantification): היא מודדת ומכמתת את אי-הוודאות של פלט הבינה המלאכותית בצורה מפורטת ואמינה.
איך זה עובד?
על ידי הקניית מודעות לאי-ודאות למודלים, ניתן לספק לפלטים שלהם תווית סיכון או אמינות. לדוגמה: מכונית אוטונומית יכולה לציין שהיא אינה בטוחה לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק מעלה את הבטיחות, אלא גם את אמון המשתמשים במערכות בינה מלאכותית.
capsa_torch.wrapper() כאשר הפלט מורכב הן מהתחזית והן מהסיכון:
סיכום
צוות ה-MIT צוות מראה שעתיד הבינה המלאכותית אינו סובב רק סביב הפיכתה לחכמה יותר, אלא בעיקר סביב תפקוד בטוח והוגן יותר. ב-NetCare אנו מאמינים שבינה מלאכותית הופכת לבעלת ערך אמיתי רק כאשר היא שקופה לגבי מגבלותיה שלה. בעזרת כלי כימות אי-ודאות מתקדמים כמו Capsa, תוכלו ליישם חזון זה גם בפועל.