היישום של אינטליגנציה מלאכותית (AI) גדל במהירות והולך ומשתלב בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כגון בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות AI לעיתים טוענות שגיאות או נותנות תשובות לא בטוחות שיכולות לגרום לתוצאות משמעותיות.
למה זה כל כך חשוב?
רבים ממודלי AI, אפילו מתקדמים, יכולים לעיתים להציג מה שנקרא 'הזיות' — הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם החלטות חשובות מאוד, כגון אבחון רפואי או נהיגה אוטונומית, זה עלול לגרום לתוצאות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי‑ודאות: היא מודדת ומכמתת את רמת האי‑ודאות של פלטי AI בצורה מפורטת ואמינה.
איך זה עובד?
על‑ידי העברת מודעות לאי‑ודאות למודלים, הם יכולים לצרף לתוצאות תווית של סיכון או אמינות. לדוגמה: רכב אוטונומי יכול לציין שהוא אינו בטוח לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק משפר את הבטיחות, אלא גם מגביר את האמון של המשתמשים במערכות AI.
capsa_torch.wrapper() כאשר הפלט כולל הן את התחזית והן את הסיכון:
סיכום
MIT צוות מראה שהעתיד של AI אינו רק מתמקד בלהיות חכם יותר, אלא בעיקר גם בתפקוד בטוח והוגן יותר. ב‑NetCare אנו מאמינים ש‑AI הופך לערך אמיתי רק כאשר הוא שקוף לגבי המגבלות שלו. עם כלי כימות אי‑ודאות מתקדמים כגון Capsa, תוכלו לממש חזון זה גם בפועל.