MIT עושה מחקר כדי להפוך את הבינה המלאכותית לחכמה יותר

צוות MIT מלמד מודלים של AI מה שהם עדיין לא ידעו.

היישום של אינטליגנציה מלאכותית (AI) גדל במהירות והולך ומשתלב בחיי היומיום שלנו ובתעשיות בעלות סיכון גבוה כגון בריאות, טלקום ואנרגיה. אך עם כוח גדול מגיעה גם אחריות גדולה: מערכות AI לעיתים טוענות שגיאות או נותנות תשובות לא בטוחות שיכולות לגרום לתוצאות משמעותיות.

למה זה כל כך חשוב?
רבים ממודלי AI, אפילו מתקדמים, יכולים לעיתים להציג מה שנקרא 'הזיות' — הם מספקים תשובות שגויות או בלתי מבוססות. במגזרים שבהם החלטות חשובות מאוד, כגון אבחון רפואי או נהיגה אוטונומית, זה עלול לגרום לתוצאות הרסניות. Themis AI פיתחה את Capsa, פלטפורמה המיישמת כימות אי‑ודאות: היא מודדת ומכמתת את רמת האי‑ודאות של פלטי AI בצורה מפורטת ואמינה.

 איך זה עובד?
על‑ידי העברת מודעות לאי‑ודאות למודלים, הם יכולים לצרף לתוצאות תווית של סיכון או אמינות. לדוגמה: רכב אוטונומי יכול לציין שהוא אינו בטוח לגבי מצב מסוים ולכן להפעיל התערבות אנושית. זה לא רק משפר את הבטיחות, אלא גם מגביר את האמון של המשתמשים במערכות AI.

דוגמאות ליישום טכני
  • ב‑אינטגרציה עם PyTorch מדובר בעטיפת המודל דרך capsa_torch.wrapper() כאשר הפלט כולל הן את התחזית והן את הסיכון:
Python example met capsa
עבור מודלים של TensorFlow, Capsa פועלת עם דקורטור:
טנסורפלואו
ההשפעה על חברות ומשתמשים
עבור NetCare והלקוחות שלה, הטכנולוגיה הזו משמעותה צעד עצום קדימה. אנו יכולים לספק יישומי AI שאינם רק חכמים, אלא גם בטוחים וניתנים לחיזוי טוב יותר עם סיכון מופחת להזיות. זה מסייע לארגונים לקבל החלטות מבוססות יותר ולהפחית סיכונים בעת הטמעת AI ביישומים קריטיים לעסק.

סיכום
MIT צוות מראה שהעתיד של AI אינו רק מתמקד בלהיות חכם יותר, אלא בעיקר גם בתפקוד בטוח והוגן יותר. ב‑NetCare אנו מאמינים ש‑AI הופך לערך אמיתי רק כאשר הוא שקוף לגבי המגבלות שלו. עם כלי כימות אי‑ודאות מתקדמים כגון Capsa, תוכלו לממש חזון זה גם בפועל.

ג'רארד

ג'רארד פועל כיועץ AI ומנהל. עם הרבה ניסיון בארגונים גדולים הוא יכול לפענח בעיה במהירות רבה ולעבוד לקראת פתרון. בשילוב רקע כלכלי הוא מבטיח בחירות עסקיות אחראיות.