تطبيقات الذكاء الاصطناعي تتوسع بسرعة وتصبح متداخلة بشكل متزايد مع حياتنا اليومية ومع صناعات ذات مخاطر عالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي ترتكب أحيانًا أخطاء أو تعطي إجابات غير مؤكدة قد يكون لها تبعات كبيرة.
تقدم Themis AI التابع لمعهد MIT، التي شاركت الأستاذة دانايلا روس من مختبر CSAIL في تأسيسها وقيادتها، حلاً مبتكرًا. تقنيتهم تمكّن نماذج الذكاء الاصطناعي من "معرفة ما لا تعرفه". هذا يعني أن الأنظمة قادرة على الإشارة بنفسها إلى حالات عدم اليقين في توقعاتها، مما يساعد على تجنب الأخطاء قبل أن تتسبب في أضرار.
لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، قد تُظهر أحيانًا ما يُسمى "الهلوسات" — أي تقدم إجابات خاطئة أو غير مبررة. في قطاعات تتسم بقرارات ذات أثر كبير، مثل التشخيص الطبي أو القيادة الذاتية، قد تكون لهذه الأخطاء عواقب وخيمة. طورت Themis AI أداة تسمى Capsa، وهي منصة تطبق قياس عدم اليقين: تقيس وتكمّم درجة عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصّلة وموثوقة.
كيف يعمل ذلك؟
بإكساب النماذج وعيًا بعدم اليقين، يمكنها تزويد المخرجات بوسم للمخاطر أو الموثوقية. على سبيل المثال: يمكن لسيارة ذاتية أن تشير إلى عدم تأكدها من موقف معين وبالتالي تفعّل تدخلًا بشريًا. هذا لا يزيد السلامة فحسب، بل يعزز أيضًا ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث تتألف المخرجات من كلٍ من التنبؤ وتقدير المخاطر:

الخلاصة
معهد MIT الفريق يُظهر أن مستقبل الذكاء الاصطناعي ليس مجرد أن يصبح أكثر ذكاءً، بل أن يعمل بأمان وعدالة أكبر أيضًا. في نت كير نؤمن بأن الذكاء الاصطناعي لا يصبح ذا قيمة حقيقية إلا عندما يكون شفافًا بشأن حدوده. باستخدام أدوات متقدمة لقياس عدم اليقين مثل Capsa، يمكنكم تطبيق هذه الرؤية عمليًا.