تطبيق الذكاء الاصطناعي يتسارع ويصبح متداخلًا أكثر في حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. لكن مع القوة الكبيرة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي أحيانًا ترتكب أخطاء أو تُعطي إجابات غير مؤكدة قد تكون لها تبعات كبيرة.
Themis AI من MIT، التي شاركت في تأسيسها وتُدار جزئيًا بواسطة البروفيسورة دانييلا روس من مختبر CSAIL، تقدم حلاً رائدًا. تُمكّن تقنيتهم نماذج الذكاء الاصطناعي من "معرفة ما لا تعرفه". هذا يعني أن أنظمة الذكاء الاصطناعي تستطيع الإشارة بنفسها متى تكون غير متأكدة من توقعاتها، مما يسمح بتجنب الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتطورة منها، قد تُظهر ما يُسمى بـ"الهلوسات" — تقدم إجابات خاطئة أو غير مبررة. في قطاعات تتسم بثِقَل القرار مثل التشخيص الطبي أو القيادة الذاتية، قد تكون العواقب كارثية. طورت Themis AI منصة تُسمى Capsa تطبّق قياس الكمّية للريبة: تقيس وتحدّد كمّيًا مستوى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصّلة وموثوقة.
كيف يعمل ذلك؟
من خلال تعليم النماذج وعي عدم اليقين، يمكنها تزويد المخرجات بتسمية للمخاطرة أو الثقة. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما وبالتالي تطلب تدخلًا بشريًا. هذا لا يزيد السلامة فحسب، بل يعزز أيضًا ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث تتكون المخرجات من كل من التنبؤ والمخاطرة:

الخاتمة
MIT الفريق تُظهر أن مستقبل الذكاء الاصطناعي لا يدور فقط حول أن يصبح أكثر ذكاءً، بل بالأحرى حول أن يعمل بشكل أكثر أمانًا وعدالة. في NetCare نؤمن أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط إذا كان شفافًا بشأن حدوده الخاصة. مع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنكم تحويل هذه الرؤية إلى واقع عملي.