يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتداخل بشكل متزايد مع حياتنا اليومية ومع الصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. لكن مع القوة الكبيرة تأتي المسؤولية الكبيرة: قد ترتكب أنظمة الذكاء الاصطناعي أخطاءً أحيانًا أو تقدم إجابات غير مؤكدة قد تكون لها عواقب جسيمة.
توفر Themis AI التابعة لـ MIT، التي شارك في تأسيسها وتديرها الأستاذة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتها لنماذج الذكاء الاصطناعي أن “تعرف ما لا تعرفه”. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها أن تشير ذاتيًا إلى عدم اليقين في توقعاتها، مما يمنع حدوث الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، قد تظهر أحيانًا ما يُسمى “الهلاوس” — حيث تقدم إجابات خاطئة أو غير مبررة. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، قد تكون لهذه الظاهرة عواقب كارثية. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين: فهي تقيس وتكمِّن عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إضافة علامة خطر أو موثوقية إلى المخرجات. على سبيل المثال، يمكن للسيارة الذاتية القيادة أن تشير إلى عدم تأكدها من موقف ما وبالتالي تفعيل تدخل بشري. هذا لا يعزز السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث يتكون الإخراج من كل من التنبؤ والمخاطرة:

الخلاصة
معهد MIT الفريق يظهر أن مستقبل الذكاء الاصطناعي لا يقتصر فقط على أن يصبح أكثر ذكاءً، بل يركز أيضًا على أن يعمل بأمان وعدالة أكبر. في NetCare نؤمن بأن الذكاء الاصطناعي لا يصبح ذا قيمة حقيقية إلا عندما يكون شفافًا بشأن قيوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تحويل هذه الرؤية إلى واقع عملي.