ينمو تطبيق الذكاء الاصطناعي (AI) بسرعة وأصبح متشابكاً بشكل متزايد مع حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي مسؤولية كبيرة: فأنظمة الذكاء الاصطناعي ترتكب أحياناً أخطاء أو تقدم إجابات غير مؤكدة قد تكون لها عواقب وخيمة.
لماذا هذا الأمر في غاية الأهمية؟
يمكن للعديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، أن تظهر أحياناً ما يسمى بـ "الهلوسة"، حيث تقدم إجابات خاطئة أو لا أساس لها من الصحة. وفي القطاعات التي تكون فيها القرارات ذات ثقل كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يؤدي ذلك إلى عواقب كارثية. طورت شركة Themis AI منصة Capsa، وهي منصة تطبق قياس عدم اليقين (uncertainty quantification): حيث تقوم بقياس وتحديد مدى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إرفاق ملصق مخاطر أو موثوقية بمخرجاتها. على سبيل المثال: يمكن للسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف معين وبالتالي تطلب تدخلاً بشرياً. وهذا لا يعزز السلامة فحسب، بل يزيد أيضاً من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث تتكون المخرجات من التنبؤ والمخاطر معاً:
الخلاصة
معهد ماساتشوستس للتكنولوجيا (MIT) فريق يوضح أن مستقبل الذكاء الاصطناعي لا يدور فقط حول أن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بأن يعمل بشكل أكثر أماناً وعدلاً. في NetCare، نؤمن بأن الذكاء الاصطناعي لا يصبح قيماً حقاً إلا إذا كان شفافاً بشأن قيوده الخاصة. ومع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تطبيق هذه الرؤية على أرض الواقع.