ينمو تطبيق الذكاء الاصطناعي (AI) بسرعة وأصبح متشابكاً بشكل متزايد مع حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي مسؤولية كبيرة: فأنظمة الذكاء الاصطناعي ترتكب أحياناً أخطاء أو تقدم إجابات غير مؤكدة قد تكون لها عواقب وخيمة.
لماذا هذا الأمر مهم جداً؟
يمكن للعديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، أن تظهر أحياناً ما يسمى بـ "الهلوسة"، حيث تقدم إجابات خاطئة أو لا أساس لها من الصحة. وفي القطاعات التي تكون فيها القرارات ذات ثقل كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يؤدي ذلك إلى عواقب كارثية. طورت شركة Themis AI منصة Capsa، وهي منصة تطبق قياس عدم اليقين (uncertainty quantification): حيث تقوم بقياس وتحديد مدى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إرفاق ملصق مخاطر أو موثوقية بمخرجاتها. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف معين وبالتالي تطلب تدخلاً بشرياً. وهذا لا يزيد من السلامة فحسب، بل يعزز أيضاً ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث تتكون المخرجات من التنبؤ والمخاطر معاً:
الخلاصة
يوضح فريق معهد ماساتشوستس للتكنولوجيا (MIT) فريق أن مستقبل الذكاء الاصطناعي لا يدور فقط حول أن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بأن يعمل بشكل أكثر أماناً وعدالة. في NetCare، نؤمن بأن الذكاء الاصطناعي لا يصبح قيماً حقاً إلا إذا كان شفافاً بشأن قيوده الخاصة. ومع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تطبيق هذه الرؤية على أرض الواقع.