تطبيق الذكاء الاصطناعي (AI) ينمو بسرعة ويتداخل بشكل متزايد مع حياتنا اليومية ومع الصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي المسؤولية الكبيرة: قد ترتكب أنظمة الذكاء الاصطناعي أخطاء أحيانًا أو تقدم إجابات غير مؤكدة قد تكون لها عواقب جسيمة.
لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، قد تظهر أحيانًا ما يُسمى بـ “الهلاوس” — حيث تقدم إجابات خاطئة أو غير مبررة. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، قد يؤدي ذلك إلى عواقب كارثية. طورت شركة Themis AI منصة Capsa التي تطبق قياس عدم اليقين: فهي تقيس وتُكمِّن عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إضافة علامة خطر أو موثوقية إلى المخرجات. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى عدم تأكدها من موقف ما وبالتالي تفعيل تدخل بشري. هذا لا يعزز السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper() حيث يتكون الناتج من كل من التنبؤ والمخاطرة:
الخلاصة
معهد MIT فريق يظهر أن مستقبل الذكاء الاصطناعي لا يقتصر فقط على أن يصبح أكثر ذكاءً، بل يركز أيضًا على أن يعمل بأمان وعدالة أكبر. في NetCare نؤمن أن الذكاء الاصطناعي لا يصبح ذا قيمة حقيقية إلا عندما يكون شفافًا بشأن قيوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تحويل هذه الرؤية إلى واقع عملي.