معهد ماساتشوستس للتكنولوجيا (MIT) يجري أبحاثاً لجعل الذكاء الاصطناعي أكثر ذكاءً

فريق معهد ماساتشوستس للتكنولوجيا (MIT) يعلم نماذج الذكاء الاصطناعي ما لم تكن تعرفه من قبل.

ينمو تطبيق الذكاء الاصطناعي (AI) بسرعة وأصبح متشابكاً بشكل متزايد مع حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي مسؤولية كبيرة: فأنظمة الذكاء الاصطناعي ترتكب أحياناً أخطاء أو تقدم إجابات غير مؤكدة قد تكون لها عواقب وخيمة.

لماذا هذا الأمر في غاية الأهمية؟
يمكن للعديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، أن تظهر أحياناً ما يسمى بـ "الهلوسة"، حيث تقدم إجابات خاطئة أو لا أساس لها من الصحة. وفي القطاعات التي تكون فيها القرارات ذات ثقل كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يؤدي ذلك إلى عواقب كارثية. طورت شركة Themis AI منصة Capsa، وهي منصة تطبق قياس عدم اليقين (uncertainty quantification): حيث تقوم بقياس وتحديد مدى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إرفاق ملصق مخاطر أو موثوقية بمخرجاتها. على سبيل المثال: يمكن للسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف معين وبالتالي تطلب تدخلاً بشرياً. وهذا لا يعزز السلامة فحسب، بل يزيد أيضاً من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني
  • عند التكامل مع PyTorch، يتم تغليف النموذج (Wrapping) عبر capsa_torch.wrapper() حيث تتكون المخرجات من التنبؤ والمخاطر معاً:
Python example met capsa
بالنسبة لنماذج TensorFlow، يعمل Capsa باستخدام مصمم (decorator):
تنسورفلو
التأثير على الشركات والمستخدمين
بالنسبة لشركة NetCare وعملائها، تمثل هذه التكنولوجيا خطوة هائلة إلى الأمام. نحن قادرون على تقديم تطبيقات ذكاء اصطناعي ليست ذكية فحسب، بل آمنة وأكثر قابلية للتنبؤ مع تقليل احتمالية حدوث الهلوسة الرقمية. يساعد هذا المؤسسات في اتخاذ قرارات مدروسة بشكل أفضل وتقليل المخاطر عند إدخال الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخلاصة
معهد ماساتشوستس للتكنولوجيا (MIT) فريق يوضح أن مستقبل الذكاء الاصطناعي لا يدور فقط حول أن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بأن يعمل بشكل أكثر أماناً وعدلاً. في NetCare، نؤمن بأن الذكاء الاصطناعي لا يصبح قيماً حقاً إلا إذا كان شفافاً بشأن قيوده الخاصة. ومع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تطبيق هذه الرؤية على أرض الواقع.

جيرارد

يعمل جيرارد كمستشار ومدير في مجال الذكاء الاصطناعي. وبفضل خبرته الواسعة في المؤسسات الكبرى، يمكنه تفكيك المشكلات والعمل نحو حلها بسرعة فائقة. وبالاقتران مع خلفيته الاقتصادية، فإنه يضمن اتخاذ خيارات مسؤولة تجارياً.