معهد MIT يجري أبحاثًا لجعل الذكاء الاصطناعي أكثر ذكاءً

فريق MIT يعلّم نماذج الذكاء الاصطناعي ما لم تكن تعرفه بعد.

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتداخل بشكل متزايد مع حياتنا اليومية ومع الصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. لكن مع القوة الكبيرة تأتي المسؤولية الكبيرة: قد ترتكب أنظمة الذكاء الاصطناعي أخطاءً أحيانًا أو تقدم إجابات غير مؤكدة قد تكون لها عواقب جسيمة.

توفر Themis AI التابعة لـ MIT، التي شارك في تأسيسها وتديرها الأستاذة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتها لنماذج الذكاء الاصطناعي أن “تعرف ما لا تعرفه”. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها أن تشير ذاتيًا إلى عدم اليقين في توقعاتها، مما يمنع حدوث الأخطاء قبل أن تتسبب في ضرر.

لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، قد تظهر أحيانًا ما يُسمى “الهلاوس” — حيث تقدم إجابات خاطئة أو غير مبررة. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، قد تكون لهذه الظاهرة عواقب كارثية. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين: فهي تقيس وتكمِّن عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل ذلك؟
من خلال تزويد النماذج بالوعي بعدم اليقين، يمكنها إضافة علامة خطر أو موثوقية إلى المخرجات. على سبيل المثال، يمكن للسيارة الذاتية القيادة أن تشير إلى عدم تأكدها من موقف ما وبالتالي تفعيل تدخل بشري. هذا لا يعزز السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الإخراج من كل من التنبؤ والمخاطرة:

Python example met capsa

بالنسبة لنماذج TensorFlow، يعمل Capsa باستخدام مُزخرف:

TensorFlow

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التقنية خطوة هائلة إلى الأمام. نستطيع تقديم تطبيقات الذكاء الاصطناعي التي ليست ذكية فحسب، بل آمنة وأكثر قابلية للتنبؤ مع تقليل فرص حدوث الهلاوس. تساعد هذه التقنية المؤسسات على اتخاذ قرارات مدعومة بشكل أفضل وتقليل المخاطر عند دمج الذكاء الاصطناعي في التطبيقات الحيوية للشركة.

الخلاصة
معهد MIT الفريق يظهر أن مستقبل الذكاء الاصطناعي لا يقتصر فقط على أن يصبح أكثر ذكاءً، بل يركز أيضًا على أن يعمل بأمان وعدالة أكبر. في NetCare نؤمن بأن الذكاء الاصطناعي لا يصبح ذا قيمة حقيقية إلا عندما يكون شفافًا بشأن قيوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك تحويل هذه الرؤية إلى واقع عملي.

جيرارد

جيرارد يعمل كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الواسعة في المؤسسات الكبيرة، يستطيع فك المشكلات بسرعة كبيرة والعمل على حلها. وبالاشتراك مع خلفية اقتصادية، يضمن اتخاذ قرارات تجارية مسؤولة.