أبحاث MIT لجعل الذكاء الاصطناعي أكثر ذكاءً

فريق MIT يعلّم نماذج الذكاء الاصطناعي ما لم تكن تعرفه

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتشابك بشكل متزايد مع حياتنا اليومية والصناعات الحساسة مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية عظيمة: أنظمة الذكاء الاصطناعي ترتكب أخطاء أحيانًا أو تقدم إجابات غير مؤكدة قد تكون لها عواقب وخيمة.

يقدم Themis AI التابع لـ MIT، والذي شاركت في تأسيسه وقيادته البروفيسورة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتهم لنماذج الذكاء الاصطناعي أن 'تعرف ما لا تعرفه'. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يمنع الأخطاء قبل أن تسبب الضرر.

لماذا هذا مهم للغاية؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ 'الهلوسات' - حيث تقدم إجابات خاطئة أو غير مدعومة. في القطاعات التي تكون فيها القرارات ذات أهمية قصوى، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لذلك عواقب وخيمة. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين (uncertainty quantification): فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل؟
من خلال تزويد النماذج بوعي بالشك، يمكنها إرفاق ملصق للمخاطر أو الموثوقية بمخرجاتها. على سبيل المثال، يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من الأمان فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الناتج من التنبؤ والمخاطرة معًا:

Python example met capsa

بالنسبة لنماذج TensorFlow، يعمل Capsa باستخدام مُزخرف (decorator):

تنسرفلو

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التقنية خطوة هائلة إلى الأمام. يمكننا تقديم تطبيقات ذكاء اصطناعي ليست ذكية فحسب، بل آمنة وأكثر قابلية للتنبؤ مع تقليل احتمالية الهلوسة. إنها تساعد المؤسسات على اتخاذ قرارات مستنيرة بشكل أفضل وتقليل المخاطر عند دمج الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخاتمة
معهد ماساتشوستس للتكنولوجيا الفريق يُظهر أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وإنصافًا. في NetCare، نؤمن بأن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات متقدمة لقياس عدم اليقين مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.

جيرارد

يعمل جيرارد كمستشار ومدير للذكاء الاصطناعي. وبفضل خبرته الواسعة في المؤسسات الكبرى، يمكنه تفكيك المشكلات والعمل نحو إيجاد حلول لها بسرعة فائقة. ويضمن هذا، مقترناً بخلفيته الاقتصادية، اتخاذ خيارات مسؤولة تجارياً.

الروبوت الذكي (AIR)