MIT doet onderzoek om AI slimmer te maken

فريق معهد MIT يعلم نماذج الذكاء الاصطناعي ما لم تكن تعرفه بعد.

تطبيق الذكاء الاصطناعي يتسارع ويصبح متداخلًا أكثر في حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. لكن مع القوة الكبيرة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي أحيانًا ترتكب أخطاء أو تُعطي إجابات غير مؤكدة قد تكون لها تبعات كبيرة.

Themis AI من MIT، التي شاركت في تأسيسها وتُدار جزئيًا بواسطة البروفيسورة دانييلا روس من مختبر CSAIL، تقدم حلاً رائدًا. تُمكّن تقنيتهم نماذج الذكاء الاصطناعي من "معرفة ما لا تعرفه". هذا يعني أن أنظمة الذكاء الاصطناعي تستطيع الإشارة بنفسها متى تكون غير متأكدة من توقعاتها، مما يسمح بتجنب الأخطاء قبل أن تتسبب في ضرر.

لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتطورة منها، قد تُظهر ما يُسمى بـ"الهلوسات" — تقدم إجابات خاطئة أو غير مبررة. في قطاعات تتسم بثِقَل القرار مثل التشخيص الطبي أو القيادة الذاتية، قد تكون العواقب كارثية. طورت Themis AI منصة تُسمى Capsa تطبّق قياس الكمّية للريبة: تقيس وتحدّد كمّيًا مستوى عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصّلة وموثوقة.

 كيف يعمل ذلك؟
من خلال تعليم النماذج وعي عدم اليقين، يمكنها تزويد المخرجات بتسمية للمخاطرة أو الثقة. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما وبالتالي تطلب تدخلًا بشريًا. هذا لا يزيد السلامة فحسب، بل يعزز أيضًا ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch يتم تغليف النموذج عبر capsa_torch.wrapper() حيث تتكون المخرجات من كل من التنبؤ والمخاطرة:

Python example met capsa

بالنسبة لنماذج TensorFlow تعمل Capsa باستخدام مُزيِّن (ديكوريتور):

tensorflow

الأثر على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها تعني هذه التقنية قفزة كبيرة إلى الأمام. نستطيع تقديم تطبيقات ذكاء اصطناعي ليست ذكية فحسب، بل آمنة وأكثر قابلية للتنبؤ مع احتمالية أقل للهلوسات. تساعد هذه التقنية المؤسسات على اتخاذ قرارات مدعومة بشكل أفضل وتقليل المخاطر عند إدخال الذكاء الاصطناعي في تطبيقات حرجة للأعمال.

الخاتمة
MIT الفريق تُظهر أن مستقبل الذكاء الاصطناعي لا يدور فقط حول أن يصبح أكثر ذكاءً، بل بالأحرى حول أن يعمل بشكل أكثر أمانًا وعدالة. في NetCare نؤمن أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط إذا كان شفافًا بشأن حدوده الخاصة. مع أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنكم تحويل هذه الرؤية إلى واقع عملي.

جيرارد

جيرارد يعمل كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الواسعة في المؤسسات الكبيرة، يمكنه بسرعة فك تعقيد المشكلة والتوجه نحو حل عملي. وبمزيجٍ من الخلفية الاقتصادية، يضمن اتخاذ قرارات مسؤولة تجاريًا.