MIT doet onderzoek om AI slimmer te maken

فريق MIT يُعلّم نماذج الذكاء الاصطناعي ما لم تكن تعرفه من قبل.

تطبيقات الذكاء الاصطناعي تتوسع بسرعة وتصبح متداخلة بشكل متزايد مع حياتنا اليومية ومع صناعات ذات مخاطر عالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة الكبيرة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي ترتكب أحيانًا أخطاء أو تعطي إجابات غير مؤكدة قد يكون لها تبعات كبيرة.

تقدم Themis AI التابع لمعهد MIT، التي شاركت الأستاذة دانايلا روس من مختبر CSAIL في تأسيسها وقيادتها، حلاً مبتكرًا. تقنيتهم تمكّن نماذج الذكاء الاصطناعي من "معرفة ما لا تعرفه". هذا يعني أن الأنظمة قادرة على الإشارة بنفسها إلى حالات عدم اليقين في توقعاتها، مما يساعد على تجنب الأخطاء قبل أن تتسبب في أضرار.

لماذا هذا مهم؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، قد تُظهر أحيانًا ما يُسمى "الهلوسات" — أي تقدم إجابات خاطئة أو غير مبررة. في قطاعات تتسم بقرارات ذات أثر كبير، مثل التشخيص الطبي أو القيادة الذاتية، قد تكون لهذه الأخطاء عواقب وخيمة. طورت Themis AI أداة تسمى Capsa، وهي منصة تطبق قياس عدم اليقين: تقيس وتكمّم درجة عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصّلة وموثوقة.

 كيف يعمل ذلك؟
بإكساب النماذج وعيًا بعدم اليقين، يمكنها تزويد المخرجات بوسم للمخاطر أو الموثوقية. على سبيل المثال: يمكن لسيارة ذاتية أن تشير إلى عدم تأكدها من موقف معين وبالتالي تفعّل تدخلًا بشريًا. هذا لا يزيد السلامة فحسب، بل يعزز أيضًا ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ التقني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث تتألف المخرجات من كلٍ من التنبؤ وتقدير المخاطر:

Python example met capsa

بالنسبة لنماذج TensorFlow تعمل Capsa عبر مُزَين (decorator):

tensorflow

الأثر على الشركات والمستخدمين
بالنسبة لنت كير وعملائها، تمثل هذه التقنية خطوة كبيرة إلى الأمام. نحن قادرون على تقديم تطبيقات ذكاء اصطناعي ليست ذكية فحسب، بل أيضًا آمنة وأكثر قابلية للتنبؤ مع تقليل احتمالية حدوث الهلوسات. تساعد المؤسسات على اتخاذ قرارات مبنية على أسس أفضل وتقليل المخاطر عند إدخال الذكاء الاصطناعي في تطبيقات حيوية للأعمال.

الخلاصة
معهد MIT الفريق يُظهر أن مستقبل الذكاء الاصطناعي ليس مجرد أن يصبح أكثر ذكاءً، بل أن يعمل بأمان وعدالة أكبر أيضًا. في نت كير نؤمن بأن الذكاء الاصطناعي لا يصبح ذا قيمة حقيقية إلا عندما يكون شفافًا بشأن حدوده. باستخدام أدوات متقدمة لقياس عدم اليقين مثل Capsa، يمكنكم تطبيق هذه الرؤية عمليًا.

جيرارد

جيرارد يعمل كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الكبيرة في المؤسسات الكبرى، يستطيع بسرعة تحليل المشكلة والسير نحو حل مناسب. وبخلفيته الاقتصادية، يضمن اتخاذ قرارات مسؤولة من الناحية التجارية.