MIT team at work

فريق MIT يعلم نماذج الذكاء الاصطناعي ما لم تكن تعرفه بعد.

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتشابك بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة: فأحيانًا ترتكب أنظمة الذكاء الاصطناعي أخطاء أو تقدم إجابات غير مؤكدة يمكن أن تكون لها عواقب وخيمة.

يقدم Themis AI من معهد ماساتشوستس للتكنولوجيا (MIT)، الذي شاركت في تأسيسه وقيادته الأستاذة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يساعد على منع الأخطاء قبل أن تتسبب في ضرر.

لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسة” – حيث تقدم إجابات خاطئة أو لا أساس لها. في القطاعات التي تكون فيها القرارات ذات أهمية كبيرة، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن تكون لهذا عواقب وخيمة. طورت Themis AI منصة Capsa، وهي منصة تطبق قياس عدم اليقين: فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل؟
من خلال غرس الوعي بعدم اليقين في النماذج، يمكنها تزويد المخرجات بعلامة خطر أو موثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما وبالتالي تفعيل تدخل بشري. وهذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ الفني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الإخراج من التنبؤ والمخاطر:

Python example met capsa

بالنسبة لنماذج TensorFlow، تعمل Capsa مع مُزخرف:

tensorflow

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التكنولوجيا خطوة عملاقة إلى الأمام. يمكننا توفير تطبيقات الذكاء الاصطناعي التي ليست ذكية فحسب، بل آمنة ويمكن التنبؤ بها بشكل أفضل مع فرصة أقل للهلوسة. إنها تساعد المؤسسات على اتخاذ قرارات أفضل وتقليل المخاطر عند إدخال الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخلاصة
يوضح فريق MIT أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وعدلاً. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تحقيق هذه الرؤية عمليًا.

Gerard

Gerard

جيرارد يعمل كمستشار ومدير للذكاء الاصطناعي. بفضل خبرته الواسعة في المنظمات الكبيرة، يمكنه بسرعة فائقة تحليل المشكلة والعمل نحو حلها. بالإضافة إلى خلفيته الاقتصادية، يضمن اتخاذ قرارات مسؤولة تجاريًا.

AIR (Artificial Intelligence Robot)