MIT team at work

فريق MIT يعلم نماذج الذكاء الاصطناعي ما لم تكن تعرفه بعد.

يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتداخل بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي ترتكب أحيانًا أخطاء أو تقدم إجابات غير مؤكدة يمكن أن تكون لها عواقب وخيمة.

يقدم Themis AI من معهد ماساتشوستس للتكنولوجيا، الذي شاركت في تأسيسه وقيادته البروفيسورة دانييلا روس من مختبر CSAIL، حلاً رائداً. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يساعد على منع الأخطاء قبل أن تتسبب في ضرر.

لماذا هذا مهم جداً؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسة” – حيث تقدم إجابات خاطئة أو لا أساس لها. في القطاعات التي تكون فيها القرارات ذات أهمية كبيرة، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لذلك عواقب وخيمة. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين: فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.

 كيف يعمل؟
من خلال تعليم النماذج الوعي بعدم اليقين، يمكنها تزويد المخرجات بتسمية خطر أو موثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.

أمثلة على التنفيذ الفني

  • عند التكامل مع PyTorch، يتم تغليف النموذج عبر capsa_torch.wrapper() حيث يتكون الإخراج من كل من التنبؤ والمخاطر:

Python example met capsa

بالنسبة لنماذج TensorFlow، يعمل Capsa مع مزخرف:

tensorflow

التأثير على الشركات والمستخدمين
بالنسبة لـ NetCare وعملائها، تمثل هذه التكنولوجيا خطوة كبيرة إلى الأمام. يمكننا تقديم تطبيقات الذكاء الاصطناعي التي ليست ذكية فحسب، بل آمنة أيضًا وأكثر قابلية للتنبؤ مع فرصة أقل للهلوسة. يساعد المؤسسات في اتخاذ قرارات أفضل وتقليل المخاطر عند إدخال الذكاء الاصطناعي في التطبيقات الحيوية للأعمال.

الخلاصة
يُظهر فريق معهد ماساتشوستس للتكنولوجيا أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وعدلاً. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.

Gerard

Gerard

جيرارد يعمل كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الكبيرة في المؤسسات الكبرى، يمكنه بسرعة كبيرة تحليل المشكلة والعمل نحو حلها. وبالاقتران مع خلفيته الاقتصادية، يضمن اتخاذ قرارات تجارية مسؤولة.

AIR (Artificial Intelligence Robot)