يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتشابك بشكل متزايد مع حياتنا اليومية والصناعات عالية المخاطر مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة: فأحيانًا ترتكب أنظمة الذكاء الاصطناعي أخطاء أو تقدم إجابات غير مؤكدة يمكن أن تكون لها عواقب وخيمة.
يقدم Themis AI من معهد ماساتشوستس للتكنولوجيا (MIT)، الذي شاركت في تأسيسه وقيادته الأستاذة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يساعد على منع الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى “الهلوسة” – حيث تقدم إجابات خاطئة أو لا أساس لها. في القطاعات التي تكون فيها القرارات ذات وزن كبير، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن تكون لهذا عواقب وخيمة. طورت Themis AI منصة Capsa، التي تطبق تحديد عدم اليقين: فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل؟
من خلال غرس الوعي بعدم اليقين في النماذج، يمكنها تزويد المخرجات بعلامة مخاطر أو موثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. وهذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper()
حيث يتكون الإخراج من التنبؤ والمخاطر:
الخاتمة
يُظهر فريق معهد ماساتشوستس للتكنولوجيا MIT أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وعدلاً. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات تحديد عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.