يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتشابك بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة: فأحيانًا ترتكب أنظمة الذكاء الاصطناعي أخطاء أو تقدم إجابات غير مؤكدة يمكن أن تكون لها عواقب وخيمة.
يقدم Themis AI من معهد ماساتشوستس للتكنولوجيا (MIT)، الذي شاركت في تأسيسه وقيادته الأستاذة دانييلا روس من مختبر CSAIL، حلاً رائدًا. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. وهذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يساعد على منع الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم جدًا؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسة” – حيث تقدم إجابات خاطئة أو لا أساس لها. في القطاعات التي تكون فيها القرارات ذات أهمية كبيرة، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن تكون لهذا عواقب وخيمة. طورت Themis AI منصة Capsa، وهي منصة تطبق قياس عدم اليقين: فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل؟
من خلال غرس الوعي بعدم اليقين في النماذج، يمكنها تزويد المخرجات بعلامة خطر أو موثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما وبالتالي تفعيل تدخل بشري. وهذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper()
حيث يتكون الإخراج من التنبؤ والمخاطر:
الخلاصة
يوضح فريق MIT أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وعدلاً. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تحقيق هذه الرؤية عمليًا.