يتزايد تطبيق الذكاء الاصطناعي (AI) بسرعة ويتداخل بشكل متزايد مع حياتنا اليومية والصناعات ذات المخاطر العالية مثل الرعاية الصحية والاتصالات والطاقة. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة: أنظمة الذكاء الاصطناعي ترتكب أحيانًا أخطاء أو تقدم إجابات غير مؤكدة يمكن أن تكون لها عواقب وخيمة.
يقدم Themis AI من معهد ماساتشوستس للتكنولوجيا، الذي شاركت في تأسيسه وقيادته البروفيسورة دانييلا روس من مختبر CSAIL، حلاً رائداً. تتيح تقنيتهم لنماذج الذكاء الاصطناعي “معرفة ما لا تعرفه”. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها الإشارة بنفسها عندما تكون غير متأكدة من تنبؤاتها، مما يساعد على منع الأخطاء قبل أن تتسبب في ضرر.
لماذا هذا مهم جداً؟
العديد من نماذج الذكاء الاصطناعي، حتى المتقدمة منها، يمكن أن تظهر أحيانًا ما يسمى بـ “الهلوسة” – حيث تقدم إجابات خاطئة أو لا أساس لها. في القطاعات التي تكون فيها القرارات ذات أهمية كبيرة، مثل التشخيص الطبي أو القيادة الذاتية، يمكن أن يكون لذلك عواقب وخيمة. طورت Themis AI منصة Capsa التي تطبق قياس عدم اليقين: فهي تقيس وتحدد عدم اليقين في مخرجات الذكاء الاصطناعي بطريقة مفصلة وموثوقة.
كيف يعمل؟
من خلال تعليم النماذج الوعي بعدم اليقين، يمكنها تزويد المخرجات بتسمية خطر أو موثوقية. على سبيل المثال: يمكن لسيارة ذاتية القيادة أن تشير إلى أنها غير متأكدة من موقف ما، وبالتالي تفعيل تدخل بشري. هذا لا يزيد من السلامة فحسب، بل يزيد أيضًا من ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
capsa_torch.wrapper()
حيث يتكون الإخراج من كل من التنبؤ والمخاطر:
الخلاصة
يُظهر فريق معهد ماساتشوستس للتكنولوجيا أن مستقبل الذكاء الاصطناعي لا يتعلق فقط بأن يصبح أكثر ذكاءً، بل يتعلق بشكل أساسي بالعمل بشكل أكثر أمانًا وعدلاً. في NetCare، نعتقد أن الذكاء الاصطناعي يصبح ذا قيمة حقيقية فقط عندما يكون شفافًا بشأن حدوده الخاصة. باستخدام أدوات قياس عدم اليقين المتقدمة مثل Capsa، يمكنك أيضًا تطبيق هذه الرؤية عمليًا.