سلطة تصميم الذكاء الاصطناعي

سلطة تصميم الذكاء الاصطناعي

نحن على مفترق طرق في تطوير البرمجيات. غالبًا ما تدور المناقشة حول أي الذكاء الاصطناعي يكتب أفضل شفرة (كلود مقابل شات جي بي تي) أو أين ما إذا كان يجب أن يكون للذكاء الاصطناعي موطن (IDE أو CLI). لكن هذه ليست صياغة السؤال الصحيحة.

المشكلة ليست توليد في الشفرة. إنها التحقق منها.

إذا احتضننا الذكاء الاصطناعي كـ “مُبرمجي الفايب” – حيث نحدد النية ويقوم الذكاء الاصطناعي بالتنفيذ – فإننا نخلق تدفقًا هائلًا من البرمجيات الجديدة. يمكن لسرب من وكلاء الذكاء الاصطناعي أن يولدوا في دقيقة واحدة أكثر من الشفرة مما يستطيع مطور كبير مراجعتها في أسبوع. أصبح الإنسان عنق الزجاجة.

الحل ليس أكثر الأشخاص. الحل هو سلطة تصميم الذكاء الاصطناعي.

من الحرفي إلى مدير المصنع

تقليديًا، تُعد “سلطة التصميم” مجموعة من المهندسين المعماريين يجتمعون مرة أسبوعيًا أو شهريًا للموافقة على التصميم أو رفضه. في عالم من تطوير الذكاء الاصطناعي عالي السرعة هذا النموذج قديم بشكل يائس. إنه بطيء جدًا وتفاعلي للغاية.

عند الانتقال إلى “الكود القابل للتصرف” – وهو برنامج لا نقوم بإعادة هيكلته إلى ما لا نهاية، بل نتخلص منه ونولده من جديد عندما تتغير المتطلبات – تتغير دورنا جذريًا. لم نعد بنائين يضعون حجرًا فوق حجر، بل نحن مهندسو المصنع الذين يطبعون الجدران.

لكن من يضمن أن تلك الجدران قائمة بشكل مستقيم؟

اختبار “جاونتليت”: اختبار ناري آلي

سلطة تصميم الذكاء الاصطناعي ليست شخصًا، بل خط أنابيب. “مسار اختبار” حيث يجب على كل سطر من الكود المُولد أن يمرّ عبره ليصل إلى الإنتاج. هذه العملية لا تستبدل مراجعة الكود البشرية بـ لا شيء، بل بـ شيء أفضل.

يعمل ذلك في ثلاث طبقات:

1. السلطة التنفيذية (التوليد)
نحن لا نطلب من ذكاء اصطناعي واحد حلًا، بل نطلب ثلاثة. نجعل Gemini 3 و GPT-5 ونموذج مفتوح المصدر (مثل Llama) يعملون بشكل متوازي على نفس المشكلة. هذا يمنع الرؤية الضيقة ويكسر “الكسل” الذي تعاني منه نماذج اللغة الكبيرة أحيانًا. هذه المقاربة أيضًا تمت دراستها علميًا وتظهر أن بإمكانك منع هلوسات الذكاء الاصطناعي وبناء سلاسل طويلة جدًا دون أخطاء

2. الفلتر الصارم (القانون)
هنا لا مجال للنقاش. يجب أن يُجمع الكود. لا يجوز لأدوات الفحص أن تشتكي. والأهم: ال اختبارات الصندوق الأسود يجب أن تنجح. لا نختبر ما إذا كانت الدالة تعمل داخليًا (يمكن أن يسبب ذلك تلاعبًا من الذكاء الاصطناعي)، نختبر ما إذا كان النظام من الخارج يقوم بما يجب عليه. هل فشلت الاختبار؟ مباشرة إلى سلة المهملات.

3. الفلتر اللين (لجنة الذكاء الاصطناعي)
هذا هو الابتكار الحقيقي. تُعرض الحلول المتبقية على “ذكاء اصطناعي تصويتي” متخصص. هذا الوكيل لا يكتب كودًا، بل يقرأ الكود. تم تدريبه على مبادئ الهندسة المعمارية لدينا، ومتطلبات الأمان (OWASP، ISO) وقواعد الامتثال (قانون الذكاء الاصطناعي للاتحاد الأوروبي).
هو يصوت: “الحل أ أسرع، لكن الحل ب أكثر أمانًا ويتبع بنية الخدمات المصغرة لدينا بشكل أفضل.”

الفائز ينتقل إلى الإنتاج.

الثلاثية السياسية للبرمجيات

هذا النموذج يفرض فصلًا بين السلطات وهو ما يفتقر إليه العديد من الفرق.

  • السلطة التشريعية (المهندس): المهندس يكتب “الدستور”. المطالبات، وثائق الهندسة المعمارية (project-description.md, rules.md, skills.md en principles.md), المتطلبات الصارمة. المهندس يحدد ماذا نحن نبني، من يبنيها، كيف و لماذا.
  • السلطة التنفيذية (وكلاء الترميز): هم ينفذون. بسرعة، وبسعر منخفض وتحت رعاية المطورين البشريين.
  • السلطة القضائية (سلطة التصميم): طبقة ذكاء اصطناعي مستقلة تتماشى مع القانون.

الخلاصة: الدور الجديد للمهندس

إنه يحررنا من طغيان أخطاء الصياغة ويتيح لنا التركيز على ما نتقنه: التفكير المنهجي. اكتشاف الحقيقة. الهيكلة واتخاذ القرار.

السؤال ليس ما إذا كان الذكاء الاصطناعي يستطيع كتابة شفرتنا. هذا الموضوع مغلق بالفعل. الشفرة أصبحت في الغالب منتجًا يُستغنى عنه.
السؤال هو: هل تجرؤ على التحكم في شفرة تركه يتحرر، من أجل التحكم في جودة استعادتها؟

أخبرني

جيرارد

جيرارد يعمل كمستشار ومدير في مجال الذكاء الاصطناعي. بفضل خبرته الواسعة في المؤسسات الكبيرة، يستطيع فك المشكلات بسرعة كبيرة والعمل على حلها. وبالاشتراك مع خلفية اقتصادية، يضمن اتخاذ قرارات تجارية مسؤولة.