เรากำลังอยู่ในจุดเปลี่ยนของการพัฒนาซอฟต์แวร์ การอภิปรายมักจะวนเวียนอยู่กับเรื่อง ตัวไหน AI ตัวไหนเขียนโค้ดได้ดีที่สุด (Claude เทียบกับ ChatGPT) หรือ ที่ AI ควรจะทำงานที่ไหน (IDE หรือ CLI) แต่คำถามเหล่านั้นไม่ใช่ประเด็นสำคัญ
หากเรายอมรับ AI ในฐานะ "Vibe Coders" ซึ่งเราเป็นผู้กำหนดเจตจำนงและให้ AI เป็นผู้ลงมือปฏิบัติ เราจะสร้างซอฟต์แวร์ใหม่ๆ ออกมาเป็นจำนวนมหาศาล ฝูง AI-agents สามารถสร้างโค้ดได้มากกว่าที่นักพัฒนาอาวุโสจะตรวจสอบได้ในหนึ่งสัปดาห์ภายในเวลาเพียงหนึ่งนาที มนุษย์จึงกลายเป็นคอขวดของกระบวนการนี้
ทางออกไม่ใช่ มากขึ้น การเพิ่มจำนวนคน แต่ทางออกคือ ผู้มีอำนาจตัดสินใจด้านการออกแบบ AI.
โดยปกติแล้ว "Design Authority" คือกลุ่มสถาปนิกที่ประชุมกันสัปดาห์ละครั้งหรือเดือนละครั้งเพื่ออนุมัติหรือปฏิเสธการออกแบบ แต่ในโลกของ การพัฒนา AI ด้วยความเร็วสูง โมเดลดังกล่าวล้าสมัยไปแล้ว มันช้าเกินไปและเป็นการตอบสนองที่ล่าช้า
หากเราเปลี่ยนไปใช้แนวคิด "Disposable Code" หรือซอฟต์แวร์ที่เราไม่ต้องรีแฟคเตอร์อย่างไม่สิ้นสุด แต่เลือกที่จะทิ้งและสร้างใหม่เมื่อความต้องการเปลี่ยนไป บทบาทของเราจะเปลี่ยนไปอย่างสิ้นเชิง เราไม่ใช่ช่างก่ออิฐที่วางอิฐทีละก้อนอีกต่อไป แต่เราคือสถาปนิกของโรงงานที่พิมพ์ผนังเหล่านั้นออกมา
แต่ใครจะเป็นผู้ตรวจสอบว่ากำแพงเหล่านั้นตั้งตรงหรือไม่?
AI Design Authority ไม่ใช่บุคคล แต่เป็นไปป์ไลน์ (Pipeline) หรือ "ถุงมือเหล็ก" (Gauntlet) ที่โค้ดทุกบรรทัดที่สร้างขึ้นต้องผ่านการทดสอบอย่างหนักหน่วงก่อนจะนำไปใช้งานจริง กระบวนการนี้ไม่ได้เข้ามาแทนที่การตรวจสอบโค้ดโดยมนุษย์ด้วย ไม่มีอะไรเลยแต่เข้ามาแทนที่ด้วยสิ่งที่ ดีกว่า.
มันทำงานในสามระดับ:
1. ฝ่ายบริหาร (การสร้างสรรค์)
เราไม่ได้ขอให้ AI เพียงตัวเดียวหาทางออก แต่เราขอจาก AI ถึงสามตัว เราให้ Gemini 3, GPT-5 และโมเดลโอเพนซอร์ส (เช่น Llama) ทำงานกับปัญหาเดียวกันแบบขนาน วิธีนี้ช่วยป้องกันภาวะวิสัยทัศน์แคบและทำลาย "ความขี้เกียจ" ที่ LLM มักจะเป็นกัน แนวทางนี้ยัง ได้รับการวิจัยทางวิทยาศาสตร์แล้ว และแสดงให้เห็นว่าคุณสามารถป้องกันอาการหลอนของ AI (Hallucination) และสร้างห่วงโซ่การทำงานที่ยาวมากโดยปราศจากข้อผิดพลาดได้
2. ตัวกรองที่เข้มงวด (กฎหมาย)
ในส่วนนี้ไม่มีข้อโต้แย้ง โค้ดต้องคอมไพล์ผ่าน Linters ต้องไม่แจ้งเตือน และที่สำคัญที่สุดคือ การทดสอบแบบกล่องดำ (Black Box Tests) ต้องผ่านการทดสอบ เราไม่ได้ทดสอบว่าฟังก์ชันทำงานภายในอย่างไร (เพราะ AI อาจปรับแต่งผลลัพธ์ได้) แต่เราทดสอบว่าระบบทำงานได้ตามที่ต้องการจากภายนอกหรือไม่ หากการทดสอบล้มเหลว ให้ทิ้งลงถังขยะทันที
3. ตัวกรองแบบซอฟต์ (คณะกรรมการ AI)
นี่คือนวัตกรรมที่แท้จริง โซลูชันที่เหลือจะถูกส่งต่อไปยัง "AI ผู้ลงคะแนน" (Voting AI) ที่มีความเชี่ยวชาญเฉพาะทาง เอเจนต์ตัวนี้ไม่ได้เขียนโค้ด แต่จะทำหน้าที่ อ่าน โค้ด โดยได้รับการฝึกฝนตามหลักการสถาปัตยกรรม ข้อกำหนดด้านความปลอดภัย (OWASP, ISO) และกฎระเบียบด้านการปฏิบัติตามข้อกำหนด (EU AI Act) ของเรา
มันให้ความเห็นว่า: “โซลูชัน A ทำงานได้เร็วกว่า แต่โซลูชัน B มีความปลอดภัยมากกว่าและสอดคล้องกับสถาปัตยกรรมไมโครเซอร์วิสของเราได้ดีกว่า”
ผู้ชนะจะถูกนำไปใช้งานจริง
โมเดลนี้บังคับให้เกิดการแบ่งแยกอำนาจซึ่งเป็นสิ่งที่ขาดหายไปในหลายทีม
project-description.md, rules.md, skills.md en principles.md) และข้อกำหนดที่เข้มงวด สถาปนิกเป็นผู้กำหนดว่า อะไร เราจะสร้างอะไร ใครเป็นผู้สร้าง อย่างไร และ ทำไม.มันปลดปล่อยเราจากความยุ่งยากของข้อผิดพลาดทางไวยากรณ์ และช่วยให้เรามุ่งเน้นไปที่สิ่งที่เราถนัด: การคิดเชิงระบบ การค้นหาความจริง โครงสร้าง และการตัดสินใจ
คำถามไม่ใช่ว่า AI สามารถเขียนโค้ดให้เราได้หรือไม่ หัวข้อนั้นจบไปแล้ว โค้ดกำลังจะกลายเป็นสิ่งที่ใช้แล้วทิ้งไปในไม่ช้า
คำถามคือ: คุณกล้าที่จะปล่อยการควบคุมเหนือ โค้ด เพื่อที่จะได้การควบคุมเหนือ คุณภาพ กลับคืนมาหรือไม่?
แจ้งให้ฉันทราบ