นักพัฒนารายงานผลลัพธ์แบบผสมผสานจาก AI Coding Agents เน้นย้ำความจำเป็นของทักษะการตรวจสอบโค้ดที่แข็งแกร่ง

ทีมชุมชน BigGo
นักพัฒนารายงานผลลัพธ์แบบผสมผสานจาก AI Coding Agents เน้นย้ำความจำเป็นของทักษะการตรวจสอบโค้ดที่แข็งแกร่ง

ชุมชนนักพัฒนาซอฟต์แวร์กำลังอยู่ในการถกเถียงอย่างร้อนแรงเกี่ยวกับประสิทธิภาพของ AI coding agents เช่น GitHub Copilot , Claude Code และ Codex แม้ว่าเครื่องมือเหล่านี้จะสัญญาว่าจะเพิ่มผลิตภาพ แต่ประสบการณ์ในโลกแห่งความเป็นจริงเผยให้เห็นภาพที่ซับซ้อนกว่าที่ต้องการการดูแลจากมนุษย์อย่างระมัดระวัง

การตรวจสอบความเป็นจริง: AI Agents ต้องการการควบคุมดูแลจากมนุษย์

การอภิปรายล่าสุดในหมู่นักพัฒนาวาดภาพที่น่าตกใจเกี่ยวกับคุณภาพของโค้ดที่สร้างโดย AI วิศวกรที่มีประสบการณ์หลายคนรายงานว่าได้รับ pull requests ที่ผลิตโดย AI ซึ่งดูเหมือนถูกต้องในเชิงไวยากรณ์ แต่มีข้อบกพร่องพื้นฐานในแนวทางการทำงาน ปัญหาหลักไม่ได้อยู่ที่การแก้ไขบั๊กเท่านั้น แต่เป็นเรื่องของการลงทุนเวลาอย่างมากที่ต้องใช้ในการตรวจสอบและมักจะต้องเขียนโซลูชันที่สร้างโดย AI ใหม่ทั้งหมด

ประสบการณ์ของนักพัฒนาคนหนึ่งสะท้อนความหงุดหงิดนี้ได้อย่างสมบูรณ์แบบ:

หลังจากที่ได้มีความสุขในการตรวจสอบงานและแก้ไขบั๊กของพวก agent jockeys แล้ว ฉันค่อนข้างสงสัย โค้ดมักจะดูราวกับว่าพวกเขากำลังเมาเห็ด พวกเขาไม่สามารถใช้เหตุผลเกี่ยวกับมันได้เลย เหมือนกับว่าพวกเขาไม่ได้มีส่วนร่วมเลย ทั้งที่ฉันรู้ว่าพวกเขาไม่ได้วางมือเลย

สิ่งนี้เน้นย้ำถึงความไม่สมมาตรที่สำคัญในกระบวนการพัฒนา: ในขณะที่การสร้างโค้ดด้วย AI ใช้ความพยายามเพียงเล็กน้อย การตรวจสอบและแก้ไขโซลูชันที่มีโครงสร้างไม่ดีกลับใช้เวลาและความเชี่ยวชาญของมนุษย์อย่างมาก

ปัญหาการตรวจสอบเชิงโครงสร้าง

ชุมชนได้ระบุช่องว่างทักษะสำคัญในวิธีที่นักพัฒนาเข้าหาโค้ดที่สร้างโดย AI หลายคนมุ่งเน้นไปที่ปัญหาระดับผิวเผิน เช่น ชื่อฟังก์ชันและการตั้งค่าไวยากรณ์ ในขณะที่พลาดปัญหาสถาปัตยกรรมพื้นฐาน AI agents มักจะเลือกโซลูชันที่ซับซ้อนเกินไปเมื่อมีทางเลือกที่ง่ายกว่าอยู่ เช่น การสร้างระบบงานเบื้องหลังทั้งหมดสำหรับงานขนานง่ายๆ ที่สามารถจัดการได้ฝั่งไคลเอนต์

รูปแบบนี้สะท้อนปัญหาทั่วไปกับนักพัฒนาระดับเริ่มต้นที่ดำดิ่งสู่การใช้งานโดยไม่พิจารณาการออกแบบระบบในภาพรวม อย่างไรก็ตาม ต่างจากมนุษย์ระดับเริ่มต้นที่เรียนรู้จากข้อเสนอแนะ AI agents ทำข้อผิดพลาดทางสถาปัตยกรรมเหล่านี้ซ้ำๆ อย่างต่อเนื่อง

ปัญหาการเขียนโค้ดของ AI ที่พบบ่อย:

  • การออกแบบโซลูชันง่าย ๆ ให้ซับซ้อนเกินไป (เช่น การสร้างระบบ background job แบบเต็มรูปแบบสำหรับงานแบบ parallel พื้นฐาน)
  • การ reverse-engineer โค้ด frontend ที่ซับซ้อนแทนที่จะใช้ API ที่มีอยู่
  • การใช้งานที่ถูกต้องในเชิงไวยากรณ์แต่มีข้อบกพร่องในเชิงสถาปัตยกรรม
  • ขาดความตระหนักรู้เกี่ยวกับบริบทของรูปแบบ codebase ที่มีอยู่

ปัญหาปัจจัยความสนุก

ประเด็นที่น่าสนใจที่ถูกหยิบยกขึ้นในการอภิปรายของชุมชนเน้นไปที่ความพึงพอใจในงาน เครื่องมือ AI จัดการกับด้านที่สร้างสรรค์และสนุกสนานของการเขียนโปรแกรม ในขณะที่เพิ่มงานที่น่าเบื่อของการตรวจสอบโค้ด สิ่งนี้สร้างความขัดแย้งที่เครื่องมือผลิตภาพอาจลดความพึงพอใจของนักพัฒนาโดยการกำจัดส่วนที่ให้รางวัลของงาน

เครื่องมือตรวจสอบโค้ดที่ขับเคลื่อนด้วย AI หลายตัวได้เกิดขึ้นเพื่อแก้ไขความไม่สมดุลนี้ รวมถึงฟีเจอร์จากแพลตฟอร์มหลักอย่าง GitHub Copilot และสตาร์ทอัพเฉพาะทาง อย่างไรก็ตาม ข้อเสนอแนะเบื้องต้นชี้ให้เห็นว่าผู้ตรวจสอบอัตโนมัติเหล่านี้ยังคงต้องการการดูแลจากมนุษย์อย่างมากเพื่อให้มีประสิทธิภาพ

เครื่องมือ AI สำหรับการตรวจสอบโค้ดที่มีให้ใช้งาน:

  • OpenAI Codex Cloud พร้อมโมเดล GPT-5-Codex
  • Google Gemini Code Assist ผ่าน GitHub Actions
  • การผสานรวม Claude Code GitHub Actions
  • ฟีเจอร์การตรวจสอบโค้ดแบบเนทีฟของ GitHub Copilot
  • สตาร์ทอัพเฉพาะทาง: CodeRabbit , Greptile , Qodo

การหาสมดุล

ฉันทามติในหมู่นักพัฒนาที่มีประสบการณ์คือ AI coding agents ทำงานได้ดีที่สุดในโมเดล centaur chess ซึ่งมนุษย์ที่มีทักษะนำทางความสามารถของ AI แทนที่จะพึ่งพาพวกมันอย่างอิสระ ความสำเร็จต้องการทักษะการตรวจสอบโค้ดที่แข็งแกร่ง โดยเฉพาะความสามารถในการประเมินการตัดสินใจทางสถาปัตยกรรมมากกว่าเพียงความถูกต้องของไวยากรณ์

สำหรับนักพัฒนาที่พิจารณาเครื่องมือ AI สิ่งสำคัญคือการรักษาการดูแลอย่างมีวิจารณญาณในขณะที่ใช้ประโยชน์จาก AI สำหรับงานที่เหมาะสม เช่น การใช้งานอินเทอร์เฟซที่กำหนดไว้อย่างชัดเจนหรือการจัดการรูปแบบการเขียนโค้ดตามปกติ เทคโนโลยีแสดงให้เห็นแนวโน้มที่ดีสำหรับกรณีการใช้งานเฉพาะ แต่ยังไม่พร้อมที่จะแทนที่การตัดสินของมนุษย์ในการตัดสินใจออกแบบซอฟต์แวร์

การถกเถียงที่กำลังดำเนินอยู่สะท้อนถึงความท้าทายที่กว้างขึ้นของการรวม AI เข้ากับงานสร้างสรรค์และเทคนิค ในขณะที่เครื่องมือต่างๆ ยังคงพัฒนาต่อไป องค์ประกอบของมนุษย์ยังคงสำคัญสำหรับการผลิตระบบซอฟต์แวร์ที่สามารถดูแลรักษาและมีสถาปัตยกรรมที่ดี

อ้างอิง: If you are good at code review, you will be good at using Al agents