การต่อต้าน 'AI Slop': เหตุใดนักพัฒนาจึงปฏิเสธโค้ดและเนื้อหาที่สร้างโดยเครื่อง

ทีมชุมชน BigGo
การต่อต้าน 'AI Slop': เหตุใดนักพัฒนาจึงปฏิเสธโค้ดและเนื้อหาที่สร้างโดยเครื่อง

ในภูมิทัศน์ของการพัฒนาซอฟต์แวร์ที่เปลี่ยนแปลงอย่างรวดเร็ว การต่อต้านอย่างเงียบ ๆ กำลังก่อตัวขึ้นเพื่อต้านกระแสคลื่นยักษ์ของเนื้อหาที่สร้างโดย AI สิ่งที่เริ่มต้นจากความตื่นเต้นเกี่ยวกับศักยภาพของโมเดลภาษาขนาดใหญ่ในการเร่งการเขียนโค้ด ได้เปลี่ยนเป็นความหงุดหงิดเมื่อนักพัฒนาพบกับ 'AI slop' ที่เขียนอย่างย่ำแย่ใน pull request เอกสารประกอบ และการสื่อสารทางเทคนิค ชุมชนกำลังผลักดันต่อต้านสิ่งที่หลายคนมองว่าเป็นการไม่ให้ความเคารพต่อศิลปะของการเขียนโปรแกรมและความเชื่อมโยงระหว่างมนุษย์ที่ทำให้การพัฒนาซอฟต์แวร์แบบร่วมมือกันเป็นไปได้

ปัญหาเรื่อง Pull Request

ทั่วทั้งทีมพัฒนาซอฟต์แวร์ ความหงุดหงิดร่วมกันได้ปรากฏขึ้น นั่นคือการได้รับ pull request ที่สร้างโดย AI อย่างชัดเจนโดยไม่ได้รับการตรวจสอบหรือความเข้าใจที่เหมาะสมจากผู้เขียน ปัญหาไม่ได้อยู่ที่การใช้เครื่องมือ AI เอง แต่อยู่ที่วิธีการนำไปใช้ นักพัฒนารายงานว่าได้รับโค้ดที่ผู้เขียนต้นฉบับไม่เข้าใจอย่างถ่องแท้ ทำให้การตรวจสอบโค้ดที่มีความหมายเป็นไปได้ยาก

การตรวจสอบโค้ดเป็นหนึ่งในสถานที่ที่ประสบการณ์ถูกส่งต่อ มันน่าผิดหวังที่ได้แสดงความคิดเห็นอย่างรอบคอบและได้รับการตอบกลับว่า 'ฉันไม่รู้ ฉันแค่ให้ [AI] ทำมัน'

ความรู้สึกนี้สะท้อนไปทั่วทีมพัฒนาซอฟต์แวร์ ซึ่งคุณค่าทางการศึกษาของการตรวจสอบโค้ดกำลังถูกบ่อนทำลาย เมื่อนักพัฒนาใช้ AI เป็นไม้เท้าแทนที่จะเป็นเครื่องมือ พวกเขาพลาดโอกาสการเรียนรู้ที่สำคัญและสร้างฝันร้ายในการบำรุงรักษาให้กับเพื่อนร่วมงาน ปัญหานี้รุนแรงเป็นพิเศษเมื่อโค้ดที่สร้างโดย AI มีบั๊กที่ซับซ้อนหรือการตัดสินใจด้านสถาปัตยกรรมที่ผู้เขียนต้นฉบับไม่สามารถอธิบายหรือปกป้องได้

การสื่อสารที่ล้มเหลว

การแพร่ระบาดของ 'AI slop' ขยายเกินกว่าโค้ดไปยังเอกสารประกอบทางเทคนิค โพสต์บล็อก และแม้แต่การสื่อสารภายใน นักพัฒนาหลายคนพัฒนาตาแหลมคมในการตรวจจับข้อความที่สร้างโดย AI ซึ่งมีลักษณะเฉพาะคือการใช้คำที่เยิ่นเย้อเกินไป การใช้ภาษาที่ไม่เป็นธรรมชาติ และสไตล์ที่เต็มไปด้วยอีโมจิซึ่งกลายเป็นลายนิ้วมือของเนื้อหาที่สร้างโดยเครื่อง

ปัญหาหลักไม่ได้เกี่ยวกับคุณภาพเพียงอย่างเดียว แต่ยังเกี่ยวกับความแท้จริงและความเคารพต่อเวลาของผู้อ่าน เมื่อมีคนเผยแพร่เนื้อหาที่สร้างโดย AI โดยไม่มีการคัดกรอง พวกเขากำลังขอให้ผู้อ่านลงทุนเวลาในสิ่งที่ผู้เขียนเองยังไม่ยอมสร้างขึ้นมาเอง พลวัตนี้สร้างสิ่งที่หลายคนรับรู้ว่าเป็นความไม่สมดุลขั้นพื้นฐานในสมการความพยายามระหว่างผู้สร้างและผู้บริโภค

ตัวชี้วัดทั่วไปของเนื้อหาที่สร้างโดย AI:

  • การใช้อีโมจิมากเกินไปในการสื่อสารทางเทคนิค
  • การใช้วลีที่ไม่เป็นธรรมชาติและสไตล์การเขียนแบบองค์กร
  • การอธิบายแนวคิดง่ายๆ มากเกินไป
  • ขาดเสียงส่วนตัวหรือสไตล์ที่โดดเด่น
  • โครงสร้างประโยคและรูปแบบที่ซ้ำซาก
  • การใส่จุดหัวข้อย่อยและรายการที่ไม่จำเป็น

วิกฤตพลวัตของทีม

ผลกระทบที่สร้างความเสียหายมากที่สุดของการใช้ AI อย่างไม่ระมัดระวังอาจอยู่ที่การทำงานร่วมกันของทีมและการแบ่งปันความรู้ การพัฒนาซอฟต์แวร์ไม่ได้เป็นเพียงการผลิตโค้ด แต่ยังเกี่ยวกับการสร้างความเข้าใจร่วมกัน การให้คำปรึกษานักพัฒนารุ่นเยาว์ และการสร้างระบบที่สามารถบำรุงรักษาได้ เมื่อ AI กลายเป็นโปรแกรมเมอร์หลัก องค์ประกอบมนุษย์ที่สำคัญเหล่านี้ของวิศวกรรมซอฟต์แวร์เริ่มสึกกร่อน

สมาชิกในทีมรายงานความหงุดหงิดเมื่อพวกเขาไม่สามารถได้รับคำตอบที่ตรงไปตรงมาเกี่ยวกับเหตุผลที่เลือกการนำทางบางอย่าง คำตอบที่ว่า 'นั่นคือสิ่งที่ AI แนะนำ' ไม่ให้ข้อมูลเชิงลึกใด ๆ เกี่ยวกับเหตุผลเบื้องหลังการตัดสินใจทางเทคนิค ทำให้ยากต่อการสร้างงานที่มีอยู่หรือแก้ไขปัญหาอย่างมีประสิทธิภาพ ความล้มเหลวในการสื่อสารนี้สามารถทำให้ประสิทธิภาพของทีมเป็นอัมพาตและสร้างหนี้ทางเทคนิคที่อาจใช้เวลาหลายปีในการแก้ไข

ปัญหาการใช้เครื่องมือผิดประเภท

ที่น่าสนใจคือ การต่อต้านไม่ได้มุ่งเป้าไปที่เครื่องมือ AI เอง แต่เป็นการใช้ในทางที่ผิด นักพัฒนาหลายคนยอมรับคุณค่าของ AI สำหรับงานเฉพาะ เช่น การสร้างโค้ดแบบ boilerplate การแนะนำการปรับปรุง หรือช่วยเหลือในการเขียนเอกสารประกอบ ปัญหาเกิดขึ้นเมื่อเครื่องมือเหล่านี้ถูกใช้เป็นตัวแทนของการคิด แทนที่จะเป็นเครื่องช่วยคิด

ชุมชนแยกแยะระหว่างการใช้ AI เป็น autocomplete ที่ฉลาดขึ้น กับการใช้มันเพื่อสร้างโซลูชันทั้งหมดโดยไม่มีความเข้าใจ เมื่อนักพัฒนาใช้ผลลัพธ์จาก AI เป็นจุดเริ่มต้นแทนที่จะเป็นผลิตภัณฑ์สำเร็จรูป ผลลัพธ์มักจะดีกว่ามาก กุญแจสำคัญดูเหมือนจะเป็นการรักษาการกำกับดูแลและความเข้าใจของมนุษย์ตลอดกระบวนการพัฒนา

แนวทางการใช้งาน AI ที่แนะนำจากชุมชนนักพัฒนา:

  • ตรวจสอบและทำความเข้าใจโค้ดที่ AI สร้างขึ้นก่อนส่งงานเสมอ
  • ใช้ AI สำหรับการสร้างโค้ดพื้นฐาน ไม่ใช่การตัดสินใจเชิงสถาปัตยกรรม
  • รักษาความสามารถในการอธิบายตัวเลือกการพัฒนาให้กับสมาชิกในทีม
  • รักษาการตรวจสอบโค้ดให้เป็นโอกาสในการเรียนรู้ ไม่ใช่แค่การตรวจสอบคุณภาพ
  • สร้างสมดุลระหว่างความช่วยเหลือจาก AI กับการตัดสินใจและประสบการณ์ของมนุษย์
  • กำหนดบรรทัดฐานของทีมสำหรับการใช้เครื่องมือ AI อย่างมีความรับผิดชอบ

อนาคตของการพัฒนาที่มีมนุษย์เป็นศูนย์กลาง

เมื่อการต่อต้านเพิ่มขึ้น ทีมพัฒนากำลังกำหนดบรรทัดฐานใหม่เกี่ยวกับการใช้ AI บางทีมกำลังใช้กฎที่กำหนดให้นักพัฒนาต้องเข้าใจและสามารถอธิบายโค้ดที่สร้างโดย AI ที่พวกเขาส่งได้ ทีมอื่น ๆ มุ่งเน้นไปที่การศึกษา ช่วยให้สมาชิกในทีมเรียนรู้วิธีใช้เครื่องมือ AI อย่างมีประสิทธิภาพโดยไม่เสียคุณภาพโค้ดหรือการทำงานร่วมกันของทีม

การสนทนาได้เปลี่ยนจากว่าจะใช้ AI หรือไม่ เป็นวิธีการใช้มันอย่างมีความรับผิดชอบ ฉันทามติที่เกิดขึ้นจากชุมชนนักพัฒนาชี้ให้เห็นว่าทีมที่ประสบความสำเร็จมากที่สุดจะเป็นทีมที่ใช้ประโยชน์จากความสามารถของ AI ในขณะที่รักษาองค์ประกอบของมนุษย์ที่ทำให้การพัฒนาซอฟต์แวร์มีความสร้างสรรค์ เป็นการทำงานร่วมกัน และสุดท้ายแล้วเป็นกิจกรรมของมนุษย์

การเคลื่อนไหวต่อต้าน 'AI slop' แสดงถึงมากกว่าความหงุดหงิดต่อคุณภาพที่ต่ำ มันเป็นการปกป้องศิลปะของการเขียนโปรแกรมเอง ดังที่นักพัฒนาคนหนึ่งตั้งข้อสังเกตว่า โค้ดที่ดีที่สุดมาจากความเข้าใจ ไม่ใช่แค่การสร้าง องค์ประกอบของมนุษย์ เช่น สัญชาตญาณ ประสบการณ์ และการแก้ปัญหาแบบร่วมมือกัน ยังคงเป็นสิ่งที่ทดแทนไม่ได้ แม้ในยุคของเครื่องมือ AI ที่ทันสมัยมากขึ้นเรื่อยๆ

อ้างอิง: It's insulting to read your Al-generated blog post