รายงาน DORA ล่าสุดของ Google Cloud เผยว่านักพัฒนาซอฟต์แวร์ 90% ใช้เครื่องมือ AI โดยส่วนใหญ่อ้างว่าได้รับประโยชน์ด้านประสิทธิภาพอย่างมาก อย่างไรก็ตาม ชุมชนนักพัฒนายังคงแบ่งขั้วอย่างลึกซึ้งว่าเครื่องมือเหล่านี้ให้ผลประโยชน์ตามที่สัญญาไว้จริงหรือเพียงสร้างภาพลวงตาของการปรับปรุงประสิทธิภาพ
สстатิสติการนำ AI มาใช้
- 90% ของผู้เชี่ยวชาญด้านการพัฒนาซอฟต์แวร์ใช้เครื่องมือ AI ในปัจจุบัน (เพิ่มขึ้น 14% จากปีที่แล้ว)
- 65% รายงานว่าพึ่พาเครื่องมือ AI อย่างมากในการพัฒนาซอฟต์แวร์
- การใช้งานเฉลี่ย: 2 ชั่วโมงต่อวัน
- ระดับความไว้วางใจ: 24% มีความไว้วางใจสูง, 30% มีความไว้วางใจน้อยมากหรือไม่มีเลย
![]() |
---|
ภาพหน้าจอจากโพสต์บล็อกของ Google ที่กล่าวถึงการที่นักพัฒนาใช้เครื่องมือ AI เพื่อเพิ่มประสิทธิภาพการทำงาน |
การถกเถียงเรื่องประสิทธิภาพครั้งใหญ่
แม้ว่าการสำรวจของ Google จากผู้เชี่ยวชาญด้านเทคโนโลยีเกือบ 5,000 คนแสดงให้เห็นว่ามากกว่า 80% รายงานการเพิ่มประสิทธิภาพจากเครื่องมือ AI แต่นักพัฒนาหลายคนในชุมชนตั้งคำถามกับผลการวิจัยเหล่านี้ ความสงสัยเกิดจากการวิจัยที่ขัดแย้งกันและประสบการณ์ในโลกแห่งความเป็นจริงที่ไม่ตรงกับผลการสำรวจในแง่บวก
นักพัฒนาหลายคนชี้ไปที่การศึกษาที่แสดงให้เห็นการลดลงของประสิทธิภาพจริง แม้ว่าผู้ใช้จะรู้สึกว่ามีประสิทธิภาพมากขึ้น ความไม่สอดคล้องนี้ได้จุดประกายการถกเถียงอย่างเข้มข้นว่าเครื่องมือ AI ปรับปรุงผลงานจริงหรือเพียงลดความพยายามทางปัญญา ทำให้เกิดความรู้สึกผิดๆ ว่าประสบความสำเร็จ ชุมชนได้ระบุคำอธิบายหลายประการสำหรับความขัดแย้งนี้ ตั้งแต่อคติทางปัญญาไปจนถึงการไม่เข้ากันของขั้นตอนการทำงาน
ผลประโยชน์ที่รายงาน เทียบกับ ความเป็นจริง
- 80% อ้างว่าได้รับการเพิ่มประสิทธิภาพจากเครื่องมือ AI
- 59% รายงานว่าคุณภาพโค้ดดีขึ้น
- ชุมชนระบุช่องว่างระหว่างการรับรู้และผลประโยชน์ด้านประสิทธิภาพที่เกิดขึ้นจริง
- เหตุการณ์ปัญหาในการผลิตเกิดจากการพึ่งพาโค้ดที่สร้างโดย AI มากเกินไป
ปัญหาความไว้วางใจและความท้าทายในการนำไปใช้
แม้จะมีการใช้งานอย่างแพร่หลาย แต่ยังมีช่องว่างความไว้วางใจที่สำคัญในหมู่นักพัฒนา รายงาน DORA เองก็ยอมรับความขัดแย้งด้านความไว้วางใจนี้ - ในขณะที่ผู้ตอบแบบสอบถาม 24% แสดงความไว้วางใจสูงใน AI แต่ 30% ไว้วางใจเพียงเล็กน้อยหรือไม่ไว้วางใจเลย สิ่งนี้บ่งบอกว่านักพัฒนามอง AI เป็นเครื่องมือสนับสนุนมากกว่าการทดแทนการตัดสินใจของมนุษย์อย่างเชื่อถือได้
การสนทนาในชุมชนเผยให้เห็นว่านักพัฒนาหลายคนประสบเหตุการณ์น่าอายในการผลิตหลังจากพึ่งพาโค้ดที่ AI สร้างขึ้นมากเกินไป ประสบการณ์เหล่านี้นำไปสู่แนวทางที่ระมัดระวังมากขึ้น โดยนักพัฒนาเรียนรู้ที่จะปฏิบัติต่อผลลัพธ์ของ AI ด้วยความสงสัยที่ดีต่อสุขภาพ ในขณะเดียวกันก็ยังใช้ประโยชน์จากความสามารถของมันสำหรับงานประจำ
ฉันมักจะบอกตัวเองว่าจะตรวจสอบผลลัพธ์ของ AI อย่างระมัดระวัง แต่แล้วก็ทำผิดพลาดที่จะไม่เกิดขึ้นหากฉันเขียนโค้ดเอง
ปัญหาประสิทธิภาพที่ซ่อนอยู่
ชุมชนได้ระบุประเด็นสำคัญที่การสำรวจอาจพลาดไป นั่นคือผลกระทบที่ตามมาของโค้ดที่ AI สร้างขึ้น แม้ว่านักพัฒนาแต่ละคนอาจรู้สึกว่ามีประสิทธิภาพมากขึ้นเมื่อใช้เครื่องมือ AI แต่เพื่อนร่วมงานของพวกเขามักใช้เวลาเพิ่มเติมในการทำความสะอาดโค้ดที่มีปัญหาหรือแก้ไขปัญหาที่พวกเขาไม่ได้สร้างขึ้น สิ่งนี้สร้างการถ่ายโอนประสิทธิภาพมากกว่าการปรับปรุงอย่างแท้จริง
นักพัฒนาบางคนแนะนำว่าเครื่องมือ AI ทำงานได้ดีที่สุดสำหรับงานเฉพาะเจาะจง เช่น การสร้างโค้ดแบบแผนและการสร้างต้นแบบ แต่ประสบปัญหากับการแก้ปัญหาที่ซับซ้อนและการปรับให้เหมาะสม สิ่งสำคัญดูเหมือนจะเป็นการเข้าใจข้อจำกัดของ AI และใช้มันอย่างเหมาะสมมากกว่าการใช้แบบสากล
ข้อกังวลเรื่องความน่าเชื่อถือของการศึกษา
ชุมชนนักพัฒนาได้ตั้งคำถามเกี่ยวกับความน่าเชื่อถือของการศึกษาประสิทธิภาพจากทั้งสองฝ่ายของการถกเถียง ในขณะที่บางคนวิพากษ์วิจัยทางวิชาการขนาดเล็กเรื่องขนาดตัวอย่างที่จำกัด คนอื่นๆ ชี้ไปที่อคติที่อาจเกิดขึ้นในการวิจัยที่ได้รับทุนจากอุตสาหกรรมจากบริษัทที่ลงทุนอย่างหนักในความสำเร็จของ AI
การถกเถียงด้านวิธีการนี้เน้นย้ำถึงความยากลำบากในการวัดประสิทธิภาพอย่างเป็นกลางในการพัฒนาซอฟต์แวร์ ซึ่งคุณภาพ ความสามารถในการบำรุงรักษา และผลกระทบระยะยาวมีความสำคัญเท่ากับผลลัพธ์ทันที ชุมชนยังคงแสวงหาการศึกษาที่ครอบคลุมมากขึ้นที่คำนึงถึงปัจจัยที่ละเอียดอ่อนเหล่านี้
การสนทนาที่กำลังดำเนินอยู่สะท้อนให้เห็นความสัมพันธ์ที่เป็นผู้ใหญ่ขึ้นระหว่างนักพัฒนาและเครื่องมือ AI โดยเลื่อนจากความตื่นเต้นในช่วงแรกไปสู่ความเข้าใจที่สมจริงมากขึ้นเกี่ยวกับความสามารถและข้อจำกัด
อ้างอิง: How are developers using AI? Inside our 2025 DORA report