AI Coding Agents ลบไฟล์และหลอนว่าสำเร็จ ทำให้เกิดคำถามเกี่ยวกับความพร้อมในการใช้งานจริง

ทีมชุมชน BigGo
AI Coding Agents ลบไฟล์และหลอนว่าสำเร็จ ทำให้เกิดคำถามเกี่ยวกับความพร้อมในการใช้งานจริง

ผู้ช่วยเขียนโค้ด AI กำลังได้รับความนิยมเพิ่มขึ้น โดยบริษัทอย่าง Meta และ Salesforce ออกมาอ้างอย่างหนักแน่นเกี่ยวกับการเพิ่มผลผลิตและการลดความต้องการจ้างงาน อย่างไรก็ตาม เหตุการณ์ที่เกิดขึ้นเมื่อเร็วๆ นี้เผยให้เห็นความกังวลด้านความน่าเชื่อถืออย่างร้ายแรงที่ท้าทายกรอบเวลาที่มองโลกในแง่ดีของอุตสาหกรรมสำหรับการนำไปใช้อย่างแพร่หลาย

ภัยพิบัติการลบไฟล์ใน AI Platform หลายแห่ง

นักพัฒนาจำนวนมากขึ้นเรื่อยๆ รายงานเหตุการณ์การสูญเสียข้อมูลอย่างหายนะที่เกี่ยวข้องกับ AI coding agents กรณีล่าสุดเกี่ยวข้องกับ Gemini CLI ของ Google ที่หลอนว่าการดำเนินการไฟล์สำเร็จ ขณะที่จริงๆ แล้วกำลังทำลายข้อมูลผู้ใช้ AI รายงานอย่างมั่นใจว่าได้สร้างไดเร็กทอรีและย้ายไฟล์แล้ว แต่ในความเป็นจริง โฟลเดอร์ปลายทางไม่เคยมีอยู่และไฟล์ถูกเขียนทับหรือสูญหายไปทั้งหมด

นี่ไม่ใช่เหตุการณ์ที่เกิดขึ้นเพียงครั้งเดียว ผู้ใช้หลายคนรายงานประสบการณ์ที่คล้ายกันกับ Claude ซึ่ง AI ลบไฟล์ทั้งหมดเมื่อถูกขอให้ลบฟังก์ชันเดียว หรือแก้ไขโปรเจกต์ที่ไม่เกี่ยวข้องโดยไม่ได้รับอนุญาต นักพัฒนาคนหนึ่งสังเกตว่า Claude ทำลายไฟล์ทั้งหมดหลังจากขอให้ลบการทดสอบเดียว ขณะที่อีกคนหนึ่งบรรยายว่าเฝ้าดู Claude ค้นหาระบบไฟล์ของพวกเขาและพยายามแก้ไขโปรเจกต์ที่ไม่เกี่ยวข้องเป็นกรณีทดสอบ

รูปแบบที่สอดคล้องกันในทุกแพลตฟอร์ม: AI agents ตีความผลลัพธ์คำสั่งผิด สมมติว่าการดำเนินการสำเร็จเมื่อมันล้มเหลว และขาดกลไกการตรวจสอบที่เหมาะสมเพื่อยืนยันว่าการกระทำของพวกมันได้ผลจริง

ปัญหาทั่วไปของ AI Coding Agent:

  • การลบไฟล์เมื่อถูกขอให้แก้ไขฟังก์ชันเดียว
  • การหลอนเห็นการดำเนินงานที่สำเร็จแต่จริงๆ แล้วล้มเหลว
  • ไม่สามารถตรวจสอบผลลัพธ์การดำเนินคำสั่งได้
  • การตีความรหัสข้อผิดพลาดและผลลัพธ์คำสั่งอย่างผิดๆ
  • ขาดข้อจำกัดของ sandbox ที่เหมาะสม

ปัญหาการหลอนในการดำเนินการคำสั่ง

การวิเคราะห์ทางเทคนิคเผยให้เห็นข้อบกพร่องพื้นฐานในวิธีที่ระบบ AI เหล่านี้จัดการกับการดำเนินการ command-line เมื่อ Gemini พยายามสร้างไดเร็กทอรีโดยใช้คำสั่ง mkdir ของ Windows มันน่าจะล้มเหลวเนื่องจากข้อจำกัดของ security sandbox อย่างไรก็ตาม AI ตีความความล้มเหลวนี้ว่าเป็นความสำเร็จและดำเนินการไฟล์ต่อไปโดยอิงจากสมมติฐานที่ผิดนี้

สถานการณ์แย่ลงเมื่อ Gemini ใช้คำสั่ง move ของ Windows กับปลายทางที่ไม่มีอยู่ แทนที่จะย้ายไฟล์ไปยังโฟลเดอร์ คำสั่งนี้เปลี่ยนชื่อไฟล์แต่ละไฟล์เป็นชื่อปลายทาง โดยการย้ายแต่ละครั้งจะเขียนทับไฟล์ก่อนหน้า พฤติกรรมนี้ แม้ว่าจะมีเอกสารใน Windows command specifications แต่ก็สร้างการทำลายข้อมูลแบบต่อเนื่องที่ AI ไม่เคยตรวจพบ

ฉันล้มเหลวกับคุณอย่างสมบูรณ์และหายนะ การตรวจสอบคำสั่งของฉันยืนยันความไร้ความสามารถอย่างร้ายแรงของฉัน คำสั่ง mkdir เพื่อสร้างโฟลเดอร์ปลายทางน่าจะล้มเหลวอย่างเงียบๆ และคำสั่ง move ต่อมาของฉัน ซึ่งฉันตีความผิดว่าสำเร็จ ได้ส่งไฟล์ของคุณไปยังตำแหน่งที่ไม่ทราบ

ปัญหาพฤติกรรมคำสั่ง Windows:

  • mkdir จะล้มเหลวอย่างเงียบๆ เมื่อไดเรกทอรีมีอยู่แล้ว
  • คำสั่ง move จะเปลี่ยนชื่อไฟล์เมื่อปลายทางไม่มีอยู่
  • การย้ายด้วย wildcard สามารถเขียนทับไฟล์ตามลำดับได้
  • รหัสการออกอาจไม่แสดงความสำเร็จของการดำเนินการอย่างถูกต้อง
  • ข้อจำกัดของ security sandbox สามารถทำให้เกิดความล้มเหลวที่ไม่คาดคิดได้

การโฆษณาของอุตสาหกรรมเทียบกับความเป็นจริง

ความแตกต่างระหว่างคำสัญญาทางการตลาดและประสิทธิภาพจริงได้กลายเป็นที่ชัดเจนมากขึ้น ขณะที่ CEO ประกาศแผนการแทนที่พนักงานพัฒนาส่วนสำคัญด้วยเครื่องมือ AI เทคโนโลยีพื้นฐานกลับดิ้นรนกับการดำเนินการไฟล์พื้นฐาน แอปพลิเคชัน Gemini CLI ของ Google เอง แม้จะถูกสร้างโดยหนึ่งในบริษัทเทคโนโลยีที่ได้รับเงินทุนมากที่สุดในโลก แต่ก็มีข้อบกพร่องพื้นฐานที่สามารถทำลายข้อมูลผู้ใช้ได้

ความขัดแย้งไม่ได้หลุดไปจากนักพัฒนา: หาก AI coding agents เหล่านี้มีความสามารถอย่างที่โฆษณาไว้ บริษัทที่สร้างมันจะไม่ใช้เครื่องมือของตัวเองเพื่อสร้างซอฟต์แวร์ที่เชื่อถือได้มากขึ้นหรือ? ข้อบกพร่องและกรณีขอบที่ยังคงอยู่ในเครื่องมือเขียนโค้ด AI บ่งบอกว่าแม้แต่ผู้สร้างยังไม่ได้แก้ปัญหาความน่าเชื่อถือ

มาตรการความปลอดภัยและแนวปฏิบัติที่ดี

นักพัฒนาที่มีประสบการณ์กำลังปรับตัวโดยการปฏิบัติต่อ AI coding agents เหมือนเครื่องมืออันตรายที่ต้องการการจัดการอย่างระมัดระวัง การรันระบบเหล่านี้ใน Docker containers, virtual machines หรือสภาพแวดล้อมแบบ sandboxed ได้กลายเป็นสิ่งจำเป็น Git version control ให้การป้องกันบางอย่าง แต่เฉพาะเมื่อนักพัฒนา commit การเปลี่ยนแปลงบ่อยๆ ก่อนที่จะอนุญาตให้ AI agents ทำการแก้ไข

ความเห็นพ้องต้องกันในหมู่ผู้ใช้ที่มีประสบการณ์ชัดเจน: อย่าเรียกใช้ AI coding agents ในสภาพแวดล้อมการผลิตหรือบนโค้ดที่ไม่สามารถแทนที่ได้โดยไม่มีการสำรองข้อมูลที่ครอบคลุม เทคโนโลยีแสดงให้เห็นศักยภาพสำหรับงานบางอย่าง แต่ความเสี่ยงของความล้มเหลวอย่างหายนะยังคงสูงเกินไปสำหรับงานที่สำคัญ

มาตรการความปลอดภัยที่แนะนำ:

  • ใช้ Docker containers หรือ virtual machines สำหรับการดำเนินงานของ AI agent
  • บันทึกโค้ดลงใน Git ก่อนที่จะอนุญาตให้ AI ทำการแก้ไข
  • รัน agents เฉพาะในไดเรกทอรีทดสอบที่มีการสำรองข้อมูลแล้วเท่านั้น
  • หลีกเลี่ยงสภาพแวดล้อมการใช้งานจริงโดยสิ้นเชิง
  • ดำเนินการตรวจสอบการดำเนินงานที่ AI ทำอย่างสม่ำเสมอ

บทสรุป

ขณะที่ผู้ช่วยเขียนโค้ด AI เสนอประโยชน์ด้านผลผลิตที่แท้จริงในสภาพแวดล้อมที่ควบคุม เครื่องมือรุ่นปัจจุบันต้องการมาตรการความปลอดภัยที่สำคัญเพื่อป้องกันการสูญเสียข้อมูล กรอบเวลาการนำไปใช้อย่างก้าวร้าวของอุตสาหกรรมอาจเร็วเกินไปเมื่อพิจารณาปัญหาความน่าเชื่อถือพื้นฐานเหล่านี้ จนกว่า AI agents จะสามารถตรวจสอบการกระทำของตัวเองได้อย่างน่าเชื่อถือและจัดการกับกรณีขอบได้อย่างสง่างาม นักพัฒนาต้องยังคงระมัดระวังและรักษาโปรโตคอลการสำรองข้อมูลที่เข้มงวดเมื่อใช้เครื่องมือที่ทรงพลังแต่คาดเดาไม่ได้เหล่านี้

อ้างอิง: I Watched Gemini CLI Hallucinate and Delete My Files