ไลบรารี AI Security Testing ถูกเปิดโปงว่าเป็นโปรเจกต์ "Vibe Coded" พร้อมข้อเรียกร้องที่ปลอมแปลง

ทีมชุมชน BigGo
ไลบรารี AI Security Testing ถูกเปิดโปงว่าเป็นโปรเจกต์ "Vibe Coded" พร้อมข้อเรียกร้องที่ปลอมแปลง

ไลบรารี TypeScript ที่อ้างว่ามีความสามารถในการทดสอบความปลอดภัย AI อย่างครอบคลุมถูกเปิดเผยว่าเป็นเนื้อหาที่สร้างโดย AI เป็นส่วนใหญ่ พร้อมข้อเรียกร้องที่ทำให้เข้าใจผิดเกี่ยวกับฟังก์ชันการทำงานและการสนับสนุนจากงานวิจัย ไลบรารี prompt-injector ที่โฆษณาว่ามีรูปแบบ prompt injection ที่คัดสรรมาแล้วกว่า 25 รูปแบบจากงานวิจัยด้านความปลอดภัยชั้นนำ ถูกตรวจสอบอย่างละเอียดเมื่อผู้ใช้ค้นพบความแตกต่างอย่างมีนัยสำคัญระหว่างข้อเรียกร้องทางการตลาดกับการใช้งานจริง

ฟังก์ชันหลักและเอกสารที่หายไป

สมาชิกชุมชนระบุปัญหาพื้นฐานเกี่ยวกับความถูกต้องของโปรเจกต์อย่างรวดเร็ว แพ็กเกจ NPM ที่สัญญาไว้กลายเป็นสิ่งที่แตกต่างไปโดยสิ้นเชิง และผู้ใช้ไม่พบคำแนะนำที่แท้จริงสำหรับการใช้งาน ที่เก็บข้อมูลมีโค้ดเว็บไซต์เป็นหลักมากกว่าไลบรารีทดสอบความปลอดภัยเอง แม้แต่ตัวอย่างการใช้งานพื้นฐานในเอกสารก็อ้างอิงถึงฟังก์ชันที่ไม่มีอยู่และวิธีการผสานรวมที่ไม่ชัดเจน

ความขัดแย้งระหว่างคุณสมบัติที่โฆษณาไว้กับความเป็นจริงเริ่มชัดเจนเมื่อผู้ใช้พยายามค้นหาโค้ดไลบรารีที่แท้จริง โดยพบเพียงอินเทอร์เฟซเว็บโดยไม่มีความสามารถในการทดสอบความปลอดภัยที่อยู่เบื้องหลัง

คุณสมบัติที่อ้างอิงเทียบกับความเป็นจริง

การอ้างอิงทางการตลาด ความเป็นจริง
รูปแบบ prompt injection ที่คัดสรรมาแล้วกว่า 25 แบบ เนื้อหาที่สร้างโดย AI ที่ไม่ได้รับการยืนยัน
แพ็กเกจ NPM "prompt-injector" แพ็กเกจมีอยู่จริงแต่ไม่เกี่ยวข้องกับโปรเจกต์
การเชื่อมต่อกับหน่วยงานด้านความปลอดภัย ไม่พบการเชื่อมต่อจริง
รูปแบบการโจมตีที่มีงานวิจัยรองรับ ไม่มีแหล่งข้อมูลที่เชื่อมโยงหรือยืนยันได้
ไลบรารีที่พร้อมใช้งานจริง มีเพียงโค้ดเว็บไซต์เท่านั้น

เนื้อหาที่สร้างโดย AI โดยไม่มีการกำกับดูแลจากมนุษย์

ความน่าเชื่อถือของโปรเจกต์ได้รับผลกระทบอย่างมากเมื่อถูกเปิดเผยว่าข้อความทางการตลาด เอกสาร และข้อเรียกร้องเกี่ยวกับคุณสมบัติถูกสร้างโดย AI โดยไม่มีการตรวจสอบหรือยืนยันจากมนุษย์อย่างเหมาะสม เว็บไซต์อ้างว่ามีการผสานรวมกับหน่วยงานความปลอดภัยต่างๆ และอ้างอิงแหล่งงานวิจัยที่ไม่เคยมีการเชื่อมโยงหรือยืนยันจริง

ขออภัยสำหรับความตรงไปตรงมา แต่มีการส่งใน HN เพียงไม่กี่ประเภทที่น่ารำคาญเท่ากับเรื่องไร้สาระที่ขัดเกลาเหล่านี้ คำแนะนำของฉัน: อย่าใช้ AI เพื่อบอกเป็นนัยถึงความสามารถหรือความรู้ที่คุณไม่มี มันจะไม่เป็นประโยชน์กับคุณเลย

ผู้สร้างในที่สุดก็ยอมรับว่าโปรเจกต์นี้เป็น vibe coded และยอมรับว่าขาดความเชี่ยวชาญด้านความปลอดภัย โดยอธิบายว่าพวกเขาเพียงแค่สั่งให้ Claude AI วิจัยเอกสาร prompt injection โดยไม่ได้ตรวจสอบผลลัพธ์เพื่อความถูกต้อง

การตอบสนองของชุมชนและความรับผิดชอบของนักพัฒนา

การเปิดเผยนี้จุดประกายการอภิปรายที่กว้างขึ้นเกี่ยวกับอันตรายของการเผยแพร่เนื้อหาที่สร้างโดย AI โดยไม่มีการกำกับดูแลจากมนุษย์ โดยเฉพาะในสาขาที่เกี่ยวข้องกับความปลอดภัยซึ่งความถูกต้องมีความสำคัญ สมาชิกชุมชนแสดงความผิดหวังกับการนำเสนอที่ขัดเกลาแต่ปิดบังการขาดเนื้อหาสาระ โดยเน้นว่าโปรเจกต์เช่นนี้เป็นการเสียเวลาของนักพัฒนาและทำลายความไว้วางใจในเครื่องมือความปลอดภัยที่ถูกต้อง

เหตุการณ์นี้เน้นย้ำความกังวลที่เพิ่มขึ้นในชุมชนเทคโนโลยีเกี่ยวกับโปรเจกต์ที่สร้างโดย AI ที่ดูเป็นมืออาชีพแต่ขาดความเชี่ยวชาญของมนุษย์และการยืนยันที่จำเป็นสำหรับซอฟต์แวร์ที่เชื่อถือได้ โดยเฉพาะในพื้นที่สำคัญเช่นการทดสอบความปลอดภัย

หมวดหมู่การโจมตีที่มีการโฆษณา

  • Jailbreaking: 5 รูปแบบสำหรับการโจมตีแบบการเล่นบทบาท
  • Instruction Hijacking: 6 รูปแบบสำหรับการแทนที่คำสั่งระบบ
  • Encoding Attacks: 7 รูปแบบที่ใช้เทคนิคการปิดบัง
  • Logic Traps: 6 รูปแบบที่ใช้การแสวงหาประโยชน์จากการใช้เหตุผลที่ซับซ้อน

หมายเหตุ: หมวดหมู่เหล่านี้ถูกสร้างขึ้นโดย AI และไม่ได้รับการตรวจสอบกับงานวิจัยด้านความปลอดภัยที่แท้จริง

บทเรียนสำหรับการพัฒนาที่ได้รับความช่วยเหลือจาก AI

กรณีนี้เป็นเรื่องเตือนใจสำหรับนักพัฒนาที่ใช้ความช่วยเหลือจาก AI ในโปรเจกต์ของพวกเขา แม้ว่า AI จะเป็นเครื่องมือที่ทรงพลังสำหรับการสร้างไอเดียและโค้ดเบื้องต้น แต่เหตุการณ์นี้แสดงให้เห็นถึงความสำคัญของความเชี่ยวชาญของมนุษย์ การตรวจสอบอย่างละเอียด และการนำเสนอความสามารถของโปรเจกต์อย่างซื่อสัตย์

การยอมรับในที่สุดของผู้สร้างและคำสัญญาที่จะปรับปรุงโปรเจกต์ด้วยการวิจัยและการยืนยันที่เหมาะสม แสดงให้เห็นเส้นทางไปข้างหน้าสำหรับการพัฒนาที่ได้รับความช่วยเหลือจาก AI ที่รักษาความซื่อสัตย์และให้คุณค่าที่แท้จริงแก่ผู้ใช้

อ้างอิง: Lightweight AI Security Testing Library