เครื่องมือสร้างวิดีโอ AI Veo 3 ของ Google ถูกใช้สร้างเนื้อหาเหยียดเชื้อชาติแม้จะมีมาตรการรักษาความปลอดภัย

ทีมชุมชน BigGo
เครื่องมือสร้างวิดีโอ AI Veo 3 ของ Google ถูกใช้สร้างเนื้อหาเหยียดเชื้อชาติแม้จะมีมาตรการรักษาความปลอดภัย

เครื่องมือสร้างวิดีโอ AI รุ่นล่าสุดของ Google คือ Veo 3 ได้กลายเป็นเครื่องมือที่ไม่คาดคิดสำหรับการสร้างเนื้อหาที่เป็นอันตราย แม้ว่าบริษัทจะมีนโยบายความปลอดภัยและมาตรการป้องกันที่ครอบคลุม แต่ผู้ใช้ก็ยังหาวิธีสร้างวิดีโอที่เหยียดเชื้อชาติและต่อต้านชาวยิวที่แพร่กระจายไปทั่วแพลตฟอร์มโซเชียลมีเดียอย่าง TikTok และ YouTube

สถานการณ์นี้เน้นย้ำถึงความท้าทายที่เพิ่มขึ้นในการพัฒนา AI คือการสร้างสมดุลระหว่างเสรีภาพในการสร้างสรรค์กับความปลอดภัยของเนื้อหา แม้ว่า Google จะลงทุนอย่างหนักในการป้องกันการใช้เครื่องมือ AI ในทางที่ผิด แต่คุณภาพผลลัพธ์ที่ซับซ้อนของ Veo 3 ทำให้มันน่าสนใจเป็นพิเศษสำหรับผู้ที่ต้องการสร้างเนื้อหาที่ยั่วยุ

ลักษณะเนื้อหา:

  • ความยาววิดีโอ: สูงสุด 8 วินาที
  • ลายน้ำ: ลายน้ำ " Veo " ยืนยันต้นกำเนิดจากโมเดล AI ของ Google
  • ประเภทเนื้อหา: การแสดงอคติทางเชื้อชาติที่มุ่งเป้าไปยังชุมชนคนผิวดำ ผู้อพยพ และชุมชนชาวยิว
  • คุณภาพ: ผลลัพธ์ที่มีความคมชัดระดับพิกเซล พร้อมลักษณะเฉพาะของการสร้างด้วย AI ที่เห็นได้ชัด

เศรษฐกิจการมีส่วนร่วมขับเคลื่อนเนื้อหาที่เป็นอันตราย

การอภิปรายในชุมชนเผยให้เห็นว่าวิดีโอเหล่านี้หลายคลิปไม่ได้ถูกสร้างโดยคนที่เป็นเหยียดเชื้อชาติจริงๆ แต่เป็นผู้สร้างเนื้อหาที่ไล่ตามตัวชี้วัดการมีส่วนร่วม ภูมิทัศน์โซเชียลมีเดียสมัยใหม่ให้รางวัลกับเนื้อหาที่ขัดแย้งด้วยการดู ความคิดเห็น และการแชร์ - สร้างระบบแรงจูงใจที่บิดเบี้ยวที่เนื้อหาที่ไร้สาระสร้างรายได้

มันไม่ใช่ 'การเหยียดเชื้อชาติ' ที่แท้จริง แต่เป็นการล่อให้เกิดการโต้เถียงมากกว่า ที่ยิ่งมีความคิดเห็นที่อุกอาจและบ้าคลั่งมากเท่าไหร่ ก็ยิ่งมีแนวโน้มที่จะดึงดูดความสนใจและอาจกระตุ้นให้เกิดปฏิกิริยาได้มากขึ้น

ความเป็นจริงทางเศรษฐกิจนี้หมายความว่าตราบใดที่แพลตฟอร์มให้รางวัลกับการมีส่วนร่วมมากกว่าคุณภาพ ผู้สร้างจะยังคงหาวิธีสร้างเนื้อหาที่ดึงดูดความสนใจต่อไป โดยไม่คำนึงถึงผลกระทบทางสังคม ปัญหานี้ขยายไปเกินกว่าการเหยียดเชื้อชาติไปยังหัวข้อใดก็ตามที่กระตุ้นให้เกิดการตอบสนองทางอารมณ์ที่รุนแรง

ข้อจำกัดทางเทคนิคของระบบความปลอดภัย AI

ชุมชนได้ระบุจุดอ่อนเฉพาะในมาตรการความปลอดภัย AI ปัจจุบัน คำสั่งที่คลุมเครือและความไม่สามารถของ AI ในการเข้าใจภาพเหยียดเชื้อชาติที่ละเอียดอ่อนทำให้ผู้ใช้สามารถหลีกเลี่ยงตัวกรองเนื้อหาได้ ตอนอย่างเช่น การใช้สัตว์แทนมนุษย์ในบริบทบางอย่างสามารถหลุดพ้นจากระบบตรวจจับอัตโนมัติที่มองหาการละเมิดที่ชัดเจน

ข้อจำกัดทางเทคนิคเหล่านี้ชี้ให้เห็นว่าแนวทางปัจจุบันต่อความปลอดภัย AI อาจไม่เพียงพอโดยพื้นฐาน ระบบเหล่านี้อาศัยการจดจำรูปแบบและการกรองคำหลัก แต่ความคิดสร้างสรรค์ของมนุษย์ในการหาช่องทางหลีกเลี่ยงมักเกินความซับซ้อนของมาตรการป้องกันเหล่านี้

การต่อสู้ของการควบคุมแพลตฟอร์ม

ทั้ง TikTok และ Google มีนโยบายที่ชัดเจนในการห้ามคำพูดแสดงความเกลียดชังและเนื้อหาเหยียดเชื้อชาติ อย่างไรก็ตาม การบังคับใช้ยังคงไม่สม่ำเสมอและเป็นการตอบสนองมากกว่าการป้องกัน ปริมาณการอัปโหลดรายวันจำนวนมหาศาลของ TikTok ทำให้การควบคุมแบบเรียลไทม์เป็นไปไม่ได้เกือบจะเลย ในขณะที่ตัวกรองเนื้อหาของ Google ดูเหมือนจะไม่เพียงพอในการป้องกันการสร้างวิดีโอที่มีปัญหาตั้งแต่แรก

ขนาดของแพลตฟอร์มโซเชียลมีเดียสมัยใหม่สร้างความท้าทายในการควบคุมโดยธรรมชาติ แม้จะมีระบบตรวจสอบเนื้อหาที่ช่วยด้วย AI เนื้อหาที่เป็นอันตรายมักแพร่กระจายอย่างกว้างขวางก่อนที่จะถูกตรวจพบและลบออก

การตอบสนองของนโยบาย:

  • TikTok : แบนบัญชีที่ถูกอ้างอิงมากกว่าครึ่งหนึ่งก่อนที่รายงานของ MediaMatters จะเผยแพร่
  • Google : นโยบายการใช้งานที่ห้ามอย่างครอบคลุม ซึ่งแบนการพูดแสดงความเกลียดชังและการคุกคาม
  • ช่องว่างในการบังคับใช้: นโยบายมีอยู่แล้ว แต่การนำไปปฏิบัติยังคงไม่เพียงพอ

ผลกระทบที่กว้างขึ้นต่อการพัฒนา AI

สถานการณ์นี้ทำให้เกิดคำถามพื้นฐานเกี่ยวกับการพัฒนาและการนำเครื่องมือ AI ที่ทรงพลังมาใช้ สมาชิกชุมชนบางคนโต้แย้งว่าเทคโนโลยีเองไม่ใช่ปัญหา - การเหยียดเชื้อชาติมีอยู่นานก่อนที่จะมีเครื่องมือสร้างวิดีโอ AI คนอื่นๆ โต้แย้งว่าเครื่องมือเหล่านี้ขยายปัญหาสังคมที่มีอยู่โดยทำให้การสร้างและแจกจ่ายเนื้อหาที่เป็นอันตรายในระดับใหญ่ง่ายขึ้น

การอภิปรายสะท้อนความตึงเครียดที่กว้างขึ้นในอุตสาหกรรมเทคโนโลยีระหว่างนวัตกรรมและความรับผิดชอบ เมื่อความสามารถของ AI ยังคงก้าวหน้าอย่างรวดเร็ว ความท้าทายในการป้องกันการใช้ในทางที่ผิดก็กลายเป็นเรื่องที่ซับซ้อนและเร่งด่วนมากขึ้น

เหตุการณ์กับ Veo 3 ทำหน้าที่เป็นคำเตือนเกี่ยวกับผลที่ตามมาที่ไม่ได้ตั้งใจของเครื่องมือ AI ที่ทรงพลัง แม้ว่าเทคโนโลยีจะมีการใช้งานสร้างสรรค์ที่ถูกต้อง แต่การใช้ในทางที่ผิดแสดงให้เห็นถึงความจำเป็นในการมีมาตรการความปลอดภัยที่ซับซ้อนมากขึ้นและอาจต้องมีการเปลี่ยนแปลงพื้นฐานในวิธีที่แพลตฟอร์มโซเชียลมีเดียสร้างแรงจูงใจให้กับการสร้างเนื้อหา

อ้างอิง: TikTok is being flooded with racist AI videos generated by Google's Veo 3