วิดีโอชุดหนึ่งที่สร้างด้วย AI ซึ่งแสดงชายผิวขาวสมมติชื่อ Josh ที่บ่นเรื่องการแข่งขันงานจากผู้อพยพ ได้จุดประกายการถกเถียงอย่างร้อนแรงเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ในการตลาดและการจัดการสื่อสังคมออนไลน์ วิดีโอเหล่านี้ซึ่งสร้างขึ้นโดยใช้ซอฟต์แวร์ AI ขั้นสูง Veo ของ Google ถูกลบออกจาก TikTok หลังจากการสืบสวนของ CBC เปิดเผยว่าเป็นส่วนหนึ่งของแคมเปญเฟคอินฟลูเอนซิ่งโดยบริษัท AI ชื่อ Nayva
ความสามารถของ Google Veo AI:
- Veo2 เปิดตัวในเดือนพฤษภาคม 2024
- สร้างวิดีโอจากข้อความคำสั่ง
- การเคลื่อนไหวของริมฝีปากที่ซิงค์กับเสียง
- ลดข้อบกพร่องทางภาพเมื่อเทียบกับเวอร์ชันก่อนหน้า
- ใส่ลายน้ำอัตโนมัติที่มุมขวาล่าง
ความกังวลของชุมชนเกี่ยวกับความสามารถในการหลอกลวงของ AI
เหตุการณ์นี้ได้ทำให้เกิดคำถามร้อนแรงเกี่ยวกับความง่ายดายที่ AI สมัยใหม่สามารถหลอกผู้ชมได้ การสนทนาในชุมชนเผยให้เห็นว่าแม้แต่ผู้เชี่ยวชาญด้านการตลาดยังถูกหลอกในตอนแรกด้วยคุณภาพที่สมจริงของวิดีโอเหล่านี้ เวอร์ชันล่าสุดของ Veo2 AI ของ Google สามารถสร้างเนื้อหาที่น่าเชื่อถือสูงจากคำสั่งข้อความง่ายๆ พร้อมการเคลื่อนไหวของริมฝีปากที่ซิงค์และเสียงที่ฟังดูเป็นธรรมชาติซึ่งเครื่องมือ AI รุ่นก่อนๆ ไม่สามารถทำได้
สิ่งที่น่ากังวลเป็นพิเศษคือสัญญาณทางภาพที่ละเอียดอ่อนซึ่งเคยช่วยระบุเนื้อหาที่สร้างด้วย AI กำลังยากขึ้นที่จะสังเกตเห็น แม้ว่าผู้ชมบางคนจะสังเกตเห็นความไม่สอดคล้องกันเช่นสีมือที่ไม่ตรงกันหรือการเคลื่อนไหวที่ไม่เป็นธรรมชาติ แต่คนอื่นๆ อีกมากมายเชื่อว่าพวกเขากำลังดูคนจริงที่แบ่งปันประสบการณ์ที่แท้จริง
การถกเถียงเรื่องความรับผิดชอบของแพลตฟอร์มและการควบคุมเนื้อหา
การลบวิดีโอเหล่านี้ได้จุดประกายการถกเถียงอย่างรุนแรงเกี่ยวกับความรับผิดชอบของแพลตฟอร์มสื่อสังคมออนไลน์ ในขณะที่ TikTok ระบุว่าวิดีโอเหล่านี้ละเมิดแนวทางเรื่องการติดป้ายกำกับ AI ที่ไม่เพียงพอมากกว่าข้อความที่ก่อให้เกิดการถกเถียง สมาชิกชุมชนตั้งคำถามว่าแพลตฟอร์มควรดำเนินการที่เข้มงวดกว่านี้ต่อเนื้อหาที่มีการจัดการโดยไม่คำนึงถึงการจำแนกประเภททางเทคนิค
บางคนโต้แย้งว่าความรับผิดชอบอยู่ที่ผู้สร้างในการทำเครื่องหมายเนื้อหาที่สร้างด้วย AI อย่างชัดเจน ในขณะที่คนอื่นๆ เชื่อว่าแพลตฟอร์มต้องการระบบตรวจจับที่แข็งแกร่งกว่านี้ การสนทนานี้เน้นย้ำถึงความท้าทายที่เพิ่มขึ้นเมื่อเนื้อหาที่สร้างด้วย AI กลายเป็นที่ซับซ้อนมากขึ้นและยากขึ้นที่จะแยกแยะจากโพสต์ที่แท้จริง
แนวทางเนื้อหา AI ของ TikTok:
- เนื้อหาที่สร้างด้วย AI ที่มีความสมจริงต้องมีการติดป้ายกำกับอย่างชัดเจน
- ต้องมีคำบรรยาย ลายน้ำ สติกเกอร์ หรือป้ายกำกับ
- ข้อความ "ผู้สร้างสรรค์ได้ติดป้ายกำกับว่าสร้างด้วย AI" เมื่อมีการติดแท็กอย่างถูกต้อง
- ป้ายกำกับไม่ได้ถูกใช้โดยอัตโนมัติจากแพลตฟอร์ม
ผลกระทบในวงกว้างต่อสงครามข้อมูล
สิ่งที่น่าวิตกที่สุดสำหรับผู้สังเกตการณ์ชุมชนคือเหตุการณ์นี้แสดงให้เห็นถึงศักยภาพของ AI ในการขยายความตึงเครียดทางสังคมและเผยแพร่ข้อความที่ก่อให้เกิดการแบ่งแยก วิดีโอเหล่านี้กำหนดเป้าหมายไปที่ความวิตกกังวลทางเศรษฐกิจที่แท้จริงเกี่ยวกับการว่างงานของเยาวชนและการแข่งขันงาน โดยใช้บุคคลสมมติเพื่อยืนยันมุมมองที่ก่อให้เกิดการถกเถียงและอาจมีอิทธิพลต่อความคิดเห็นของสาธารณชนเกี่ยวกับนโยบายการอพยพ
เนื้อหาประเภทนี้และการเล่าเรื่องที่ขัดแย้งกันอย่างรุนแรงเป็นสิ่งที่เราคาดหวังจากกลุ่มขวาจัด สำหรับบริษัทที่ใช้แคมเปญแบบนี้เพื่อดึงดูดผู้บริโภคมาใช้บริการของตนนั้นเป็นปัญหาอย่างมาก
กรณีนี้แสดงให้เห็นว่าผู้ที่มีเจตนาร้ายสามารถใช้เครื่องมือ AI ขั้นสูงเพื่อสร้างแคมเปญข้อมูลเท็จที่น่าเชื่อถือได้อย่างไร ทำให้ผู้ใช้ทั่วไปแยกแยะระหว่างเนื้อหาแท้จริงจากรากหญ้าและโฆษณาชวนเชื่อที่ผลิตขึ้นเพื่อจัดการความรู้สึกของสาธารณชนได้ยากขึ้น
บริบทการจ้างงานเยาวชน:
- อัตราการว่างงานของเยาวชน Toronto ประมาณ 20%
- ส่งผลกระทบต่อกลุ่มประชากรอายุ 15-24 ปี
- รวมถึงนักเรียนที่ยังคงศึกษาอยู่
- ทำให้เกิดความเปราะบางต่อข้อความที่สร้างความแตกแยก
อนาคตของการควบคุมเนื้อหา AI
เหตุการณ์นี้อาจเร่งการเรียกร้องให้มีการควบคุมเนื้อหาที่สร้างด้วย AI ที่เข้มงวดกว่านี้ในแพลตฟอร์มสื่อสังคมออนไลน์ การสนทนาในชุมชนแสดงให้เห็นการสนับสนุนที่เพิ่มขึ้นสำหรับข้อกำหนดการติดป้ายกำกับที่บังคับและข้อจำกัดที่อาจเกิดขึ้นในการใช้ AI เพื่อสร้างบุคคลมนุษย์ที่สมจริงเพื่อวัตถุประสงค์ทางการตลาด
เมื่อเทคโนโลยีการสร้างวิดีโอ AI ยังคงพัฒนาต่อไป ความท้าทายในการรักษาความไว้วางใจในเนื้อหาออนไลน์จึงซับซ้อนมากขึ้น วิดีโอ Josh ทำหน้าที่เป็นสัญญาณเตือนล่วงหน้าว่าเครื่องมือ AI ที่ซับซ้อนสามารถถูกใช้ในทางที่ผิดเพื่อหลอกลวงผู้ชมและจัดการวาทกรรมสาธารณะในประเด็นทางสังคมและการเมืองที่ละเอียดอ่อนได้อย่างไร
อ้างอิง: That white guy who can't get a job at Tim Hortons? He's AI