วิดีโอ " Josh " ที่สร้างด้วย AI จุดประกายการถกเถียงเรื่องการตลาดอินฟลูเอนเซอร์ปลอมและการจัดการสื่อสังคมออนไลน์

ทีมชุมชน BigGo
วิดีโอ " Josh " ที่สร้างด้วย AI จุดประกายการถกเถียงเรื่องการตลาดอินฟลูเอนเซอร์ปลอมและการจัดการสื่อสังคมออนไลน์

วิดีโอชุดหนึ่งที่สร้างด้วย AI ซึ่งแสดงชายผิวขาวสมมติชื่อ Josh ที่บ่นเรื่องการแข่งขันงานจากผู้อพยพ ได้จุดประกายการถกเถียงอย่างร้อนแรงเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ในการตลาดและการจัดการสื่อสังคมออนไลน์ วิดีโอเหล่านี้ซึ่งสร้างขึ้นโดยใช้ซอฟต์แวร์ AI ขั้นสูง Veo ของ Google ถูกลบออกจาก TikTok หลังจากการสืบสวนของ CBC เปิดเผยว่าเป็นส่วนหนึ่งของแคมเปญเฟคอินฟลูเอนซิ่งโดยบริษัท AI ชื่อ Nayva

ความสามารถของ Google Veo AI:

  • Veo2 เปิดตัวในเดือนพฤษภาคม 2024
  • สร้างวิดีโอจากข้อความคำสั่ง
  • การเคลื่อนไหวของริมฝีปากที่ซิงค์กับเสียง
  • ลดข้อบกพร่องทางภาพเมื่อเทียบกับเวอร์ชันก่อนหน้า
  • ใส่ลายน้ำอัตโนมัติที่มุมขวาล่าง

ความกังวลของชุมชนเกี่ยวกับความสามารถในการหลอกลวงของ AI

เหตุการณ์นี้ได้ทำให้เกิดคำถามร้อนแรงเกี่ยวกับความง่ายดายที่ AI สมัยใหม่สามารถหลอกผู้ชมได้ การสนทนาในชุมชนเผยให้เห็นว่าแม้แต่ผู้เชี่ยวชาญด้านการตลาดยังถูกหลอกในตอนแรกด้วยคุณภาพที่สมจริงของวิดีโอเหล่านี้ เวอร์ชันล่าสุดของ Veo2 AI ของ Google สามารถสร้างเนื้อหาที่น่าเชื่อถือสูงจากคำสั่งข้อความง่ายๆ พร้อมการเคลื่อนไหวของริมฝีปากที่ซิงค์และเสียงที่ฟังดูเป็นธรรมชาติซึ่งเครื่องมือ AI รุ่นก่อนๆ ไม่สามารถทำได้

สิ่งที่น่ากังวลเป็นพิเศษคือสัญญาณทางภาพที่ละเอียดอ่อนซึ่งเคยช่วยระบุเนื้อหาที่สร้างด้วย AI กำลังยากขึ้นที่จะสังเกตเห็น แม้ว่าผู้ชมบางคนจะสังเกตเห็นความไม่สอดคล้องกันเช่นสีมือที่ไม่ตรงกันหรือการเคลื่อนไหวที่ไม่เป็นธรรมชาติ แต่คนอื่นๆ อีกมากมายเชื่อว่าพวกเขากำลังดูคนจริงที่แบ่งปันประสบการณ์ที่แท้จริง

การถกเถียงเรื่องความรับผิดชอบของแพลตฟอร์มและการควบคุมเนื้อหา

การลบวิดีโอเหล่านี้ได้จุดประกายการถกเถียงอย่างรุนแรงเกี่ยวกับความรับผิดชอบของแพลตฟอร์มสื่อสังคมออนไลน์ ในขณะที่ TikTok ระบุว่าวิดีโอเหล่านี้ละเมิดแนวทางเรื่องการติดป้ายกำกับ AI ที่ไม่เพียงพอมากกว่าข้อความที่ก่อให้เกิดการถกเถียง สมาชิกชุมชนตั้งคำถามว่าแพลตฟอร์มควรดำเนินการที่เข้มงวดกว่านี้ต่อเนื้อหาที่มีการจัดการโดยไม่คำนึงถึงการจำแนกประเภททางเทคนิค

บางคนโต้แย้งว่าความรับผิดชอบอยู่ที่ผู้สร้างในการทำเครื่องหมายเนื้อหาที่สร้างด้วย AI อย่างชัดเจน ในขณะที่คนอื่นๆ เชื่อว่าแพลตฟอร์มต้องการระบบตรวจจับที่แข็งแกร่งกว่านี้ การสนทนานี้เน้นย้ำถึงความท้าทายที่เพิ่มขึ้นเมื่อเนื้อหาที่สร้างด้วย AI กลายเป็นที่ซับซ้อนมากขึ้นและยากขึ้นที่จะแยกแยะจากโพสต์ที่แท้จริง

แนวทางเนื้อหา AI ของ TikTok:

  • เนื้อหาที่สร้างด้วย AI ที่มีความสมจริงต้องมีการติดป้ายกำกับอย่างชัดเจน
  • ต้องมีคำบรรยาย ลายน้ำ สติกเกอร์ หรือป้ายกำกับ
  • ข้อความ "ผู้สร้างสรรค์ได้ติดป้ายกำกับว่าสร้างด้วย AI" เมื่อมีการติดแท็กอย่างถูกต้อง
  • ป้ายกำกับไม่ได้ถูกใช้โดยอัตโนมัติจากแพลตฟอร์ม

ผลกระทบในวงกว้างต่อสงครามข้อมูล

สิ่งที่น่าวิตกที่สุดสำหรับผู้สังเกตการณ์ชุมชนคือเหตุการณ์นี้แสดงให้เห็นถึงศักยภาพของ AI ในการขยายความตึงเครียดทางสังคมและเผยแพร่ข้อความที่ก่อให้เกิดการแบ่งแยก วิดีโอเหล่านี้กำหนดเป้าหมายไปที่ความวิตกกังวลทางเศรษฐกิจที่แท้จริงเกี่ยวกับการว่างงานของเยาวชนและการแข่งขันงาน โดยใช้บุคคลสมมติเพื่อยืนยันมุมมองที่ก่อให้เกิดการถกเถียงและอาจมีอิทธิพลต่อความคิดเห็นของสาธารณชนเกี่ยวกับนโยบายการอพยพ

เนื้อหาประเภทนี้และการเล่าเรื่องที่ขัดแย้งกันอย่างรุนแรงเป็นสิ่งที่เราคาดหวังจากกลุ่มขวาจัด สำหรับบริษัทที่ใช้แคมเปญแบบนี้เพื่อดึงดูดผู้บริโภคมาใช้บริการของตนนั้นเป็นปัญหาอย่างมาก

กรณีนี้แสดงให้เห็นว่าผู้ที่มีเจตนาร้ายสามารถใช้เครื่องมือ AI ขั้นสูงเพื่อสร้างแคมเปญข้อมูลเท็จที่น่าเชื่อถือได้อย่างไร ทำให้ผู้ใช้ทั่วไปแยกแยะระหว่างเนื้อหาแท้จริงจากรากหญ้าและโฆษณาชวนเชื่อที่ผลิตขึ้นเพื่อจัดการความรู้สึกของสาธารณชนได้ยากขึ้น

บริบทการจ้างงานเยาวชน:

  • อัตราการว่างงานของเยาวชน Toronto ประมาณ 20%
  • ส่งผลกระทบต่อกลุ่มประชากรอายุ 15-24 ปี
  • รวมถึงนักเรียนที่ยังคงศึกษาอยู่
  • ทำให้เกิดความเปราะบางต่อข้อความที่สร้างความแตกแยก

อนาคตของการควบคุมเนื้อหา AI

เหตุการณ์นี้อาจเร่งการเรียกร้องให้มีการควบคุมเนื้อหาที่สร้างด้วย AI ที่เข้มงวดกว่านี้ในแพลตฟอร์มสื่อสังคมออนไลน์ การสนทนาในชุมชนแสดงให้เห็นการสนับสนุนที่เพิ่มขึ้นสำหรับข้อกำหนดการติดป้ายกำกับที่บังคับและข้อจำกัดที่อาจเกิดขึ้นในการใช้ AI เพื่อสร้างบุคคลมนุษย์ที่สมจริงเพื่อวัตถุประสงค์ทางการตลาด

เมื่อเทคโนโลยีการสร้างวิดีโอ AI ยังคงพัฒนาต่อไป ความท้าทายในการรักษาความไว้วางใจในเนื้อหาออนไลน์จึงซับซ้อนมากขึ้น วิดีโอ Josh ทำหน้าที่เป็นสัญญาณเตือนล่วงหน้าว่าเครื่องมือ AI ที่ซับซ้อนสามารถถูกใช้ในทางที่ผิดเพื่อหลอกลวงผู้ชมและจัดการวาทกรรมสาธารณะในประเด็นทางสังคมและการเมืองที่ละเอียดอ่อนได้อย่างไร

อ้างอิง: That white guy who can't get a job at Tim Hortons? He's AI