แชทบอต AI ของ Elon Musk ที่ชื่อ Grok กลายเป็นจุดสนใจของความขัดแย้งอีกครั้งหลังจากฟีเจอร์สร้างวิดีโอใหม่ได้สร้างภาพ deepfake ที่ไม่เหมาะสมของ Taylor Swift เหตุการณ์นี้เกิดขึ้นเมื่อนักข่าวได้ทดสอบการตั้งค่าเนื้อหา spicy ของแพลตฟอร์ม ทำให้เกิดคำถามใหม่เกี่ยวกับมาตรการความปลอดภัยของ AI และสิทธิ์ในภาพลักษณ์ของเซเลบริตี้
ความขัดแย้งเริ่มต้นเมื่อ Jess Weatherbed จาก The Verge ได้ทดสอบฟีเจอร์ Grok Imagine video ใหม่ของ Grok โดยใช้พรอมต์ที่ดูเหมือนไม่มีอันตราย: Taylor Swift ฉลอง Coachella กับเพื่อนๆ หลังจากเลือกพรีเซ็ต spicy จากตัวเลือกที่มี (custom, normal, fun และ spicy) AI ได้สร้างภาพมากกว่า 30 ภาพที่แสดง Swift ในเสื้อผ้าที่เปิดเผย รวมถึงภาพเปลือยและวิดีโอของเธอที่กำลังถอดเสื้อผ้า
การตั้งค่าฟีเจอร์ Grok Imagine :
- Custom: พารามิเตอร์ที่ผู้ใช้กำหนดเอง
- Normal: การสร้างเนื้อหาแบบมาตรฐาน
- Fun: เนื้อหาที่สนุกสนาน เบาสมอง
- Spicy: เนื้อหาสำหรับผู้ใหญ่ (ต้องมีการยืนยันอายุ)
- Video Generation: คลิปวิดีโอ 15 วินาทีจากภาพนิ่ง
ชุมชนแบ่งแยกเรื่องว่านี่เป็นการกระทำที่ไม่ได้รับการกระตุ้นหรือไม่
ชุมชนเทคโนโลยีมีความเห็นแตกต่างกันว่าเหตุการณ์นี้เป็นความล้มเหลวด้านความปลอดภัยของ AI จริงๆ หรือเป็นเพียงผลลัพธ์ที่คาดหวังจากการเลือกของผู้ใช้ ผู้แสดงความคิดเห็นหลายคนชี้ให้เห็นว่าการเลือกโหมด spicy ที่มีข้อกำหนดการยืนยันอายุควรจะสร้างความคาดหวังที่ชัดเจนเกี่ยวกับประเภทเนื้อหาที่จะถูกสร้างขึ้น
อย่างไรก็ตาม คนอื่นๆ โต้แย้งว่าคำว่า spicy สามารถตีความได้ในแบบที่ไม่ใช่ทางเพศ เช่น การสร้างเนื้อหาที่ดูดื้อหรือแหวกแนวมากกว่าภาพที่ไม่เหมาะสม การถกเถียงนี้เน้นย้ำถึงความท้าทายที่บริษัท AI เผชิญในการสื่อสารอย่างชัดเจนว่าการตั้งค่าเนื้อหาต่างๆ จะสร้างสิ่งใด
มาตรการป้องกันทางเทคนิคแสดงประสิทธิภาพที่ไม่สม่ำเสมอ
น่าสนใจที่มาตรการความปลอดภัยของ Grok ดูเหมือนจะทำงานในบางบริบทแต่ล้มเหลวในบริบทอื่น เมื่อถูกขอโดยตรงให้สร้างภาพเปลือยที่ไม่ได้รับความยินยอมของ Swift ระบบปฏิเสธและแสดงกล่องว่างแทน AI ยังปฏิเสธความพยายามในการสร้างเนื้อหาที่ไม่เหมาะสมเกี่ยวกับเด็กเมื่อโหมด spicy ถูกทดสอบกับเรื่องที่เกี่ยวกับเด็ก
พฤติกรรมที่ไม่สม่ำเสมอนี้บ่งชี้ว่าตัวกรองเนื้อหาของ Grok อาจมีช่องโหว่ที่อนุญาตให้เนื้อหาที่มีปัญหาผ่านไปได้เมื่อคำขอถูกเขียนแบบอ้อมหรือรวมกับโหมดพรีเซ็ตบางตัว
ผลการทดสอบมาตรการความปลอดภัย:
- ✅ คำขอที่ชัดเจนโดยตรง: ถูกบล็อก (แสดงกล่องว่าง)
- ✅ เด็ก + โหมด "spicy": ถูกบล็อกอย่างเหมาะสม
- ✅ คำขอแก้ไขร่างกาย: ถูกบล็อก (เช่น การทำให้ Swift ดูอ้วน)
- ❌ คำขอทางอ้อมผ่านพรีเซ็ต "spicy": สร้างเนื้อหาที่ไม่เหมาะสม
- ความสม่ำเสมอ: "หลายครั้ง" ที่เริ่มต้นด้วยเนื้อหาที่ไม่เหมาะสม ไม่ใช่ทุกครั้งที่พยายาม
ผลกระทบทางกฎหมายและธุรกิจที่กำลังจะมาถึง
ช่วงเวลาของความขัดแย้งนี้มีความสำคัญเป็นพิเศษเนื่องจากการเปลี่ยนแปลงทางกฎหมายที่กำลังจะมาถึง Take It Down Act ซึ่งกำหนดให้แพลตฟอร์มต้องลบภาพส่วนตัวที่ไม่ได้รับความยินยอมรวมถึงเนื้อหาที่สร้างด้วย AI อย่างรวดเร็ว จะมีผลบังคับใช้ในปีหน้า สิ่งนี้อาจทำให้ xAI เผชิญกับผลทางกฎหมายหากปัญหาคล้ายกันยังคงมีอยู่
สมาชิกชุมชนบางคนคาดเดาว่า xAI อาจจงใจวางตำแหน่งตัวเองเพื่อครอบครองตลาดเนื้อหาสำหรับผู้ใหญ่ที่บริษัท AI อื่นหลีกเลี่ยง กลยุทธ์นี้อาจมีผลกำไรทางการเงิน แม้ว่าจะมาพร้อมกับความเสี่ยงด้านชื่อเสียงและกฎหมายอย่างมาก
พวกเขาสร้างโหมด 'spicy' ขึ้นมาโดยเฉพาะ ฉันค่อนข้างแน่ใจว่าพวกเขารู้ว่าตัวเองกำลังทำอะไร ฉันแน่ใจว่าเราจะได้เห็นแถลงการณ์หน้าตกใจแบบ pikachu เร็วๆ นี้ที่บอกว่าพวกเขาไม่สามารถคาดเดาได้ว่าสิ่งนี้จะเกิดขึ้น
บริบททางกฎหมาย:
- พระราชบัญญัติ Take It Down: มีผลบังคับใช้ในปี 2025 กำหนดให้ลบภาพเปลือยที่ไม่ได้รับความยินยอมอย่างรวดเร็ว
- นโยบายของ X: อ้างว่ามี "นโยบายไม่ยอมรับเป็นอันขาด" สำหรับภาพเปลือยที่ไม่ได้รับความยินยอม (NCN)
- เหตุการณ์ที่ผ่านมา: ภาพ deepfake ของ Taylor Swift ถูกเผยแพร่อย่างล้นหลามบนแพลตฟอร์ม X ในปี 2024
- ผลที่ตามมาที่อาจเกิดขึ้น: ความรับผิดทางกฎหมายสำหรับแพลตฟอร์มภายใต้กฎระเบียบใหม่
ปัญหา Deepfake ในวงกว้าง
เหตุการณ์นี้สะท้อนถึงความท้าทายที่ใหญ่กว่าที่อุตสาหกรรม AI เผชิญ: การสร้างสมดุลระหว่างเสรีภาพในการสร้างสรรค์กับการปกป้องบุคคลจากภาพส่วนตัวที่ไม่ได้รับความยินยอม ในขณะที่บางคนโต้แย้งว่าบุคคลสาธารณะควรคาดหวังการปกป้องความเป็นส่วนตัวน้อยกว่า คนอื่นๆ ยืนยันว่าการสร้างเนื้อหาส่วนตัวปลอมโดยไม่ได้รับความยินยอมข้ามเส้นจริยธรรมโดยไม่คำนึงถึงสถานะเซเลบริตี้ของเรื่อง
ความขัดแย้งนี้ยังเกิดคำถามเกี่ยวกับวิธีที่บริษัท AI ควรจัดการกับความต้องการที่เพิ่มขึ้นสำหรับการสร้างเนื้อหาสำหรับผู้ใหญ่ในขณะที่รักษามาตรฐานจริยธรรมและการปฏิบัติตามกฎหมาย
เมื่อการสร้างภาพ AI กลายเป็นเรื่องที่ซับซ้อนและเข้าถึงได้มากขึ้น อุตสาหกรรมจะเผชิญกับแรงกดดันที่เพิ่มขึ้นในการพัฒนาแนวทางที่ชัดเจนกว่าและมาตรการป้องกันที่แข็งแกร่งกว่า สำหรับตอนนี้ เหตุการณ์ Grok ทำหน้าที่เป็นการเตือนอีกครั้งว่าจุดตัดระหว่างเทคโนโลยี AI การกลั่นกรองเนื้อหา และสิทธิ์ของบุคคลยังคงเป็นความท้าทายที่ซับซ้อนและพัฒนาอยู่
อ้างอิง: Grok generates fake Taylor Swift nudes without being asked