เครื่องมือสร้างวิดีโอด้วย AI ตัวล่าสุดของ OpenAI ที่ชื่อ Sora ได้แสดงให้เห็นความสามารถที่น่าตกใจในการสร้างภาพปลอมของกิจกรรมอาชญากรรมที่ดูน่าเชื่อถือด้วยความพยายามเพียงเล็กน้อย การทดสอบล่าสุดเผยให้เห็นว่าระบบนี้สามารถผลิตภาพที่ดูเหมือนจริงของกล้องติดตัวและเนื้อหาที่อาจเป็นอันตรายอื่นๆ ในเวลาน้อยกว่า 60 วินาที ทำให้เกิดคำถามร้ายแรงเกี่ยวกับผลกระทบของเทคโนโลยีนี้ต่อสังคม
ความเร็วในการสร้างวิดีโอ: Sora สามารถสร้างภาพวิดีโอปลอมเหตุการณ์อาชญากรรมที่ดูสมจริงได้ในเวลาไม่ถึง 60 วินาที
การสร้างหลักฐานปลอมที่น่าเชื่อถืออย่างรวดเร็ว
ความเร็วและคุณภาพของผลงานจาก Sora ทำให้ผู้สังเกตการณ์หลายคนตกใจ เมื่อได้รับคำสั่งให้สร้างภาพจากกล้องติดตัวของการจับกุมของตำรวจ AI ก็ส่งมอบผลลัพธ์ที่ดูแท้จริงในการมองครั้งแรก แม้ว่าจะยังคงมีข้อบกพร่องทางเทคนิคบางอย่างที่มองเห็นได้เมื่อตรวจสอบอย่างใกล้ชิด เช่น กุญแจมือที่ดูไม่สมจริงเล็กน้อย แต่คุณภาพโดยรวมมีความซับซ้อนเพียงพอที่อาจหลอกผู้ชมทั่วไปได้
สิ่งนี้แสดงให้เห็นถึงความก้าวหน้าอย่างมีนัยสำคัญในความสามารถของการสร้างวิดีโอด้วย AI เทคโนโลยีได้พัฒนาจากการผลิตเนื้อหาที่เห็นได้ชัดว่าเป็นของปลอมไปสู่การสร้างสื่อที่ต้องใช้การตรวจสอบอย่างระมัดระวังเพื่อระบุว่าเป็นของปลอม
การประเมินคุณภาพ: ดูน่าเชื่อถือในแวบแรก แต่มีข้อบกพร่องที่ตรวจพบได้เช่นกุญแจมือที่ดูไม่สมจริงเมื่อดูอย่างใกล้ชิด
วิกฤตการณ์ทางญาณวิทยาที่ลึกซึ้งยิ่งขึ้น
การอภิปรายในชุมชนเผยให้เห็นความกังวลอย่างลึกซึ้งเกี่ยวกับสิ่งที่เทคโนโลยีนี้หมายถึงสำหรับความจริงและหลักฐานในยุคดิจิทัลของเรา เรากำลังเข้าสู่ยุคที่เนื้อหาวิดีโอที่ดูสมจริงสามารถถูกผลิตขึ้นตามใจชอบด้วยต้นทุนหรือความเชี่ยวชาญทางเทคนิคที่น้อยมาก การพัฒนานี้เกิดขึ้นในช่วงเวลาที่สังคมกำลังต่อสู้กับข้อมูลเท็จและการกัดเซาะรากฐานข้อเท็จจริงที่ใช้ร่วมกันอยู่แล้ว
เรากำลังเร่งไปสู่จุดที่สภาพแวดล้อมสื่อทั้งหมดของเราสามารถถูกสร้างขึ้นตามใจชอบด้วยต้นทุนที่เล็กน้อย รู้สึกเหมือนกับว่าร่างกายทางการเมืองกำลังเดินไปตามหน้าผาทางญาณวิทยา
ผลกระทบขยายไปไกลกว่าการหลอกลวงธรรมดา ในบริบททางกฎหมาย ความสามารถในการสร้างหลักฐานปลอมที่น่าเชื่อถือสามารถทำลายระบบยุติธรรมได้ ในด้านสังคมและการเมือง เนื้อหาที่ถูกผลิตขึ้นอาจก่อให้เกิดความตึงเครียดหรือสร้างเรื่องเล่าเท็จที่แพร่กระจายเร็วกว่าการแก้ไข
การทำให้เป็นประชาธิปไตย เทียบกับ อันตราย
เทคโนโลยีนี้นำเสนอดาบสองคม ในขณะที่บางคนโต้แย้งว่าการเข้าถึงการสร้างวิดีโอด้วย AI อย่างแพร่หลายทำให้เครื่องมือสร้างสรรค์เป็นประชาธิปไตยและทำให้ผู้คนตระหนักถึงการหลอกลวงที่อาจเกิดขึ้นมากขึ้น คนอื่นๆ กลับกังวลเกี่ยวกับอันตรายทันทีที่อาจเกิดขึ้น การถกเถียงมุ่งเน้นไปที่ว่าการเพิ่มความพร้อมใช้งานของเครื่องมือเหล่านี้จะทำให้สังคมมีความยืดหยุ่นต่อการจัดการมากขึ้นหรือเปราะบางต่อการจัดการมากขึ้นในที่สุด
มาตรการป้องกันในปัจจุบัน รวมถึงลายน้ำและข้อกำหนดการติดป้ายเนื้อหา อาจไม่เพียงพอ สมาชิกชุมชนบางคนได้แนะนำวิธีการหลีกเลี่ยงการป้องกันเหล่านี้แล้ว ซึ่งเน้นย้ำถึงการแข่งขันอาวุธที่กำลังดำเนินอยู่ระหว่างมาตรการความปลอดภัยและผู้ที่พยายามใช้เทคโนโลยีในทางที่ผิด
มาตรการป้องกันปัจจุบัน: ข้อกำหนดเรื่องลายน้ำและการติดป้ายเนื้อหา (อาจสามารถหลีกเลี่ยงได้)
มองไปข้างหน้า
ณ เดือนตุลาคม 2025 เรายืนอยู่ที่จุดเชื่อมต่อที่สำคัญที่เทคโนโลยีในการสร้างวิดีโอปลอมที่น่าเชื่อถือกำลังกลายเป็นกระแสหลัก ความท้าทายในตอนนี้อยู่ที่การพัฒนาทั้งโซลูชันทางเทคนิคและกรอบทางสังคมเพื่อจัดการกับความเป็นจริงใหม่นี้ การสนทนาเกี่ยวกับความสามารถของ Sora ทำหน้าที่เป็นการเตือนที่เร่งด่วนว่าสังคมจำเป็นต้องปรับตัวอย่างรวดเร็วสู่โลกที่การมองเห็นไม่ใช่การเชื่อถืออีกต่อไป
อ้างอิง: Post