ระบบลายน้ำแสงของ Cornell เผชิญความท้าทายทางเทคนิคแม้จะมีคำมั่นสัญญาต่อต้าน Deepfake

ทีมชุมชน BigGo
ระบบลายน้ำแสงของ Cornell เผชิญความท้าทายทางเทคนิคแม้จะมีคำมั่นสัญญาต่อต้าน Deepfake

นักวิจัยจาก Cornell ได้พัฒนาระบบที่ซ่อนรหัสลับในการเปลี่ยนแปลงของแสงที่แทบมองไม่เห็นเพื่อตรวจจับวิดีโอปลอม แม้แนวคิดนี้จะฟังดูน่าสนใจ แต่ชุมชนเทคโนโลยีได้แสดงความกังวลอย่างมากเกี่ยวกับประสิทธิผลในทางปฏิบัติและความท้าทายในการนำไปใช้งานจริง

ระบบนี้ทำงานโดยการฝังลายน้ำในแหล่งแสงที่ควบคุมได้ เช่น หน้าจอคอมพิวเตอร์และไฟในห้อง ลายน้ำเหล่านี้บรรจุข้อมูลที่มีการประทับเวลาซึ่งสามารถเปิดเผยได้ว่าเมื่อใดที่ภาพวิดีโอถูกตัดต่อหรือสร้างขึ้นโดย AI นักวิจัยออกแบบการเปลี่ยนแปลงเหล่านี้ให้เลียนแบบสัญญาณรบกวนของแสงธรรมชาติ ทำให้ยากต่อการตรวจจับหากไม่มีรหัสลับ

รายละเอียดการใช้งานทางเทคนิค:

  • ขนาดชิปลายน้ำ: มีขนาดประมาณแสตมป์
  • เข้ากันได้กับแหล่งแสงที่ตั้งโปรแกรมได้ (หน้าจอคอมพิวเตอร์ ไฟในห้องบางชนิด)
  • สามารถรองรับได้ถึง 3 โค้ดแยกกันสำหรับไฟที่แตกต่างกันในฉากเดียวกัน
  • ใช้งานได้ในสภาพแวดล้อมกลางแจ้งและกับผู้คนที่มีสีผิวต่างกัน
  • ใช้การศึกษาการรับรู้ของมนุษย์เพื่อทำให้การเปลี่ยนแปลงไม่สามารถมองเห็นได้
นักวิจัย Cornell ฉลองระบบนวัตกรรมที่พัฒนาขึ้นเพื่อซ่อนรหัสลับในแสง มุ่งเป้าต่อสู้กับวิดีโอปลอม
นักวิจัย Cornell ฉลองระบบนวัตกรรมที่พัฒนาขึ้นเพื่อซ่อนรหัสลับในแสง มุ่งเป้าต่อสู้กับวิดีโอปลอม

การบีบอัดวิดีโออาจทำลายการป้องกัน

ความกังวลเร่งด่วนที่สุดประการหนึ่งที่ชุมชนเทคโนโลยีหยิบยกขึ้นมาคือความเข้ากันได้กับการบีบอัดวิดีโอ โคเดควิดีโอสำหรับผู้บริโภคถูกออกแบบมาโดยเฉพาะเพื่อกำจัดการเปลี่ยนแปลงเล็กๆ ที่มองไม่เห็นเพื่อลดขนาดไฟล์ เนื่องจากลายน้ำอาศัยการเปลี่ยนแปลงความสว่างที่ละเอียดอ่อนซึ่งมนุษย์แทบสังเกตไม่ได้ อัลกอริทึมการบีบอัดมาตรฐานจึงมีแนวโน้มที่จะกำจัดสัญญาณป้องกันเหล่านี้ออกไปทั้งหมด สิ่งนี้สร้างความขัดแย้งพื้นฐานระหว่างกลไกหลักของเทคโนโลยีกับวิธีที่วิดีโอมักถูกประมวลผลและแชร์ออนไลน์

ข้อจำกัดสำคัญที่ระบุได้:

  • โคเดกการบีบอัดวิดีโออาจลบข้อมูลลายน้ำออกไป
  • เสี่ยงต่อการโจมตีแบบ replay ที่รูปแบบการส่องสว่างถูกคัดลอก
  • ต้องใช้โครงสร้างพื้นฐานการส่องสว่างเฉพาะสำหรับการนำไปใช้อย่างแพร่หลาย
  • ไม่สามารถป้องกันการจัดการวิดีโอทุกรูปแบบได้
  • ต้องพึ่งพาบุคคลที่สามที่เชื่อถือได้สำหรับการตรวจสอบ

การโจมตี Replay ก่อให้เกิดช่องโหว่ด้านความปลอดภัย

ผู้เชี่ยวชาญด้านเทคนิคได้ระบุสถานการณ์การโจมตี replay ที่อาจเกิดขึ้น ซึ่งผู้ไม่หวังดีสามารถดึงรูปแบบแสงจากวิดีโอที่ถูกต้องตามกฎหมายและนำไปใช้กับเนื้อหาปลอม เนื่องจากการเปลี่ยนแปลงของลายน้ำแยกออกจากเนื้อหาวิดีโอจริง ใครบางคนจึงสามารถคัดลอกลายเซ็นแสงเหล่านี้และวางทับลงบนภาพที่ถูกตัดต่อได้ในทางทฤษฎี สิ่งนี้จะทำให้วิดีโอปลอมดูเป็นของแท้เมื่อตรวจสอบกับระบบยืนยันตัวตน

ความกังวลเรื่องความไว้วางใจและอำนาจ

ระบบนี้ทำให้เกิดคำถามเกี่ยวกับว่าใครเป็นผู้ควบคุมกระบวนการยืนยันและคนดูจะเชื่อถือผลลัพธ์หรือไม่ เนื่องจากผู้ชมไม่สามารถยืนยันลายน้ำได้โดยตรง พวกเขาจึงต้องพึ่พาเครื่องมือของบุคคลที่สามหรือแถลงการณ์อย่างเป็นทางการเพื่อกำหนดความถูกต้อง การพึ่งพาหน่วยงานที่เชื่อถือได้นี้อาจเป็นปัญหา โดยเฉพาะอย่างยิ่งเมื่อพิจารณาจากความสงสัยในปัจจุบันต่อสถาบันสื่อและองค์กรตรวจสอบข้อเท็จจริง

หากคุณกำลังพิจารณาที่จะลำบากไปตั้งไฟแปลกๆ และอัลกอริทึมพิเศษเหล่านี้สำหรับงานอีเวนต์ที่คุณจัด ก็แค่ถ่ายวิดีโอเหตุการณ์นั้นเองแล้วโพสต์ไว้

ขอบเขตที่จำกัดและการนำไปใช้งานจริง

เทคโนโลยีนี้จะต้องมีการนำอุปกรณ์แสงพิเศษมาใช้อย่างแพร่หลายจึงจะมีประสิทธิผลอย่างแท้จริง แม้ว่านักวิจัยจะแสดงให้เห็นว่าไฟเก่าสามารถดัดแปลงด้วยชิปคอมพิวเตอร์เล็กๆ ได้ แต่สิ่งนี้ยังคงเป็นการลงทุนด้านโครงสร้างพื้นฐานที่สำคัญ ระบบนี้น่าจะจำกัดอยู่ที่สถานที่สำคัญ เช่น อาคารรัฐบาลหรือสตูดิโอข่าวใหญ่ๆ มากกว่าที่จะให้การป้องกัน deepfake อย่างกว้างขวางในสถานการณ์ประจำวัน

การอภิปรายของชุมชนเผยให้เห็นว่าแม้งานวิจัยของ Cornell จะเป็นแนวทางทางเทคนิคที่น่าสนใจ แต่ยังคงมีอุปสรรคสำคัญก่อนที่ลายน้ำแบบใช้แสงจะกลายเป็นการป้องกันที่เชื่อถือได้ต่อการตัดต่อวิดีโอ การแข่งขันด้านอาวุธระหว่างผู้สร้างเนื้อหาและผู้ที่พยายามหลอกลวงยังคงดำเนินต่อไป โดยมาตรการป้องกันใหม่แต่ละอย่างอาจก่อให้เกิดวิธีการหลีกเลี่ยงแบบใหม่ๆ

อ้างอิง: Hiding secret codes in light protects against fake videos