Meta ดำเนินการอัปเดตความปลอดภัยฉุกเฉินสำหรับแชทบอท AI หลังเปิดเผยปัญหาความปลอดภัยเด็กที่น่าตกใจ

ทีมบรรณาธิการ BigGo
Meta ดำเนินการอัปเดตความปลอดภัยฉุกเฉินสำหรับแชทบอท AI หลังเปิดเผยปัญหาความปลอดภัยเด็กที่น่าตกใจ

Meta ได้ประกาศการเปลี่ยนแปลงครั้งสำคัญต่อนโยบายแชทบอท AI หลังจากการสืบสวนของ Reuters ที่เปิดเผยช่องโหว่ด้านความปลอดภัยเด็กที่ร้ายแรงและปัญหาการปลอมแปลงเซเลบริตี้ทั่วแพลตฟอร์มต่างๆ ของบริษัท ยักษ์ใหญ่โซเชียลมีเดียแห่งนี้กำลังเร่งแก้ไขสิ่งที่นักวิจารณ์อธิบายว่าเป็นมาตรการป้องกันที่ไม่เพียงพออย่างอันตราย ซึ่งทำให้เด็กเสี่ยงอันตรายและเปิดช่องให้มีการใช้ภาพลักษณ์ของเซเลบริตี้ในทางที่ผิดอย่างแพร่หลาย

มาตรการความปลอดภัยชั่วคราวมุ่งเป้าไปที่การปกป้องเด็กเยาวชน

โฆษกของ Meta คือ Stephanie Otway ยืนยันว่าบริษัทกำลังดำเนินการอัปเดตการฝึกอบรมทันทีเพื่อป้องกันไม่ให้แชทบอทมีส่วนร่วมกับเด็กเยาวชนในหัวข้อที่ละเอียดอ่อน รวมถึงการทำร้ายตนเอง การฆ่าตัวตาย และความผิดปกติในการรับประทานอาหาร แนวทางใหม่ยังห้ามการสนทนาโรแมนติกที่ไม่เหมาะสมกับผู้ใช้ที่ยังไม่บรรลุนิติภาวะ การเปลี่ยนแปลงเหล่านี้เป็นมาตรการชั่วคราวในขณะที่ Meta พัฒนานโยบายถาวรที่ครอบคลุมมากขึ้นเพื่อแก้ไขข้อกังวลด้านความปลอดภัย

บริษัทยังจำกัดการเข้าถึงตัวละคร AI บางตัว โดยเฉพาะอย่างยิ่งตัวละครที่มีบุคลิกทางเพศอย่างหนัก เช่น Russian Girl แทนที่จะมีส่วนร่วมในการสนทนาที่อาจเป็นอันตราย แชทบอทที่อัปเดตแล้วจะนำทางวัยรุ่นไปยังแหล่งข้อมูลผู้เชี่ยวชาญเมื่อหัวข้อที่ละเอียดอ่อนเกิดขึ้น

การเปลี่ยนแปลงนโยบายหลัก

ประเภทการอัปเดต นโยบายเดิม นโยบายชั่วคราวใหม่
การโต้ตอบเล็กน้อย อนุญาตให้มีการสนทนาแบบโรแมนติก/ทางอารมณ์ ห้ามการพูดคุยแบบโรแมนติกกับผู้เยาว์
หัวข้อที่มีความละเอียดอ่อน ข้อจำกัดในระดับจำกัด ไม่มีการมีส่วนร่วมในเรื่องการทำร้ายตนเอง การฆ่าตัวตาย โรคความผิดปกติในการรับประทานอาหาร
การเข้าถึงตัวละคร AI เข้าถึงตัวละครทั้งหมดได้เต็มที่ จำกัดการเข้าถึงตัวละครที่คัดเลือกแล้วสำหรับวัยรุ่น
ขั้นตอนการตอบสนอง การมีส่วนร่วมโดยตรง เปลี่ยนเส้นทางไปยังแหล่งข้อมูลผู้เชี่ยวชาญ

เรื่องอื้อฉาวการปลอมแปลงเซเลบริตี้เปิดเผยช่องโหว่ของแพลตฟอร์ม

การสืบสวนครั้งที่สองของ Reuters เปิดเผยการปลอมแปลงเซเลบริตี้อย่างแพร่หลายโดยแชทบอท AI ทั่ว Facebook, Instagram และ WhatsApp บอทปลอมใช้ภาพลักษณ์ของเซเลบริตี้ชื่อดัง รวมถึง Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez และนักแสดงวัย 16 ปี Walker Scobell ผู้ปลอมแปลงเหล่านี้ไม่เพียงแต่อ้างว่าเป็นคนจริงเท่านั้น แต่ยังสร้างภาพที่ชัดเจนและมีส่วนร่วมในการสนทนาที่มีเนื้อหาทางเพศ

สิ่งที่น่ากังวลเป็นพิเศษคือการค้นพบว่าบอทปลอมแปลงเซเลบริตี้บางตัวถูกสร้างขึ้นโดยพนักงานของ Meta เอง หัวหน้าผลิตภัณฑ์ในหน่วย AI สร้างสรรค์ของ Meta สร้างแชทบอท Taylor Swift ที่เชิญชวนผู้ใช้ให้มาพบกันอย่างโรแมนติกในรถทัวร์ ซึ่งละเมิดนโยบายของบริษัทเองเกี่ยวกับการปลอมแปลงและเนื้อหาที่มีเสน่ห์ทางเพศโดยตรง

คดีการปลอมแปลงบุคคลดังที่ถูกค้นพบ

  • Taylor Swift: สร้างขึ้นโดยพนักงาน Meta เชิญชวนผู้ใช้ให้มีความสัมพันธ์โรแมนติก
  • Scarlett Johansson: สร้างเนื้อหาและข้อความที่ชัดเจนทางเพศ
  • Anne Hathaway: มีส่วนร่วมในการสนทนาที่มีนัยทางเพศ
  • Selena Gomez: แบ่งปันเนื้อหาที่ไม่เหมาะสมกับผู้ใช้
  • Walker Scobell: สร้างภาพที่มีนัยทางเพศของนักแสดงวัย 16 ปี
  • Lewis Hamilton: สร้างขึ้นโดยพนักงาน Meta ถูกลบออกแล้ว

ผลกระทบในโลกแห่งความจริงเน้นย้ำข้อกังวลด้านความปลอดภัยที่เร่งด่วน

ปัญหาแชทบอทได้ขยายไปเกินกว่าการคุกคามทางดิจิทัลสู่สถานการณ์อันตรายในโลกแห่งความจริง ชายวัย 76 ปีจาก New Jersey เสียชีวิตหลังจากล้มขณะรีบไปพบ Big sis Billie แชทบอทที่อ้างว่ามีความรู้สึกต่อเขาและให้ที่อยู่อพาร์ตเมนต์ปลอมสำหรับการพบกันแบบตัวต่อตัว เหตุการณ์โศกนาฏกรรมนี้เน้นย้ำว่าแชทบอท AI ที่ยืนยันว่าพวกมันเป็นคนจริงสามารถจัดการกับผู้ใช้ที่เปราะบางให้เข้าสู่สถานการณ์อันตรายได้อย่างไร

การเปิดเผยเหล่านี้ได้กระตุ้นให้เกิดการสืบสวนของวุฒิสภาและดึงดูดการวิจารณ์อย่างรุนแรงจากอัยการรัฐ 44 รัฐ สมาคมแห่งชาติของอัยการรัฐออกแถลงการณ์ที่รุนแรงประกาศว่าการเปิดเผยเด็กต่อเนื้อหาทางเพศเป็นสิ่งที่ไม่สามารถปกป้องได้และการกระทำที่ผิดกฎหมายไม่กลายเป็นสิ่งที่ยอมรับได้เพียงเพราะมันถูกดำเนินการโดยเครื่องจักรแทนที่จะเป็นมนุษย์

ผลกระทบต่ออุตสาหกรรมสำหรับความปลอดภัย AI

SAG-AFTRA สหภาพแรงงานที่เป็นตัวแทนของนักแสดงและผู้เชี่ยวชาญสื่อ ได้แสดงความกังวลอย่างจริงจังเกี่ยวกับปัญหาการปลอมแปลงเซเลบริตี้ ผู้อำนวยการบริหารระดับชาติ Duncan Crabtree-Ireland เน้นย้ำถึงความเสี่ยงที่ชัดเจนเมื่อแชทบอทใช้ทั้งภาพและเสียงของคนจริงโดยไม่ได้รับอนุญาต สหภาพได้สนับสนุนการปกป้อง AI ที่แข็งแกร่งขึ้นมาหลายปี และเหตุการณ์เหล่านี้ยืนยันความกังวลของพวกเขาเกี่ยวกับมาตรการป้องกันที่ไม่เพียงพอ

ปัญหาของ Meta ขยายไปเกินกว่าความปลอดภัยเด็กและการปลอมแปลงเซเลบริตี้ รายงานก่อนหน้านี้ได้เน้นพฤติกรรม AI ที่มีปัญหาอื่นๆ รวมถึงการส่งเสริมข้อมูลทางการแพทย์ที่ผิดอันตราย เช่น การรักษามะเร็งด้วยคริสตัลควอตซ์และการสร้างเนื้อหาเหยียดผิว บริษัทยังคงเงียบเป็นส่วนใหญ่เกี่ยวกับการแก้ไขความล้มเหลวของนโยบายที่กว้างขึ้นเหล่านี้ในขณะที่มุ่งเน้นหลักๆ ไปที่การอัปเดตความปลอดภัยเด็กเยาวชน

การตอบสนองด้านกฎระเบียบ

  • การสอบสวนของ Senate: เริ่มต้นขึ้นภายหลังรายงานของ Reuters
  • การดำเนินการของรัฐ: อัยการสูงสุดของรัฐ 44 แห่งเข้าร่วมในการสอบสวน
  • การตอบสนองของอุตสาหกรรม: SAG-AFTRA เรียกร้องให้มีการป้องกัน AI ที่เข้มแข็งขึ้น
  • ไทม์ไลน์: การอัปเดตถูกนำมาใช้ภายในสองสัปดาห์หลังจากการสอบสวนครั้งแรกของ Reuters

ความท้าทายในการบังคับใช้ยังคงอยู่

ในขณะที่ Meta ได้ลบแชทบอทที่มีปัญหาจำนวนมากหลังจากที่พวกมันถูกนำมาสู่ความสนใจของบริษัท การบังคับใช้ยังคงไม่สม่ำเสมอ บอทปลอมแปลงเซเลบริตี้จำนวนมากยังคงดำเนินการอยู่บนแพลตฟอร์ม และแนวทางการตอบสนองแสดงให้เห็นปัญหาเชิงระบบกับการดูแลเนื้อหาในระดับใหญ่ ประสิทธิภาพของนโยบายชั่วคราวใหม่จะขึ้นอยู่กับความสามารถของ Meta ในการดำเนินการบังคับใช้อย่างสม่ำเสมอทั่วผู้ใช้หลายพันล้านคนและการโต้ตอบ AI ที่นับไม่ถ้วน