OpenAI ลบฟีเจอร์ ChatGPT หลังบทสนทนาส่วนตัวหลายพันรายการถูกเปิดเผยในผลการค้นหา Google

ทีมบรรณาธิการ BigGo
OpenAI ลบฟีเจอร์ ChatGPT หลังบทสนทนาส่วนตัวหลายพันรายการถูกเปิดเผยในผลการค้นหา Google

OpenAI ได้ลบฟีเจอร์ที่ก่อให้เกิดความถกเถียงออกจาก ChatGPT อย่างเงียบๆ หลังจากบทสนทนาส่วนตัวเกือบ 4,500 รายการสามารถค้นหาได้ผ่าน Google เผยให้เห็นข้อมูลส่วนบุคคลที่ละเอียดอ่อนซึ่งผู้ใช้ไม่เคยตั้งใจจะแบ่งปันกับโลกภายนอก เหตุการณ์นี้เน้นย้ำถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับความเป็นส่วนตัวของ AI และศักยภาพในการที่ข้อมูลผู้ใช้อาจถูกเปิดเผยโดยไม่ตั้งใจผ่านองค์ประกอบของอินเทอร์เฟซที่ออกแบบมาไม่ดี

ขนาดของการละเมิดความเป็นส่วนตัว:

  • บทสนทนา ChatGPT ส่วนตัวเกือบ 4,500 บทสนทนาสามารถค้นพบได้ผ่าน Google search
  • บทสนทนาประกอบด้วยหัวข้อที่ละเอียดอ่อน: ความวิตกกังวล, การติดยาเสพติด, การทารุณกรรม, PTSD, ความสัมพันธ์ส่วนตัว
  • ชื่อของผู้ใช้, สถานที่ตั้ง, และรายละเอียดที่สามารถระบุตัวตนได้ถูกรวมไว้ในบทสนทนาจำนวนมาก
  • ฟีเจอร์นี้ทำงานในฐานะ "การทดลองระยะสั้น" ก่อนที่จะถูกเอาออก
โลโก้ OpenAI และ ChatGPT เป็นสัญลักษณ์ของการสนทนาที่กำลังดำเนินอยู่เกี่ยวกับความเป็นส่วนตัวของ AI และความปลอดภัยของข้อมูลผู้ใช้
โลโก้ OpenAI และ ChatGPT เป็นสัญลักษณ์ของการสนทนาที่กำลังดำเนินอยู่เกี่ยวกับความเป็นส่วนตัวของ AI และความปลอดภัยของข้อมูลผู้ใช้

ฟีเจอร์ที่เกิดปัญหา

การละเมิดความเป็นส่วนตัวเกิดจากฟีเจอร์แบบ opt-in ที่ OpenAI อธิบายว่าเป็นการทดลองระยะสั้นที่ออกแบบมาเพื่อช่วยให้ผู้ใช้ค้นพบบทสนทนาที่มีประโยชน์ เมื่อผู้ใช้เลือกที่จะแบ่งปันบทสนทนา ChatGPT พวกเขาจะพบกับตัวเลือกช่องทำเครื่องหมายที่มีป้ายกำกับว่า ทำให้แชทนี้สามารถค้นพบได้ พร้อมกับข้อความตัวเล็กที่ระบุว่าจะอนุญาตให้แสดงในการค้นหาเว็บ อย่างไรก็ตาม การใช้งานจริงกลับเกิดปัญหาเนื่องจากผู้ใช้หลายคนดูเหมือนจะเข้าใจผิดในสิ่งที่พวกเขาตกลงเมื่อทำเครื่องหมายในช่องนี้

ฟีเจอร์นี้ต้องการความยินยอมอย่างชัดเจนจากผู้ใช้ แต่ข้อความดูเหมือนจะคลุมเครือเกินไปสำหรับผู้ใช้หลายคนที่จะเข้าใจผลกระทบอย่างเต็มที่ สิ่งที่ผู้ใช้คิดว่าเป็นเพียงการแบ่งปันลิงก์กับเพื่อนหรือสมาชิกในครอบครัว กลับกลายเป็นการทำให้บทสนทนาของพวกเขาสามารถค้นหาได้ผ่าน Google และเครื่องมือค้นหาอื่นๆ

การค้นพบเนื้อหาละเอียดอ่อนที่น่าตกใจ

การสืบสวนของ Fast Company เผยให้เห็นขอบเขตของการละเมิดความเป็นส่วนตัวโดยการค้นหาส่วนของลิงก์แบ่งปัน ChatGPT ใน Google ผลลัพธ์นั้นน่าตกใจ โดยมีบทสนทนาที่ผู้ใช้พูดคุยเกี่ยวกับหัวข้อส่วนตัวอย่างลึกซึ้ง รวมถึงความวิตกกังวล การติดยา การถูกทำร้าย และปัญหาสุขภาพจิตอื่นๆ ที่ละเอียดอ่อน ตัวอย่างที่น่ากังวลเป็นพิเศษคือผู้ใช้รายหนึ่งที่อธิบายชีวิตทางเพศของตนอย่างละเอียด พูดคุยเกี่ยวกับ PTSD และแบ่งปันข้อมูลเกี่ยวกับประวัติครอบครัวและความสัมพันธ์ระหว่างบุคคลขณะที่อาศัยอยู่ต่างประเทศ

แม้ว่าผลการค้นหาจะไม่เผยให้เห็นตัวตนที่แท้จริงของผู้ใช้ แต่บทสนทนาหลายรายการมีชื่อ สถานที่ และรายละเอียดที่สามารถระบุตัวตนได้อื่นๆ ที่อาจสามารถใช้ติดตามกลับไปหาบุคคลได้ การค้นพบนี้ทำให้ผู้ใช้หลายคนตกใจที่เคยสันนิษฐานว่าบทสนทนาของพวกเขาจะยังคงเป็นส่วนตัวหรือมองเห็นได้เฉพาะผู้รับที่ตั้งใจไว้เท่านั้น

การตอบสนองอย่างรวดเร็วและการควบคุมความเสียหาย

Dane Stuckey หัวหน้าเจ้าหน้าที่ความปลอดภัยสารสนเทศของ OpenAI ประกาศการลบฟีเจอร์นี้เพียงหนึ่งวันหลังจากรายงานของ Fast Company ถูกเผยแพร่ ใน statement ของเขา Stuckey ยอมรับว่าฟีเจอร์นี้สร้างโอกาสมากเกินไปสำหรับผู้คนที่จะแบ่งปันสิ่งที่พวกเขาไม่ได้ตั้งใจโดยไม่ได้ตั้งใจ บริษัทกำลังทำงานเพื่อลบเนื้อหาที่ถูกจัดทำดัชนีทั้งหมดออกจากเครื่องมือค้นหาที่เกี่ยวข้องและยกเลิกการจัดทำดัชนีทุกอย่างที่ผู้ใช้เคยแบ่งปันไว้

เหตุการณ์นี้แสดงถึงความล้มเหลวด้านความเป็นส่วนตัวที่สำคัญสำหรับ OpenAI โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงลักษณะที่ละเอียดอ่อนของบทสนทนาหลายรายการที่ผู้ใช้มีกับ ChatGPT Carissa Veliz นักจริยธรรม AI จาก University of Oxford แสดงความประหลาดใจต่อสถานการณ์นี้ โดยสังเกตว่าแม้นักวิชาการด้านความเป็นส่วนตัวจะเข้าใจว่าข้อมูลไม่ได้เป็นส่วนตัวเสมอไป แต่การที่ Google จัดทำดัชนีบทสนทนาที่ละเอียดอ่อนเป็นอย่างมากเช่นนี้เป็นเรื่องที่น่ากังวลเป็นพิเศษ

ลำดับเหตุการณ์:

  • ฟีเจอร์นี้ถูกพัฒนาขึ้นในรูปแบบช่องทำเครื่องหมายที่ผู้ใช้สามารถเลือกได้ระหว่างการแชร์การสนทนา
  • Fast Company ค้นพบการสนทนาที่สามารถค้นหาได้ผ่าน Google
  • CISO ของ OpenAI คือ Dane Stuckey ประกาศการยกเลิกฟีเจอร์นี้หนึ่งวันหลังจากรายงานออกมา
  • บริษัทกำลังดำเนินการเพื่อลบเนื้อหาที่แชร์ไว้ก่อนหน้านี้ทั้งหมดออกจากเครื่องมือค้นหา

ผลกระทบด้านความเป็นส่วนตัวในวงกว้าง

เหตุการณ์นี้เกิดขึ้นท่ามกลางความกังวลด้านความเป็นส่วนตัวที่มีอยู่แล้วเกี่ยวกับ ChatGPT คำสั่งศาลสหรัฐฯ กำหนดให้ OpenAI เก็บบันทึกการแชททั้งหมดไว้อย่างไม่มีกำหนด ป้องกันไม่ให้บริษัทปฏิบัติตามแนวทางปกติในการลบข้อมูลเป็นระยะ ข้อกำหนดนี้เกิดจากการฟ้องร้องที่กำลังดำเนินอยู่กับสำนักพิมพ์ รวมถึง The New York Times ที่กำลังสืบสวนว่า ChatGPT สามารถสร้างสื่อที่มีลิขสิทธิ์ซ้ำได้หรือไม่เมื่อได้รับการกระตุ้น

ความเสี่ยงด้านความเป็นส่วนตัวขยายไปเกินกว่าผู้ใช้รายบุคคลไปถึงสภาพแวดล้อมขององค์กร ในปี 2023 พนักงาน Samsung ได้แบ่งปันข้อมูลลับของบริษัทกับ ChatGPT โดยไม่ได้ตั้งใจขณะขอให้บอทปรับปรุงโค้ดและสร้างรายงานการประชุม แสดงให้เห็นว่าความลับทางการค้าสามารถถูกเปิดเผยโดยไม่ได้ตั้งใจผ่านการมีปฏิสัมพันธ์กับ AI ได้อย่างไร

นโยบายการเก็บข้อมูลปัจจุบันของ ChatGPT :

  • คำสั่งศาลของสหรัฐฯ กำหนดให้ OpenAI เก็บบันทึกการสนทนาทั้งหมดไว้อย่างไม่มีกำหนด
  • แนวปฏิบัติปกติในการลบข้อมูลเป็นระยะถูกระงับไว้ในระหว่างการดำเนินคดี
  • ทีมกฎหมายสามารถเข้าถึงข้อมูลการป้อนข้อมูลของผู้ใช้ได้
  • นโยบายนี้ยังคงมีผลบังคับใช้จนกว่าคดีความเรื่องลิขสิทธิ์กับสำนักพิมพ์จะได้รับการแก้ไข

การตอบสนองของตลาดและทางเลือกอื่น

ความถกเถียงนี้ได้ให้อาวุธแก่คู่แข่งที่วางตำแหน่งตนเองเป็นทางเลือกที่เน้นความเป็นส่วนตัว บริษัท Proton ของสวิสเซอร์แลนด์เพิ่งเปิดตัว Lumo แชทบอทคู่แข่งที่สัญญาว่าจะเข้ารหัสการสื่อสารของผู้ใช้ ไม่เก็บข้อมูลส่วนบุคคลไว้ รักษาโมเดลธุรกิจที่ปราศจากโฆษณา และเผยแพร่โค้ดแบบโอเพนซอร์ส สิ่งนี้แสดงถึงส่วนหนึ่งของกลยุทธ์ที่กว้างขึ้นของ Proton ในการแยกความแตกต่างจากยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Microsoft ผ่านการปกป้องความเป็นส่วนตัวที่เสริมขึ้น

เหตุการณ์นี้เป็นเครื่องเตือนใจอย่างชัดเจนว่าแม้จะมีข้อกำหนด opt-in ที่ชัดเจน การออกแบบอินเทอร์เฟซผู้ใช้และความชัดเจนของข้อความมีความสำคัญอย่างยิ่งต่อการปกป้องความเป็นส่วนตัวของผู้ใช้ในแอปพลิเคชัน AI เมื่อแชทบอท AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้น ความรับผิดชอบในการสื่อสารอย่างชัดเจนเกี่ยวกับแนวทางการแบ่งปันข้อมูลจึงมีความสำคัญมากขึ้นเรื่อยๆ

ภาพนี้แสดงให้เห็นน้ำหนักทางอารมณ์ของความกังวลด้านความเป็นส่วนตัวที่เกิดขึ้นอย่างต่อเนื่องจากการโต้ตอบกับ AI
ภาพนี้แสดงให้เห็นน้ำหนักทางอารมณ์ของความกังวลด้านความเป็นส่วนตัวที่เกิดขึ้นอย่างต่อเนื่องจากการโต้ตอบกับ AI