OpenAI ได้ลบฟีเจอร์ที่ก่อให้เกิดความถกเถียงออกจาก ChatGPT อย่างเงียบๆ หลังจากบทสนทนาส่วนตัวเกือบ 4,500 รายการสามารถค้นหาได้ผ่าน Google เผยให้เห็นข้อมูลส่วนบุคคลที่ละเอียดอ่อนซึ่งผู้ใช้ไม่เคยตั้งใจจะแบ่งปันกับโลกภายนอก เหตุการณ์นี้เน้นย้ำถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับความเป็นส่วนตัวของ AI และศักยภาพในการที่ข้อมูลผู้ใช้อาจถูกเปิดเผยโดยไม่ตั้งใจผ่านองค์ประกอบของอินเทอร์เฟซที่ออกแบบมาไม่ดี
ขนาดของการละเมิดความเป็นส่วนตัว:
- บทสนทนา ChatGPT ส่วนตัวเกือบ 4,500 บทสนทนาสามารถค้นพบได้ผ่าน Google search
- บทสนทนาประกอบด้วยหัวข้อที่ละเอียดอ่อน: ความวิตกกังวล, การติดยาเสพติด, การทารุณกรรม, PTSD, ความสัมพันธ์ส่วนตัว
- ชื่อของผู้ใช้, สถานที่ตั้ง, และรายละเอียดที่สามารถระบุตัวตนได้ถูกรวมไว้ในบทสนทนาจำนวนมาก
- ฟีเจอร์นี้ทำงานในฐานะ "การทดลองระยะสั้น" ก่อนที่จะถูกเอาออก
![]() |
---|
โลโก้ OpenAI และ ChatGPT เป็นสัญลักษณ์ของการสนทนาที่กำลังดำเนินอยู่เกี่ยวกับความเป็นส่วนตัวของ AI และความปลอดภัยของข้อมูลผู้ใช้ |
ฟีเจอร์ที่เกิดปัญหา
การละเมิดความเป็นส่วนตัวเกิดจากฟีเจอร์แบบ opt-in ที่ OpenAI อธิบายว่าเป็นการทดลองระยะสั้นที่ออกแบบมาเพื่อช่วยให้ผู้ใช้ค้นพบบทสนทนาที่มีประโยชน์ เมื่อผู้ใช้เลือกที่จะแบ่งปันบทสนทนา ChatGPT พวกเขาจะพบกับตัวเลือกช่องทำเครื่องหมายที่มีป้ายกำกับว่า ทำให้แชทนี้สามารถค้นพบได้ พร้อมกับข้อความตัวเล็กที่ระบุว่าจะอนุญาตให้แสดงในการค้นหาเว็บ อย่างไรก็ตาม การใช้งานจริงกลับเกิดปัญหาเนื่องจากผู้ใช้หลายคนดูเหมือนจะเข้าใจผิดในสิ่งที่พวกเขาตกลงเมื่อทำเครื่องหมายในช่องนี้
ฟีเจอร์นี้ต้องการความยินยอมอย่างชัดเจนจากผู้ใช้ แต่ข้อความดูเหมือนจะคลุมเครือเกินไปสำหรับผู้ใช้หลายคนที่จะเข้าใจผลกระทบอย่างเต็มที่ สิ่งที่ผู้ใช้คิดว่าเป็นเพียงการแบ่งปันลิงก์กับเพื่อนหรือสมาชิกในครอบครัว กลับกลายเป็นการทำให้บทสนทนาของพวกเขาสามารถค้นหาได้ผ่าน Google และเครื่องมือค้นหาอื่นๆ
การค้นพบเนื้อหาละเอียดอ่อนที่น่าตกใจ
การสืบสวนของ Fast Company เผยให้เห็นขอบเขตของการละเมิดความเป็นส่วนตัวโดยการค้นหาส่วนของลิงก์แบ่งปัน ChatGPT ใน Google ผลลัพธ์นั้นน่าตกใจ โดยมีบทสนทนาที่ผู้ใช้พูดคุยเกี่ยวกับหัวข้อส่วนตัวอย่างลึกซึ้ง รวมถึงความวิตกกังวล การติดยา การถูกทำร้าย และปัญหาสุขภาพจิตอื่นๆ ที่ละเอียดอ่อน ตัวอย่างที่น่ากังวลเป็นพิเศษคือผู้ใช้รายหนึ่งที่อธิบายชีวิตทางเพศของตนอย่างละเอียด พูดคุยเกี่ยวกับ PTSD และแบ่งปันข้อมูลเกี่ยวกับประวัติครอบครัวและความสัมพันธ์ระหว่างบุคคลขณะที่อาศัยอยู่ต่างประเทศ
แม้ว่าผลการค้นหาจะไม่เผยให้เห็นตัวตนที่แท้จริงของผู้ใช้ แต่บทสนทนาหลายรายการมีชื่อ สถานที่ และรายละเอียดที่สามารถระบุตัวตนได้อื่นๆ ที่อาจสามารถใช้ติดตามกลับไปหาบุคคลได้ การค้นพบนี้ทำให้ผู้ใช้หลายคนตกใจที่เคยสันนิษฐานว่าบทสนทนาของพวกเขาจะยังคงเป็นส่วนตัวหรือมองเห็นได้เฉพาะผู้รับที่ตั้งใจไว้เท่านั้น
การตอบสนองอย่างรวดเร็วและการควบคุมความเสียหาย
Dane Stuckey หัวหน้าเจ้าหน้าที่ความปลอดภัยสารสนเทศของ OpenAI ประกาศการลบฟีเจอร์นี้เพียงหนึ่งวันหลังจากรายงานของ Fast Company ถูกเผยแพร่ ใน statement ของเขา Stuckey ยอมรับว่าฟีเจอร์นี้สร้างโอกาสมากเกินไปสำหรับผู้คนที่จะแบ่งปันสิ่งที่พวกเขาไม่ได้ตั้งใจโดยไม่ได้ตั้งใจ บริษัทกำลังทำงานเพื่อลบเนื้อหาที่ถูกจัดทำดัชนีทั้งหมดออกจากเครื่องมือค้นหาที่เกี่ยวข้องและยกเลิกการจัดทำดัชนีทุกอย่างที่ผู้ใช้เคยแบ่งปันไว้
เหตุการณ์นี้แสดงถึงความล้มเหลวด้านความเป็นส่วนตัวที่สำคัญสำหรับ OpenAI โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงลักษณะที่ละเอียดอ่อนของบทสนทนาหลายรายการที่ผู้ใช้มีกับ ChatGPT Carissa Veliz นักจริยธรรม AI จาก University of Oxford แสดงความประหลาดใจต่อสถานการณ์นี้ โดยสังเกตว่าแม้นักวิชาการด้านความเป็นส่วนตัวจะเข้าใจว่าข้อมูลไม่ได้เป็นส่วนตัวเสมอไป แต่การที่ Google จัดทำดัชนีบทสนทนาที่ละเอียดอ่อนเป็นอย่างมากเช่นนี้เป็นเรื่องที่น่ากังวลเป็นพิเศษ
ลำดับเหตุการณ์:
- ฟีเจอร์นี้ถูกพัฒนาขึ้นในรูปแบบช่องทำเครื่องหมายที่ผู้ใช้สามารถเลือกได้ระหว่างการแชร์การสนทนา
- Fast Company ค้นพบการสนทนาที่สามารถค้นหาได้ผ่าน Google
- CISO ของ OpenAI คือ Dane Stuckey ประกาศการยกเลิกฟีเจอร์นี้หนึ่งวันหลังจากรายงานออกมา
- บริษัทกำลังดำเนินการเพื่อลบเนื้อหาที่แชร์ไว้ก่อนหน้านี้ทั้งหมดออกจากเครื่องมือค้นหา
ผลกระทบด้านความเป็นส่วนตัวในวงกว้าง
เหตุการณ์นี้เกิดขึ้นท่ามกลางความกังวลด้านความเป็นส่วนตัวที่มีอยู่แล้วเกี่ยวกับ ChatGPT คำสั่งศาลสหรัฐฯ กำหนดให้ OpenAI เก็บบันทึกการแชททั้งหมดไว้อย่างไม่มีกำหนด ป้องกันไม่ให้บริษัทปฏิบัติตามแนวทางปกติในการลบข้อมูลเป็นระยะ ข้อกำหนดนี้เกิดจากการฟ้องร้องที่กำลังดำเนินอยู่กับสำนักพิมพ์ รวมถึง The New York Times ที่กำลังสืบสวนว่า ChatGPT สามารถสร้างสื่อที่มีลิขสิทธิ์ซ้ำได้หรือไม่เมื่อได้รับการกระตุ้น
ความเสี่ยงด้านความเป็นส่วนตัวขยายไปเกินกว่าผู้ใช้รายบุคคลไปถึงสภาพแวดล้อมขององค์กร ในปี 2023 พนักงาน Samsung ได้แบ่งปันข้อมูลลับของบริษัทกับ ChatGPT โดยไม่ได้ตั้งใจขณะขอให้บอทปรับปรุงโค้ดและสร้างรายงานการประชุม แสดงให้เห็นว่าความลับทางการค้าสามารถถูกเปิดเผยโดยไม่ได้ตั้งใจผ่านการมีปฏิสัมพันธ์กับ AI ได้อย่างไร
นโยบายการเก็บข้อมูลปัจจุบันของ ChatGPT :
- คำสั่งศาลของสหรัฐฯ กำหนดให้ OpenAI เก็บบันทึกการสนทนาทั้งหมดไว้อย่างไม่มีกำหนด
- แนวปฏิบัติปกติในการลบข้อมูลเป็นระยะถูกระงับไว้ในระหว่างการดำเนินคดี
- ทีมกฎหมายสามารถเข้าถึงข้อมูลการป้อนข้อมูลของผู้ใช้ได้
- นโยบายนี้ยังคงมีผลบังคับใช้จนกว่าคดีความเรื่องลิขสิทธิ์กับสำนักพิมพ์จะได้รับการแก้ไข
การตอบสนองของตลาดและทางเลือกอื่น
ความถกเถียงนี้ได้ให้อาวุธแก่คู่แข่งที่วางตำแหน่งตนเองเป็นทางเลือกที่เน้นความเป็นส่วนตัว บริษัท Proton ของสวิสเซอร์แลนด์เพิ่งเปิดตัว Lumo แชทบอทคู่แข่งที่สัญญาว่าจะเข้ารหัสการสื่อสารของผู้ใช้ ไม่เก็บข้อมูลส่วนบุคคลไว้ รักษาโมเดลธุรกิจที่ปราศจากโฆษณา และเผยแพร่โค้ดแบบโอเพนซอร์ส สิ่งนี้แสดงถึงส่วนหนึ่งของกลยุทธ์ที่กว้างขึ้นของ Proton ในการแยกความแตกต่างจากยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Microsoft ผ่านการปกป้องความเป็นส่วนตัวที่เสริมขึ้น
เหตุการณ์นี้เป็นเครื่องเตือนใจอย่างชัดเจนว่าแม้จะมีข้อกำหนด opt-in ที่ชัดเจน การออกแบบอินเทอร์เฟซผู้ใช้และความชัดเจนของข้อความมีความสำคัญอย่างยิ่งต่อการปกป้องความเป็นส่วนตัวของผู้ใช้ในแอปพลิเคชัน AI เมื่อแชทบอท AI กลายเป็นส่วนหนึ่งของชีวิตประจำวันมากขึ้น ความรับผิดชอบในการสื่อสารอย่างชัดเจนเกี่ยวกับแนวทางการแบ่งปันข้อมูลจึงมีความสำคัญมากขึ้นเรื่อยๆ
![]() |
---|
ภาพนี้แสดงให้เห็นน้ำหนักทางอารมณ์ของความกังวลด้านความเป็นส่วนตัวที่เกิดขึ้นอย่างต่อเนื่องจากการโต้ตอบกับ AI |