นักวิจัยด้านความปลอดภัยได้เปิดเผยต่อสาธารณะถึงสิ่งที่พวกเขาอ้างว่าเป็นช่องโหว่ร้ายแรงในระบบของ OpenAI ที่อาจทำให้ผู้ใช้สามารถเห็นการตอบกลับในแชทที่มุ่งหมายสำหรับคนอื่น นักวิจัยที่ใช้ชื่อแฮนเดิล requilence ได้รายงานปัญหานี้ให้กับ OpenAI เมื่อวันที่ 29 พฤษภาคม 2025 แต่กล่าวว่าได้รับเพียงการตอบกลับอัตโนมัติโดยไม่มีการติดตามจากมนุษย์จริงจนถึงวันที่ 16 กรกฎาคม
ไทม์ไลน์ของเหตุการณ์:
- 29 พฤษภาคม 2025: รายงานช่องโหว่ให้ OpenAI ผ่านอีเมลที่เข้ารหัส
- ได้รับการตอบกลับแบบอัตโนมัติ ไม่มีการติดตามจากบุคคล
- 16 กรกฎาคม 2025: เปิดเผยต่อสาธารณะหลังจากรอคอย 45 วัน
- ปัญหายังคงไม่ได้รับการแก้ไขตามที่นักวิจัยระบุ
การอ้างเรื่องช่องโหว่และการถกเถียงเรื่องหลักฐาน
นักวิจัยอ้างว่าได้ค้นพบข้อบกพร่องที่เปิดเผยการสนทนาแชทของผู้ใช้คนอื่น ซึ่งอาจรวมถึงข้อมูลส่วนบุคคล แผนธุรกิจ และโค้ดที่เป็นกรรมสิทธิ์ เพื่อสนับสนุนการอ้างของพวกเขา พวกเขาชี้ไปที่สิ่งที่พวกเขาอธิบายว่าเป็นการตอบกลับที่รั่วไหลซึ่งแสดงการตอบกลับที่เหมาะสมตามบริบทในภาษาต่างๆ พร้อมกับการไหลของการสนทนาที่สอดคล้องกัน
หลักฐานที่น่าเชื่อถือที่สุดที่นำเสนอเกี่ยวข้องกับข้อมูลทางการเงินของบริษัทที่ไม่ค่อยมีใครรู้จัก นักวิจัยระบุว่าพวกเขาได้รับข้อมูลทางการเงินที่ถูกต้องเกี่ยวกับบริษัทเล็กๆ ที่มีชื่อไม่ใช่ตัวอักษรละติน แต่เมื่อพวกเขาถาม ChatGPT ในภายหลังเพื่อขอข้อมูลเดียวกันโดยไม่เปิดใช้งานการค้นหาเว็บ ระบบตอบว่าไม่มีข้อมูลนั้นในชุดข้อมูลการฝึกอบรม สิ่งนี้บ่งชี้ว่าการตอบกลับเดิมมาจากเซสชันผู้ใช้จริงที่มีความสามารถในการค้นหาเว็บ
อย่างไรก็ตาม ชุมชนเทคโนโลยียังคงแบ่งแยกในเรื่องว่าสิ่งนี้ถือเป็นหลักฐานของช่องโหว่ที่แท้จริงหรือไม่ ผู้แสดงความคิดเห็นบางคนโต้แย้งว่าโมเดลภาษาสมัยใหม่อย่าง GPT-4o มีความซับซ้อนเพียงพอที่จะสร้างการสนทนาที่ดูเหมือนจริงซึ่งอาจถูกเข้าใจผิดว่าเป็นการโต้ตอบของผู้ใช้จริง การถกเถียงนี้เน้นย้ำถึงความท้าทายพื้นฐานในการแยกแยะระหว่างการหลอนของ AI และการรั่วไหลของข้อมูลจริง
การหลอน: เมื่อโมเดล AI สร้างข้อมูลเท็จหรือแต่งขึ้นที่ดูเหมือนจริงแต่ไม่ได้อิงจากข้อมูลจริง
ความกังวลเกี่ยวกับแพลตฟอร์ม Bug Bounty
นักวิจัยเลือกที่จะข้ามโปรแกรม bug bounty อย่างเป็นทางการของ OpenAI บน Bugcrowd โดยอ้างความกังวลเกี่ยวกับข้อตกลงการไม่เปิดเผยข้อมูลที่เข้มงวด พวกเขาโต้แย้งว่า NDA เหล่านี้ป้องกันไม่ให้นักวิจัยหารือเกี่ยวกับการค้นพบของพวกเขาต่อสาธารณะแม้หลังจากปัญหาได้รับการแก้ไขแล้ว ซึ่งพวกเขามองว่าขัดต่อค่านิยมของชุมชนความปลอดภัย
การตัดสินใจนี้ได้จุดประกายการอภิปรายเกี่ยวกับแนวปฏิบัติของอุตสาหกรรม ในขณะที่บางคนปกป้อง NDA ว่าเป็นขั้นตอนมาตรฐานสำหรับโปรแกรม bug bounty คนอื่นๆ ชี้ให้เห็นว่าบริษัทใหญ่อย่าง Google, Microsoft และ Mozilla โดยทั่วไปต้องการเพียงการเปิดเผยแบบประสานงานมากกว่าการเงียบงันถาวร นักวิจัยสนับสนุนความโปร่งใสในการวิจัยด้านความปลอดภัย โดยโต้แย้งว่าเป็นประโยชน์ต่อชุมชนที่กว้างขึ้นและทำให้บริษัทต่างๆ รับผิดชอบต่อการแก้ไขที่ทันท่วงที
มาตรฐานอุตสาหกรรมที่อ้างอิง:
- ช่วงเวลาเปิดเผยข้อมูล 45 วัน ( CERT/CC , ISO/IEC 29147 )
- การเปิดเผยแบบประสานงานเทียบกับ NDA แบบถาวร
- การเปรียบเทียบกับแนวปฏิบัติของ Google , Microsoft , Mozilla
การตอบสนองของชุมชนและความสงสัย
การเปิดเผยนี้ได้สร้างการถกเถียงอย่างมากภายในชุมชนความปลอดภัย บางคนชื่นชมนักวิจัยที่ปฏิบัติตามแนวทางการเปิดเผยอย่างรับผิดชอบและรอช่วงเวลา 45 วันตามมาตรฐานก่อนเปิดเผยต่อสาธารณะ คนอื่นๆ ตั้งคำถามเกี่ยวกับความถูกต้องของการอ้าง โดยสังเกตการขาดหลักฐานทางเทคนิคแบบ proof-of-concept หรือขั้นตอนการทำซ้ำ
ทุกอย่างมีช่องโหว่ คำถามคือ นักวิจัยคนนี้ได้แสดงให้เห็นว่าพวกเขาได้ค้นพบและใช้ประโยชน์จากช่องโหว่ดังกล่าวสำเร็จหรือไม่
สมาชิกชุมชนหลายคนได้อ้างอิงถึงเหตุการณ์ก่อนหน้านี้ของ OpenAI ในเดือนมีนาคม 2020 เมื่อบั๊ก Redis caching ได้เปิดเผยชื่อแชทสั้นๆ (แม้ว่าจะไม่ใช่การสนทนาทั้งหมด) ให้กับผู้ใช้คนอื่น บริบททางประวัติศาสตร์นี้เพิ่มน้ำหนักให้กับความกังวลเกี่ยวกับช่องโหว่ที่อาจเกิดขึ้น ในขณะเดียวกันก็แสดงให้เห็นว่า OpenAI เคยเผชิญกับปัญหาที่คล้ายกันมาก่อน
คำแนะนำของนักวิจัยสำหรับผู้ใช้:
- หลีกเลี่ยงการแชร์เนื้อหาที่มีความละเอียดอ่อนกับโมเดล OpenAI จนกว่าจะมีการแก้ไขอย่างเป็นทางการ
- ใช้ฟีเจอร์การแบ่งแยกข้อมูลเมื่อมีให้บริการ
- ลบข้อมูลระบุตัวตนส่วนบุคคลออกจากคำสั่ง
- ติดตามหน้าความปลอดภัยของ OpenAI เพื่อรับข้อมูลอัปเดต
ผลกระทบต่อความปลอดภัยของ AI
เหตุการณ์นี้ ไม่ว่าจะได้รับการพิสูจน์หรือไม่ ก็เน้นย้ำถึงความกังวลที่กว้างขึ้นเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของ AI เมื่อโมเดลภาษามีการรวมเข้ากับเวิร์กโฟลว์ประจำวันมากขึ้น ผลกระทบที่อาจเกิดขึ้นจากการละเมิดข้อมูลก็เพิ่มขึ้นอย่างมาก ผู้ใช้แบ่งปันข้อมูลส่วนบุคคลและธุรกิจที่ละเอียดอ่อนกับระบบ AI มากขึ้น ทำให้การแยกที่เหมาะสมระหว่างเซสชันผู้ใช้มีความสำคัญ
คำแนะนำของนักวิจัยรวมถึงการหลีกเลี่ยงการแบ่งปันเนื้อหาที่ละเอียดอ่อนกับโมเดล OpenAI จนกว่าจะได้รับการตอบสนองอย่างเป็นทางการ และพวกเขาเรียกร้องให้มีแนวปฏิบัติด้านความปลอดภัยที่ดีขึ้นทั่วทั้งอุตสาหกรรม AI รวมถึงเวลาตอบสนองที่เร็วขึ้นต่อรายงานช่องโหว่และการประเมินความปลอดภัยจากบุคคลที่สามอย่างสม่ำเสมอ
OpenAI ยังไม่ได้ตอบสนองต่อการอ้างเหล่านี้ต่อสาธารณะ และสถานะของช่องโหว่ยังคงไม่ชัดเจนณ ขณะที่รายงานนี้