Anthropic ได้ดำเนินการเปลี่ยนแปลงนโยบายการใช้ข้อมูลของ Claude อย่างเงียบๆ โดยเปลี่ยนจากระบบ opt-in เป็น opt-out สำหรับการใช้การสนทนาของลูกค้าเป็นข้อมูลฝึกอบรม การเปลี่ยนแปลงนี้ได้จุดประกายการอภิปรายอย่างกว้างขวางในชุมชนเทคโนโลยีเกี่ยวกับการตั้งค่าความเป็นส่วนตัวเริ่มต้นและลักษณะที่เปลี่ยนแปลงไปของข้อตกลงบริการ AI
ก่อนหน้านี้ Claude ดำเนินการภายใต้แนวทางที่ให้ความสำคัญกับความเป็นส่วนตัวเป็นอันดับแรก โดยการสนทนาของผู้ใช้จะถูกใช้สำหรับการฝึกอบรมโมเดลเมื่อผู้ใช้ให้ข้อเสนอแนะอย่างชัดเจนผ่านการให้คะแนนแบบ thumbs up หรือ down เท่านั้น ภายใต้นโยบายใหม่ ข้อมูลการแชทของผู้บริโภคทั้งหมดจะกลายเป็นวัสดุฝึกอบรมที่เป็นไปได้ เว้นแต่ผู้ใช้จะเข้าไปในการตั้งค่าความเป็นส่วนตัวเพื่อ opt out อย่างแข็งขัน
การเปรียบเทียบนโยบาย
ด้าน | นโยบายเดิม | นโยบายใหม่ |
---|---|---|
การตั้งค่าเริ่มต้น | เลือกเข้าร่วมเท่านั้นพร้อมการตอบกลับอย่างชัดเจน | เลือกออก (เริ่มต้นที่การฝึกอบรม) |
การเก็บรักษาข้อมูล | จำกัดเฉพาะเซสชันการตอบกลับ | สูงสุด 5 ปีสำหรับผู้ใช้ที่เลือกเข้าร่วม |
การปกป้ององค์กร | ได้รับการปกป้อง | ยังคงได้รับการปกป้อง |
การปกป้องผู้บริโภค | ได้รับการปกป้องโดยค่าเริ่มต้น | ต้องเลือกออกด้วยตนเอง |
ปัญหาการตั้งค่าเริ่มต้นและประสบการณ์ผู้ใช้
การดำเนินการเปลี่ยนแปลงนี้ได้กลายเป็นจุดขัดแย้งในหมู่ผู้ใช้ แม้ว่า Anthropic จะระบุว่าผู้ใช้ต้องทำการเลือกอย่างแข็งขัน แต่สมาชิกในชุมชนรายงานว่าพบสิ่งที่ดูเหมือน dark pattern ในส่วนติดต่อผู้ใช้ ตัวเลือก opt-in สำหรับการแบ่งปันข้อมูลจะได้รับการโฟกัสเริ่มต้นเมื่อผู้ใช้ได้รับการแจ้ง และผู้ใช้บางคนรายงานว่าพลาดการเลือกไปเลยเนื่องจาก pop-up ที่ปรากฏในเวลาที่ไม่เหมาะสมหรือข้อความที่ไม่ชัดเจน
การแจ้งใช้วลี คุณสามารถช่วยปรับปรุง Claude โดยไม่ได้สื่อสารอย่างชัดเจนว่าการยอมรับหมายความว่าการสนทนาส่วนตัวจะกลายเป็นข้อมูลฝึกอบรม สิ่งนี้ทำให้เกิดความกังวลว่าผู้ใช้หลายคนอาจยินยอมให้แบ่งปันข้อมูลโดยไม่รู้ตัวและไม่เข้าใจผลกระทบอย่างเต็มที่
การปฏิบัติต่อลูกค้าองค์กรเทียบกับผู้บริโภค
แง่มุมที่น่าสนใจของการเปลี่ยนแปลงนโยบายนี้คือการนำไปใช้แบบเลือกสรร ลูกค้าธุรกิจและองค์กรยังคงได้รับการปกป้องอย่างสมบูรณ์จากการเปลี่ยนแปลงนี้ - ข้อมูลของพวกเขายังคงถูกแยกออกจากไปป์ไลน์การฝึกอบรม ความแตกต่างนี้เน้นให้เห็นข้อเสนอคุณค่าที่แตกต่างกันที่ Anthropic มองเห็นในกลุ่มลูกค้าของตน โดยลูกค้าองค์กรที่จ่ายเงินได้รับการปกป้องความเป็นส่วนตัวที่แข็งแกร่งกว่าผู้บริโภครายบุคคล
ความกังวลเรื่องการเก็บรักษาข้อมูลและความปลอดภัย
ภายใต้นโยบายใหม่ ผู้ใช้ที่ opt in เพื่อแบ่งปันข้อมูลจะมีการสนทนาของพวกเขาถูกเก็บรักษาไว้นานถึงห้าปี ระยะเวลาการเก็บรักษาที่ยาวนานนี้ได้ทำให้เกิดความกังวลด้านความเป็นส่วนตัวเพิ่มเติม โดยเฉพาะอย่างยิ่งเมื่อพิจารณาความจริงทางเทคนิคของการทำงานของโมเดลภาษา การอภิปรายในชุมชนเผยให้เห็นว่าข้อมูลฝึกอบรมสามารถถูกดึงออกมาจากโมเดล AI ได้ผ่านการสร้างพรอมต์ที่ออกแบบมาอย่างระมัดระวัง ทำให้การสนทนาที่แบ่งปันใดๆ อาจสามารถกู้คืนได้โดยผู้ใช้คนอื่น
สิ่งใดก็ตามที่ LLM ฝึกอบรมควรถือว่าเป็นสาธารณะเนื่องจาก LLM อาจทำซ้ำมันได้ทุกคำ
ช่องโหว่ทางเทคนิคนี้หมายความว่าข้อมูลที่ละเอียดอ่อนที่แบ่งปันกับ Claude สามารถเข้าถึงได้โดยผู้ใช้คนอื่นตามทฤษฎี แม้จะเป็นทางอ้อมผ่านการตอบสนองของโมเดลต่อคำถามที่คล้ายกัน
การเปลี่ยนแปลงการตั้งค่าความเป็นส่วนตัวที่สำคัญ
- การใช้ข้อมูลสำหรับการฝึกฝน: ตอนนี้ตั้งค่าเริ่มต้นเป็น "เปิดใช้งาน" สำหรับผู้ใช้ใหม่และผู้ใช้เดิม
- ระยะเวลาการเก็บข้อมูล: ขยายเป็นสูงสุด 5 ปี สำหรับผู้ใช้ที่ยังคงเลือกเข้าร่วม
- ขอบเขต: ใช้กับการสนทนาและเซสชันการเขียนโค้ดของผู้บริโภคทั้งหมดที่เริ่มต้นหลังจากการให้ความยินยอม
- ข้อยกเว้นสำหรับองค์กร: บัญชีธุรกิจและองค์กรยังคงไม่ได้รับผลกระทบ
- ตำแหน่งการยกเลิก: เมนูการตั้งค่าความเป็นส่วนตัว (ต้องเข้าไปด้วยตนเอง)
ผลกระทบต่ออุตสาหกรรมในวงกว้าง
การเปลี่ยนแปลงนโยบายนี้สะท้อนแรงกดดันจากตลาดในวงกว้างที่บริษัท AI กำลังเผชิญ ภูมิทัศน์การแข่งขันต้องการการปรับปรุงโมเดลอย่างต่อเนื่อง ซึ่งต้องการข้อมูลฝึกอบรมที่หลากหลายจำนวนมาก บริษัทที่เริ่มแรกวางตำแหน่งตัวเองว่าใส่ใจความเป็นส่วนตัวกำลังค่อยๆ นำแนวปฏิบัติมาตรฐานอุตสาหกรรมมาใช้ที่ให้ความสำคัญกับการเก็บรวบรวมข้อมูลมากกว่าความเป็นส่วนตัวของผู้ใช้
การเปลี่ยนแปลงนี้ยังแสดงให้เห็นว่าบริการ AI แตกต่างจากผลิตภัณฑ์ซอฟต์แวร์แบบดั้งเดิมอย่างไร แพลตฟอร์มเหล่านี้เป็นบริการที่พัฒนาอยู่ซึ่งเงื่อนไขพื้นฐานสามารถเปลี่ยนแปลงได้ในขณะที่ผู้ใช้กำลังใช้งานอย่างแข็งขัน ทำให้สำคัญสำหรับผู้ใช้ที่จะต้องตรวจสอบการตั้งค่าความเป็นส่วนตัวและข้อตกลงบริการของพวกเขาเป็นประจำ
การตอบสนองของชุมชนชี้ให้เห็นว่านี่จะไม่ใช่การเปลี่ยนแปลงครั้งสุดท้ายในอุตสาหกรรม AI เนื่องจากบริษัทต่างๆ ต้องสร้างสมดุลระหว่างความเป็นส่วนตัวของผู้ใช้กับความจำเป็นในการแข่งขันสำหรับข้อมูลฝึกอบรมเพื่อปรับปรุงโมเดลของพวกเขา
อ้างอิง: The Default Trap: Why Anthropic's Data Policy Change Matters