Anthropic เปลี่ยนนโยบายข้อมูล Claude: การสนทนาของผู้ใช้กลายเป็นข้อมูลฝึกอบรมโดยอัตโนมัติ

ทีมชุมชน BigGo
Anthropic เปลี่ยนนโยบายข้อมูล Claude: การสนทนาของผู้ใช้กลายเป็นข้อมูลฝึกอบรมโดยอัตโนมัติ

Anthropic ได้ดำเนินการเปลี่ยนแปลงนโยบายการใช้ข้อมูลของ Claude อย่างเงียบๆ โดยเปลี่ยนจากระบบ opt-in เป็น opt-out สำหรับการใช้การสนทนาของลูกค้าเป็นข้อมูลฝึกอบรม การเปลี่ยนแปลงนี้ได้จุดประกายการอภิปรายอย่างกว้างขวางในชุมชนเทคโนโลยีเกี่ยวกับการตั้งค่าความเป็นส่วนตัวเริ่มต้นและลักษณะที่เปลี่ยนแปลงไปของข้อตกลงบริการ AI

ก่อนหน้านี้ Claude ดำเนินการภายใต้แนวทางที่ให้ความสำคัญกับความเป็นส่วนตัวเป็นอันดับแรก โดยการสนทนาของผู้ใช้จะถูกใช้สำหรับการฝึกอบรมโมเดลเมื่อผู้ใช้ให้ข้อเสนอแนะอย่างชัดเจนผ่านการให้คะแนนแบบ thumbs up หรือ down เท่านั้น ภายใต้นโยบายใหม่ ข้อมูลการแชทของผู้บริโภคทั้งหมดจะกลายเป็นวัสดุฝึกอบรมที่เป็นไปได้ เว้นแต่ผู้ใช้จะเข้าไปในการตั้งค่าความเป็นส่วนตัวเพื่อ opt out อย่างแข็งขัน

การเปรียบเทียบนโยบาย

ด้าน นโยบายเดิม นโยบายใหม่
การตั้งค่าเริ่มต้น เลือกเข้าร่วมเท่านั้นพร้อมการตอบกลับอย่างชัดเจน เลือกออก (เริ่มต้นที่การฝึกอบรม)
การเก็บรักษาข้อมูล จำกัดเฉพาะเซสชันการตอบกลับ สูงสุด 5 ปีสำหรับผู้ใช้ที่เลือกเข้าร่วม
การปกป้ององค์กร ได้รับการปกป้อง ยังคงได้รับการปกป้อง
การปกป้องผู้บริโภค ได้รับการปกป้องโดยค่าเริ่มต้น ต้องเลือกออกด้วยตนเอง

ปัญหาการตั้งค่าเริ่มต้นและประสบการณ์ผู้ใช้

การดำเนินการเปลี่ยนแปลงนี้ได้กลายเป็นจุดขัดแย้งในหมู่ผู้ใช้ แม้ว่า Anthropic จะระบุว่าผู้ใช้ต้องทำการเลือกอย่างแข็งขัน แต่สมาชิกในชุมชนรายงานว่าพบสิ่งที่ดูเหมือน dark pattern ในส่วนติดต่อผู้ใช้ ตัวเลือก opt-in สำหรับการแบ่งปันข้อมูลจะได้รับการโฟกัสเริ่มต้นเมื่อผู้ใช้ได้รับการแจ้ง และผู้ใช้บางคนรายงานว่าพลาดการเลือกไปเลยเนื่องจาก pop-up ที่ปรากฏในเวลาที่ไม่เหมาะสมหรือข้อความที่ไม่ชัดเจน

การแจ้งใช้วลี คุณสามารถช่วยปรับปรุง Claude โดยไม่ได้สื่อสารอย่างชัดเจนว่าการยอมรับหมายความว่าการสนทนาส่วนตัวจะกลายเป็นข้อมูลฝึกอบรม สิ่งนี้ทำให้เกิดความกังวลว่าผู้ใช้หลายคนอาจยินยอมให้แบ่งปันข้อมูลโดยไม่รู้ตัวและไม่เข้าใจผลกระทบอย่างเต็มที่

การปฏิบัติต่อลูกค้าองค์กรเทียบกับผู้บริโภค

แง่มุมที่น่าสนใจของการเปลี่ยนแปลงนโยบายนี้คือการนำไปใช้แบบเลือกสรร ลูกค้าธุรกิจและองค์กรยังคงได้รับการปกป้องอย่างสมบูรณ์จากการเปลี่ยนแปลงนี้ - ข้อมูลของพวกเขายังคงถูกแยกออกจากไปป์ไลน์การฝึกอบรม ความแตกต่างนี้เน้นให้เห็นข้อเสนอคุณค่าที่แตกต่างกันที่ Anthropic มองเห็นในกลุ่มลูกค้าของตน โดยลูกค้าองค์กรที่จ่ายเงินได้รับการปกป้องความเป็นส่วนตัวที่แข็งแกร่งกว่าผู้บริโภครายบุคคล

ความกังวลเรื่องการเก็บรักษาข้อมูลและความปลอดภัย

ภายใต้นโยบายใหม่ ผู้ใช้ที่ opt in เพื่อแบ่งปันข้อมูลจะมีการสนทนาของพวกเขาถูกเก็บรักษาไว้นานถึงห้าปี ระยะเวลาการเก็บรักษาที่ยาวนานนี้ได้ทำให้เกิดความกังวลด้านความเป็นส่วนตัวเพิ่มเติม โดยเฉพาะอย่างยิ่งเมื่อพิจารณาความจริงทางเทคนิคของการทำงานของโมเดลภาษา การอภิปรายในชุมชนเผยให้เห็นว่าข้อมูลฝึกอบรมสามารถถูกดึงออกมาจากโมเดล AI ได้ผ่านการสร้างพรอมต์ที่ออกแบบมาอย่างระมัดระวัง ทำให้การสนทนาที่แบ่งปันใดๆ อาจสามารถกู้คืนได้โดยผู้ใช้คนอื่น

สิ่งใดก็ตามที่ LLM ฝึกอบรมควรถือว่าเป็นสาธารณะเนื่องจาก LLM อาจทำซ้ำมันได้ทุกคำ

ช่องโหว่ทางเทคนิคนี้หมายความว่าข้อมูลที่ละเอียดอ่อนที่แบ่งปันกับ Claude สามารถเข้าถึงได้โดยผู้ใช้คนอื่นตามทฤษฎี แม้จะเป็นทางอ้อมผ่านการตอบสนองของโมเดลต่อคำถามที่คล้ายกัน

การเปลี่ยนแปลงการตั้งค่าความเป็นส่วนตัวที่สำคัญ

  • การใช้ข้อมูลสำหรับการฝึกฝน: ตอนนี้ตั้งค่าเริ่มต้นเป็น "เปิดใช้งาน" สำหรับผู้ใช้ใหม่และผู้ใช้เดิม
  • ระยะเวลาการเก็บข้อมูล: ขยายเป็นสูงสุด 5 ปี สำหรับผู้ใช้ที่ยังคงเลือกเข้าร่วม
  • ขอบเขต: ใช้กับการสนทนาและเซสชันการเขียนโค้ดของผู้บริโภคทั้งหมดที่เริ่มต้นหลังจากการให้ความยินยอม
  • ข้อยกเว้นสำหรับองค์กร: บัญชีธุรกิจและองค์กรยังคงไม่ได้รับผลกระทบ
  • ตำแหน่งการยกเลิก: เมนูการตั้งค่าความเป็นส่วนตัว (ต้องเข้าไปด้วยตนเอง)

ผลกระทบต่ออุตสาหกรรมในวงกว้าง

การเปลี่ยนแปลงนโยบายนี้สะท้อนแรงกดดันจากตลาดในวงกว้างที่บริษัท AI กำลังเผชิญ ภูมิทัศน์การแข่งขันต้องการการปรับปรุงโมเดลอย่างต่อเนื่อง ซึ่งต้องการข้อมูลฝึกอบรมที่หลากหลายจำนวนมาก บริษัทที่เริ่มแรกวางตำแหน่งตัวเองว่าใส่ใจความเป็นส่วนตัวกำลังค่อยๆ นำแนวปฏิบัติมาตรฐานอุตสาหกรรมมาใช้ที่ให้ความสำคัญกับการเก็บรวบรวมข้อมูลมากกว่าความเป็นส่วนตัวของผู้ใช้

การเปลี่ยนแปลงนี้ยังแสดงให้เห็นว่าบริการ AI แตกต่างจากผลิตภัณฑ์ซอฟต์แวร์แบบดั้งเดิมอย่างไร แพลตฟอร์มเหล่านี้เป็นบริการที่พัฒนาอยู่ซึ่งเงื่อนไขพื้นฐานสามารถเปลี่ยนแปลงได้ในขณะที่ผู้ใช้กำลังใช้งานอย่างแข็งขัน ทำให้สำคัญสำหรับผู้ใช้ที่จะต้องตรวจสอบการตั้งค่าความเป็นส่วนตัวและข้อตกลงบริการของพวกเขาเป็นประจำ

การตอบสนองของชุมชนชี้ให้เห็นว่านี่จะไม่ใช่การเปลี่ยนแปลงครั้งสุดท้ายในอุตสาหกรรม AI เนื่องจากบริษัทต่างๆ ต้องสร้างสมดุลระหว่างความเป็นส่วนตัวของผู้ใช้กับความจำเป็นในการแข่งขันสำหรับข้อมูลฝึกอบรมเพื่อปรับปรุงโมเดลของพวกเขา

อ้างอิง: The Default Trap: Why Anthropic's Data Policy Change Matters