Anthropic ได้เปิดตัวการเปลี่ยนแปลงที่สำคัญในนโยบายการใช้ข้อมูลสำหรับผู้ใช้ Claude โดยอนุญาตให้บริษัทสามารถใช้การสนทนาจากผู้ใช้แพ็กเกจ Free, Pro และ Max เพื่อฝึกโมเดล AI ในอนาคต การอัปเดตนี้ได้สร้างการอภิปรายอย่างมากในชุมชนเทคโนโลยี โดยผู้ใช้แสดงความกังวลเกี่ยวกับผลกระทบต่อความเป็นส่วนตัวและการสร้างมูลค่าเชิงพาณิชย์จากผลงานทางปัญญาของพวกเขา
นโยบายใหม่กำหนดให้ผู้ใช้ต้องเลือกอย่างชัดเจนว่าจะอนุญาตให้ใช้ข้อมูลของตนเพื่อฝึกโมเดลหรือไม่ แต่การดำเนินการดังกล่าวได้รับการวิพากษ์วิจารณ์เนื่องจากทำให้การ opt-in เป็นตัวเลือกเริ่มต้นที่ชัดเจน ผู้ใช้ต้องตัดสินใจภายในวันที่ 28 กันยายน 2025 มิฉะนั้นจะไม่สามารถใช้ Claude ต่อไปได้
ไทม์ไลน์นโยบาย
- ผู้ใช้ปัจจุบันมีเวลาถึงวันที่ 28 กันยายน 2025 ในการตัดสินใจเลือก
- การเปลี่ยนแปลงจะมีผลเฉพาะกับการสนทนาและเซสชันการเขียนโค้ดใหม่หรือที่กลับมาใช้ใหม่เท่านั้น
- การสนทนาก่อนหน้าที่ไม่ได้ใช้งานจะไม่ถูกนำไปใช้สำหรับการฝึกอบรม
![]() |
---|
ภาพนี้แสดงถึงการประกาศอย่างเป็นทางการจาก Anthropic เกี่ยวกับการอัปเดตที่สำคัญต่อนโยบายการใช้ข้อมูลที่ส่งผลกระทบต่อผู้ใช้ Claude |
การออกแบบส่วนติดต่อผู้ใช้ที่สับสนทำให้ผู้ใช้หงุดหงิด
หนึ่งในข้อร้องเรียนที่เกิดขึ้นทันทีคือการออกแบบสวิตช์สลับที่คลุมเครือในแผงการตั้งค่าของ Claude ผู้ใช้รายงานว่าพบความยากลำบากในการระบุว่าตนได้ opt-in หรือ opt-out จากการแชร์ข้อมูลเนื่องจากตัวบ่งชี้ภาพที่ไม่ชัดเจน การออกแบบสไลเดอร์นี้ถูกเปรียบเทียบในแง่ลบกับส่วนติดต่อแบบ checkbox ที่เรียบง่ายกว่า ซึ่งจะช่วยขจัดความสับสนเกี่ยวกับสถานะการตั้งค่าปัจจุบัน
ความสับสนของ UI นี้น่ากังวลเป็นพิเศษ เนื่องจากผู้ใช้จำนวนมากอาจแชร์ข้อมูลโดยไม่ได้ตั้งใจเนื่องจากความคลุมเครือของส่วนติดต่อ แทนที่จะเป็นการเลือกอย่างมีข้อมูล
การเก็บข้อมูลระยะยาวเพิ่มความเสี่ยง
การเปลี่ยนแปลงที่สำคัญที่สุดคือการขยายระยะเวลาการเก็บข้อมูลจาก 30 วันเป็น 5 ปีสำหรับผู้ใช้ที่อนุญาตให้ใช้ข้อมูลของตนเพื่อการฝึก Anthropic ให้เหตุผลสำหรับระยะเวลาที่ขยายนี้โดยอธิบายว่าวงจรการพัฒนา AI ใช้เวลา 18 ถึง 24 เดือน และการเก็บข้อมูลระยะยาวช่วยสร้างโมเดลที่สม่ำเสมอมากขึ้นและตัวจำแนกความปลอดภัยที่ดีกว่า
อย่างไรก็ตาม การเพิ่มขึ้นอย่างมากของเวลาการเก็บข้อมูลนี้ได้เพิ่มความกังวลด้านความเป็นส่วนตัว โดยเฉพาะเมื่อรวมกับสิ่งที่ดูเหมือนจะเป็นการตั้งค่าเริ่มต้นแบบ opt-in
การเปรียบเทียบการเก็บรักษาข้อมูล
- เมื่อเลือกเข้าร่วมการฝึกอบรม: ระยะเวลาการเก็บรักษา 5 ปี
- เมื่อไม่เลือกเข้าร่วมการฝึกอบรม: ระยะเวลาการเก็บรักษา 30 วัน (นโยบายที่มีอยู่)
- การสนทนาที่ถูกลบ: ไม่ถูกนำไปใช้สำหรับการฝึกอบรมในอนาคตโดยไม่คำนึงถึงการตั้งค่า
ชุมชนตั้งคำถามเกี่ยวกับแรงจูงใจในการแชร์ข้อมูล
สมาชิกชุมชนเทคโนโลยีรู้สึกสับสนว่าทำไมผู้ใช้ถึงจะแชร์ข้อมูลของตนเพื่อวัตถุประสงค์ในการฝึกโดยสมัครใจ บางคนคาดเดาว่าความเหนื่อยล้าด้านความเป็นส่วนตัวโดยทั่วไป คล้ายกับความเหนื่อยล้าจากป๊อปอัพคุกกี้ ทำให้ผู้ใช้ยอมรับเงื่อนไขเหล่านี้โดยไม่ได้พิจารณาอย่างรอบคอบ คนอื่นๆ แนะนำว่ามีเพียงผู้ใช้ที่เกี่ยวข้องกับบริษัทหรือผู้ที่ทำงานด้านการประกันคุณภาพเท่านั้นที่จะ opt-in โดยเจตนา
ฉันไม่เข้าใจว่าทำไมคุณถึงจะ opt-in เพื่อแชร์ข้อมูลของคุณ เป็นเพราะคุณเชื่อว่ามันจะช่วยปรับปรุงโมเดลและคุณจะได้รับประโยชน์จากมันหรือไม่ หรือเป็นเรื่องของการเสียสละเพื่อส่วนรวม?
การอภิปรายเผยให้เห็นความกังวลที่กว้างขึ้นเกี่ยวกับการสร้างมูลค่าเชิงพาณิชย์จากผลงานทางปัญญา โดยผู้ใช้บางคนเปรียบเทียบกับวิธีที่บริษัท AI เคยใช้เนื้อหาที่มีลิขสิทธิ์เพื่อการฝึกโดยไม่ได้รับอนุญาตอย่างชัดเจนมาก่อน
ขอบเขตที่จำกัดให้การปกป้องบางส่วน
การเปลี่ยนแปลงนโยบายนี้ใช้กับแพ็กเกจผู้บริโภคเท่านั้น และไม่ส่งผลกระทบต่อลูกค้าองค์กรที่ใช้ Claude for Work, การเข้าถึง API หรือบริการรัฐบาลและการศึกษา ความแตกต่างนี้แสดงให้เห็นว่า Anthropic ตระหนักถึงความคาดหวังด้านความเป็นส่วนตัวที่สูงขึ้นของผู้ใช้ธุรกิจและสถาบัน
ผู้ใช้ยังคงสามารถลบการสนทนาแต่ละรายการเพื่อป้องกันการใช้ในการฝึกได้ และผู้ที่เปลี่ยนใจสามารถ opt-out ได้ตลอดเวลา แม้ว่าข้อมูลที่เก็บรวบรวมไว้ก่อนหน้านี้อาจยังคงถูกใช้ในกระบวนการฝึกที่กำลังดำเนินอยู่
ขอบเขตการให้บริการ ได้รับผลกระทบจากนโยบายใหม่:
- แผน Claude Free, Pro และ Max
- Claude Code จากบัญชีที่เชื่อมโยง
ไม่ได้รับผลกระทบจากนโยบายใหม่:
- Claude for Work (แผน Team และ Enterprise)
- การใช้งาน API (รวมถึง Amazon Bedrock, Google Cloud Vertex AI)
- Claude Gov และ Claude for Education
บทสรุป
แม้ว่า Anthropic สมควรได้รับเครดิตสำหรับการกำหนดให้ต้องได้รับความยินยอมอย่างชัดเจนจากผู้ใช้แทนที่จะดำเนินการเปลี่ยนแปลงอย่างเงียบๆ แต่การดำเนินการได้ทำให้เกิดคำถามว่าบริษัทให้ความสำคัญกับความเป็นส่วนตัวของผู้ใช้อย่างแท้จริงหรือเพียงแค่ปฏิบัติตามข้อกำหนดทางกฎหมายขั้นต่ำ การรวมกันของการออกแบบ UI ที่สับสน ระยะเวลาการเก็บข้อมูลที่ขยายยาว และการตั้งค่าเริ่มต้นแบบ opt-in ที่ชัดเจน ทำให้ผู้ใช้จำนวนมากรู้สึกว่าผลประโยชน์ด้านความเป็นส่วนตัวของพวกเขาเป็นรองต่อเป้าหมายการเก็บรวบรวมข้อมูลของบริษัท
เมื่อกำหนดเวลาในเดือนกันยายน 2025 ใกล้เข้ามา ผู้ใช้จะต้องพิจารณาอย่างรอบคอบว่าประโยชน์ที่อาจได้รับจากการปรับปรุงโมเดล AI จะมีค่ามากกว่าความกังวลด้านความเป็นส่วนตัวเกี่ยวกับการเก็บข้อมูลระยะยาวและการใช้เพื่อการฝึกหรือไม่