นโยบายการฝึกข้อมูลใหม่ของ Anthropic ก่อให้เกิดความกังวลด้านความเป็นส่วนตัว เนื่องจากการเก็บข้อมูล 5 ปีและการตั้งค่าเริ่มต้นแบบ Opt-In

ทีมชุมชน BigGo
นโยบายการฝึกข้อมูลใหม่ของ Anthropic ก่อให้เกิดความกังวลด้านความเป็นส่วนตัว เนื่องจากการเก็บข้อมูล 5 ปีและการตั้งค่าเริ่มต้นแบบ Opt-In

Anthropic ได้เปิดตัวการเปลี่ยนแปลงที่สำคัญในนโยบายการใช้ข้อมูลสำหรับผู้ใช้ Claude โดยอนุญาตให้บริษัทสามารถใช้การสนทนาจากผู้ใช้แพ็กเกจ Free, Pro และ Max เพื่อฝึกโมเดล AI ในอนาคต การอัปเดตนี้ได้สร้างการอภิปรายอย่างมากในชุมชนเทคโนโลยี โดยผู้ใช้แสดงความกังวลเกี่ยวกับผลกระทบต่อความเป็นส่วนตัวและการสร้างมูลค่าเชิงพาณิชย์จากผลงานทางปัญญาของพวกเขา

นโยบายใหม่กำหนดให้ผู้ใช้ต้องเลือกอย่างชัดเจนว่าจะอนุญาตให้ใช้ข้อมูลของตนเพื่อฝึกโมเดลหรือไม่ แต่การดำเนินการดังกล่าวได้รับการวิพากษ์วิจารณ์เนื่องจากทำให้การ opt-in เป็นตัวเลือกเริ่มต้นที่ชัดเจน ผู้ใช้ต้องตัดสินใจภายในวันที่ 28 กันยายน 2025 มิฉะนั้นจะไม่สามารถใช้ Claude ต่อไปได้

ไทม์ไลน์นโยบาย

  • ผู้ใช้ปัจจุบันมีเวลาถึงวันที่ 28 กันยายน 2025 ในการตัดสินใจเลือก
  • การเปลี่ยนแปลงจะมีผลเฉพาะกับการสนทนาและเซสชันการเขียนโค้ดใหม่หรือที่กลับมาใช้ใหม่เท่านั้น
  • การสนทนาก่อนหน้าที่ไม่ได้ใช้งานจะไม่ถูกนำไปใช้สำหรับการฝึกอบรม
ภาพนี้แสดงถึงการประกาศอย่างเป็นทางการจาก Anthropic เกี่ยวกับการอัปเดตที่สำคัญต่อนโยบายการใช้ข้อมูลที่ส่งผลกระทบต่อผู้ใช้ Claude
ภาพนี้แสดงถึงการประกาศอย่างเป็นทางการจาก Anthropic เกี่ยวกับการอัปเดตที่สำคัญต่อนโยบายการใช้ข้อมูลที่ส่งผลกระทบต่อผู้ใช้ Claude

การออกแบบส่วนติดต่อผู้ใช้ที่สับสนทำให้ผู้ใช้หงุดหงิด

หนึ่งในข้อร้องเรียนที่เกิดขึ้นทันทีคือการออกแบบสวิตช์สลับที่คลุมเครือในแผงการตั้งค่าของ Claude ผู้ใช้รายงานว่าพบความยากลำบากในการระบุว่าตนได้ opt-in หรือ opt-out จากการแชร์ข้อมูลเนื่องจากตัวบ่งชี้ภาพที่ไม่ชัดเจน การออกแบบสไลเดอร์นี้ถูกเปรียบเทียบในแง่ลบกับส่วนติดต่อแบบ checkbox ที่เรียบง่ายกว่า ซึ่งจะช่วยขจัดความสับสนเกี่ยวกับสถานะการตั้งค่าปัจจุบัน

ความสับสนของ UI นี้น่ากังวลเป็นพิเศษ เนื่องจากผู้ใช้จำนวนมากอาจแชร์ข้อมูลโดยไม่ได้ตั้งใจเนื่องจากความคลุมเครือของส่วนติดต่อ แทนที่จะเป็นการเลือกอย่างมีข้อมูล

การเก็บข้อมูลระยะยาวเพิ่มความเสี่ยง

การเปลี่ยนแปลงที่สำคัญที่สุดคือการขยายระยะเวลาการเก็บข้อมูลจาก 30 วันเป็น 5 ปีสำหรับผู้ใช้ที่อนุญาตให้ใช้ข้อมูลของตนเพื่อการฝึก Anthropic ให้เหตุผลสำหรับระยะเวลาที่ขยายนี้โดยอธิบายว่าวงจรการพัฒนา AI ใช้เวลา 18 ถึง 24 เดือน และการเก็บข้อมูลระยะยาวช่วยสร้างโมเดลที่สม่ำเสมอมากขึ้นและตัวจำแนกความปลอดภัยที่ดีกว่า

อย่างไรก็ตาม การเพิ่มขึ้นอย่างมากของเวลาการเก็บข้อมูลนี้ได้เพิ่มความกังวลด้านความเป็นส่วนตัว โดยเฉพาะเมื่อรวมกับสิ่งที่ดูเหมือนจะเป็นการตั้งค่าเริ่มต้นแบบ opt-in

การเปรียบเทียบการเก็บรักษาข้อมูล

  • เมื่อเลือกเข้าร่วมการฝึกอบรม: ระยะเวลาการเก็บรักษา 5 ปี
  • เมื่อไม่เลือกเข้าร่วมการฝึกอบรม: ระยะเวลาการเก็บรักษา 30 วัน (นโยบายที่มีอยู่)
  • การสนทนาที่ถูกลบ: ไม่ถูกนำไปใช้สำหรับการฝึกอบรมในอนาคตโดยไม่คำนึงถึงการตั้งค่า

ชุมชนตั้งคำถามเกี่ยวกับแรงจูงใจในการแชร์ข้อมูล

สมาชิกชุมชนเทคโนโลยีรู้สึกสับสนว่าทำไมผู้ใช้ถึงจะแชร์ข้อมูลของตนเพื่อวัตถุประสงค์ในการฝึกโดยสมัครใจ บางคนคาดเดาว่าความเหนื่อยล้าด้านความเป็นส่วนตัวโดยทั่วไป คล้ายกับความเหนื่อยล้าจากป๊อปอัพคุกกี้ ทำให้ผู้ใช้ยอมรับเงื่อนไขเหล่านี้โดยไม่ได้พิจารณาอย่างรอบคอบ คนอื่นๆ แนะนำว่ามีเพียงผู้ใช้ที่เกี่ยวข้องกับบริษัทหรือผู้ที่ทำงานด้านการประกันคุณภาพเท่านั้นที่จะ opt-in โดยเจตนา

ฉันไม่เข้าใจว่าทำไมคุณถึงจะ opt-in เพื่อแชร์ข้อมูลของคุณ เป็นเพราะคุณเชื่อว่ามันจะช่วยปรับปรุงโมเดลและคุณจะได้รับประโยชน์จากมันหรือไม่ หรือเป็นเรื่องของการเสียสละเพื่อส่วนรวม?

การอภิปรายเผยให้เห็นความกังวลที่กว้างขึ้นเกี่ยวกับการสร้างมูลค่าเชิงพาณิชย์จากผลงานทางปัญญา โดยผู้ใช้บางคนเปรียบเทียบกับวิธีที่บริษัท AI เคยใช้เนื้อหาที่มีลิขสิทธิ์เพื่อการฝึกโดยไม่ได้รับอนุญาตอย่างชัดเจนมาก่อน

ขอบเขตที่จำกัดให้การปกป้องบางส่วน

การเปลี่ยนแปลงนโยบายนี้ใช้กับแพ็กเกจผู้บริโภคเท่านั้น และไม่ส่งผลกระทบต่อลูกค้าองค์กรที่ใช้ Claude for Work, การเข้าถึง API หรือบริการรัฐบาลและการศึกษา ความแตกต่างนี้แสดงให้เห็นว่า Anthropic ตระหนักถึงความคาดหวังด้านความเป็นส่วนตัวที่สูงขึ้นของผู้ใช้ธุรกิจและสถาบัน

ผู้ใช้ยังคงสามารถลบการสนทนาแต่ละรายการเพื่อป้องกันการใช้ในการฝึกได้ และผู้ที่เปลี่ยนใจสามารถ opt-out ได้ตลอดเวลา แม้ว่าข้อมูลที่เก็บรวบรวมไว้ก่อนหน้านี้อาจยังคงถูกใช้ในกระบวนการฝึกที่กำลังดำเนินอยู่

ขอบเขตการให้บริการ ได้รับผลกระทบจากนโยบายใหม่:

  • แผน Claude Free, Pro และ Max
  • Claude Code จากบัญชีที่เชื่อมโยง

ไม่ได้รับผลกระทบจากนโยบายใหม่:

  • Claude for Work (แผน Team และ Enterprise)
  • การใช้งาน API (รวมถึง Amazon Bedrock, Google Cloud Vertex AI)
  • Claude Gov และ Claude for Education

บทสรุป

แม้ว่า Anthropic สมควรได้รับเครดิตสำหรับการกำหนดให้ต้องได้รับความยินยอมอย่างชัดเจนจากผู้ใช้แทนที่จะดำเนินการเปลี่ยนแปลงอย่างเงียบๆ แต่การดำเนินการได้ทำให้เกิดคำถามว่าบริษัทให้ความสำคัญกับความเป็นส่วนตัวของผู้ใช้อย่างแท้จริงหรือเพียงแค่ปฏิบัติตามข้อกำหนดทางกฎหมายขั้นต่ำ การรวมกันของการออกแบบ UI ที่สับสน ระยะเวลาการเก็บข้อมูลที่ขยายยาว และการตั้งค่าเริ่มต้นแบบ opt-in ที่ชัดเจน ทำให้ผู้ใช้จำนวนมากรู้สึกว่าผลประโยชน์ด้านความเป็นส่วนตัวของพวกเขาเป็นรองต่อเป้าหมายการเก็บรวบรวมข้อมูลของบริษัท

เมื่อกำหนดเวลาในเดือนกันยายน 2025 ใกล้เข้ามา ผู้ใช้จะต้องพิจารณาอย่างรอบคอบว่าประโยชน์ที่อาจได้รับจากการปรับปรุงโมเดล AI จะมีค่ามากกว่าความกังวลด้านความเป็นส่วนตัวเกี่ยวกับการเก็บข้อมูลระยะยาวและการใช้เพื่อการฝึกหรือไม่

อ้างอิง: Updates to Consumer Terms and Privacy Policy