Anthropic เปลี่ยนจุดยืนด้านความเป็นส่วนตัว: Claude จะนำการสนทนาของผู้ใช้ไปฝึกโมเดลเว้นแต่จะปฏิเสธ

ทีมชุมชน BigGo
Anthropic เปลี่ยนจุดยืนด้านความเป็นส่วนตัว: Claude จะนำการสนทนาของผู้ใช้ไปฝึกโมเดลเว้นแต่จะปฏิเสธ

Anthropic ได้ประกาศการเปลี่ยนแปลงครั้งสำคัญในนโยบายความเป็นส่วนตัว โดยเปิดเผยว่า Claude จะนำการสนทนาและเซสชันการเขียนโค้ดของผู้ใช้ไปใช้ในการฝึกโมเดล เว้นแต่ผู้ใช้จะเลือกปฏิเสธก่อนวันที่ 28 กันยายน 2025 การเปลี่ยนแปลงนี้ถือเป็นการหันหลังให้กับความมุ่งมั่นด้านความเป็นส่วนตัวของผู้ใช้ที่เคยเป็นจุดแข็งที่แตกต่างจากคู่แข่งอย่าง OpenAI

การเปลี่ยนแปลงนี้ส่งผลต่อผู้ใช้แพ็กเกจ Claude Free, Pro (20 ดอลลาร์สหรัฐต่อเดือน) และ Max (200 ดอลลาร์สหรัฐต่อเดือน) รวมถึงเซสชัน Claude Code อย่างไรก็ตาม ลูกค้าองค์กรที่ใช้ Claude for Work, Claude Gov, Claude for Education และผู้ใช้ API ยังคงได้รับการปกป้องภายใต้เงื่อนไขทางการค้าแยกต่างหากที่มีมาตรฐานการจัดการข้อมูลที่เข้มงวดกว่า

แผนบริการและราคาที่ได้รับผลกระทบ:

  • Claude Free: $0 USD/เดือน
  • Claude Pro: $20 USD/เดือน
  • Claude Max: $200 USD/เดือน
  • Claude Code sessions รวมอยู่ในทุกแผนที่ได้รับผลกระทบ

บริการที่ได้รับการคุ้มครอง (ไม่ได้รับผลกระทบ):

  • Claude for Work (แผน Team และ Enterprise)
  • Claude Gov
  • Claude for Education
  • การใช้งาน API (รวมถึงบริการบุคคลที่สามเช่น Amazon Bedrock และ Google Cloud Vertex AI)
ภาพหน้าจอของบทความอย่างเป็นทางการที่มีชื่อเรื่อง "Updates to Consumer Terms and Privacy Policy" โดย Anthropic ซึ่งเน้นการเปลี่ยนแปลงนโยบายความเป็นส่วนตัวที่สำคัญเกี่ยวกับข้อมูลผู้ใช้
ภาพหน้าจอของบทความอย่างเป็นทางการที่มีชื่อเรื่อง "Updates to Consumer Terms and Privacy Policy" โดย Anthropic ซึ่งเน้นการเปลี่ยนแปลงนโยบายความเป็นส่วนตัวที่สำคัญเกี่ยวกับข้อมูลผู้ใช้

ข้อกังวลเรื่อง Dark Pattern และปัญหาส่วนติดต่อผู้ใช้

ชุมชนได้แสดงความกังวลอย่างมากเกี่ยวกับวิธีที่ Anthropic ดำเนินการเปลี่ยนแปลงนี้ ผู้ใช้รายงานว่าองค์ประกอบส่วนติดต่อผู้ใช้สร้างความสับสน รวมถึงสวิตช์ที่ปรากฏเป็นสีเทาทั้งในสถานะเปิดและปิดบนเว็บไซต์ ทำให้ยากต่อการระบุการตั้งค่าปัจจุบัน ป๊อปอัปแจ้งเตือนแสดงปุ่ม Accept อย่างเด่นชัด ในขณะที่ซ่อนตัวเลือกปฏิเสธไว้ในข้อความขนาดเล็กด้านล่าง โดยสวิตช์จะตั้งค่าเริ่มต้นเป็นเปิด

ผู้ใช้หลายคนอธิบายว่าตกลงยินยอมให้ใช้ข้อมูลโดยไม่ตั้งใจเนื่องจากการออกแบบส่วนติดต่อที่ไม่ชัดเจน การวางตัวควบคุมความเป็นส่วนตัวไว้ในการอัปเดตข้อกำหนดและเงื่อนไขถูกวิพากษ์วิจารณ์ว่าเป็นการปิดบังตัวเลือกสำคัญที่ควรจะเด่นชัดและชัดเจน

การเก็บข้อมูลระยะยาวเพิ่มความกังวลด้านความเป็นส่วนตัว

นอกเหนือจากการอนุญาตให้ใช้ข้อมูลฝึกโมเดลแล้ว Anthropic ยังขยายระยะเวลาการเก็บข้อมูลจาก 30 วันเป็นห้าปีสำหรับผู้ใช้ที่อนุญาตให้นำข้อมูลไปใช้ในการฝึกโมเดล ระยะเวลาการเก็บข้อมูลที่ขยายนี้ยังคงใช้แม้กับผู้ใช้ที่เปลี่ยนใจในภายหลัง เนื่องจากการสนทนาจะยังคงอยู่ในระบบของ Anthropic เป็นเวลาห้าปีเต็ม

ชุมชนได้แสดงความตกใจเป็นพิเศษเกี่ยวกับนโยบายการเก็บข้อมูลนี้ โดยสังเกตว่าการสนทนาส่วนตัวเป็นเวลาห้าปีถือเป็นขุมทรัพย์มหาศาลสำหรับแฮกเกอร์หรือคำขอจากรัฐบาล ผู้ใช้ที่ปฏิเสธการฝึกโมเดลจะยังคงใช้ระยะเวลาการเก็บข้อมูล 30 วันเดิม แต่หลายคนรู้สึกว่าตัวเลือกห้าปีสร้างความเสี่ยงด้านความปลอดภัยที่ไม่จำเป็น

ไทม์ไลน์สำคัญ:

  • ตั้งแต่ตนจนถึงวันที่ 28 กันยายน 2025: ผู้ใช้สามารถเลือกไม่เข้าร่วมผ่านการแจ้งเตือนแบบป๊อปอัพหรือการตั้งค่าความเป็นส่วนตัว
  • 28 กันยายน 2025: กำหนดเวลาสุดท้ายในการตัดสินใจ - ผู้ใช้ต้องเลือกที่จะใช้ Claude ต่อไป
  • การเก็บรักษาข้อมูล: 5 ปีสำหรับผู้เข้าร่วมการฝึกอบรม, 30 วันสำหรับผู้ใช้ที่เลือกไม่เข้าร่วม
  • ขอบเขต: ใช้เฉพาะกับการสนทนาใหม่หรือการสนทนาที่กลับมาใช้ใหม่และเซสชันการเขียนโค้ดหลังจากยอมรับข้อกำหนดใหม่

ผลกระทบต่อนักวิจัยและผู้เชี่ยวชาญ

การเปลี่ยนแปลงนโยบายได้จุดประกายความกังวลในหมู่ผู้เชี่ยวชาญที่ใช้ Claude สำหรับงานที่มีความละเอียดอ่อน นักวิจัยกังวลเกี่ยวกับแนวคิดที่ยังไม่ได้เผยแพร่ที่อาจถูกแบ่งปันกับผู้ใช้อื่นโดยไม่ตั้งใจผ่านกระบวนการฝึกโมเดล นักวิจัยด้านคณิตศาสตร์และนักพัฒนาได้แสดงความกังวลเป็นพิเศษเกี่ยวกับเทคนิคที่เป็นกรรมสิทธิ์หรือแนวทางใหม่ที่ถูกรวมเข้าในโมเดลและอาจถูกแนะนำให้กับคู่แข่ง

สถานการณ์ที่ฉันกังวลคือ Claude เรียนรู้แนวคิดการวิจัยที่ยังไม่ได้เผยแพร่จากฉันขณะที่เราสนทนาและเขียนโค้ด จากนั้น Claude ก็แนะนำแนวคิดเดียวกันนี้ให้กับคนอื่น ซึ่งเชื่ออย่างสุจริตใจว่านี่คือผลงานของพวกเขา

ความกังวลนี้ขยายไปถึงผู้ใช้ทางธุรกิจที่อาจแบ่งปันความลับทางการค้าหรือข้อมูลที่เป็นกรรมสิทธิ์โดยไม่ตั้งใจผ่านการมีปฏิสัมพันธ์กับ Claude Code แม้จะเชื่อว่าการสนทนาของพวกเขาเป็นส่วนตัว

การตอบสนองของชุมชนและการสูญเสียความไว้วางใจ

การประกาศนี้ได้จุดประกายความผิดหวังอย่างกว้างขวางในหมู่ผู้ใช้ที่เลือก Anthropic แทนคู่แข่งเนื่องจากแนวทางที่เน้นความเป็นส่วนตัว สมาชิกระยะยาวหลายคนกำลังยกเลิกบัญชีของตน โดยมองว่านี่เป็นการละเมิดความไว้วางใจขั้นพื้นฐานที่บ่อนทำลายการวางตำแหน่งของ Anthropic ในฐานะบริษัท AI ที่มีจริยธรรม

จังหวะเวลาของการเปลี่ยนแปลงนี้ ซึ่งเกิดขึ้นในขณะที่บริษัท AI เผชิญแรงกดดันที่เพิ่มขึ้นในการหารูปแบบธุรกิจที่ยั่งยืน ทำให้หลายคนมองว่านี่เป็นขั้นตอนที่หลีกเลี่ยงไม่ได้ในกระบวนการ enshittification ที่ส่งผลต่อบริษัทเทคโนโลยีที่ได้รับทุนจากนักลงทุนส่วนใหญ่เมื่อพวกเขาเติบโตขึ้น

ผู้ใช้สามารถปฏิเสธได้โดยไปที่การตั้งค่าความเป็นส่วนตัวของ Claude หรือผ่านป๊อปอัปแจ้งเตือนที่ปรากฏเมื่อเปิดแอปพลิเคชัน อย่างไรก็ตาม ความเสียหายต่อชื่อเสียงของ Anthropic ในฐานะทางเลือกที่ใส่ใจความเป็นส่วนตัวอาจพิสูจน์ได้ว่ายากกว่าการเปลี่ยนสวิตช์มากกว่าที่จะกลับคืนมา

อ้างอิง: Updates to Consumer Terms and Privacy Policy