Anthropic เปลี่ยนนโยบายความเป็นส่วนตัวเพื่อฝึก Claude ด้วยข้อมูลผู้ใช้ ขณะที่การศึกษาเผยครูใช้ AI ให้คะแนนอัตโนมัติ

ทีมบรรณาธิการ BigGo
Anthropic เปลี่ยนนโยบายความเป็นส่วนตัวเพื่อฝึก Claude ด้วยข้อมูลผู้ใช้ ขณะที่การศึกษาเผยครูใช้ AI ให้คะแนนอัตโนมัติ

Anthropic กำลังทำการเปลี่ยนแปลงที่สำคัญในการจัดการข้อมูลผู้ใช้ ขณะเดียวกันก็เผยแพร่งานวิจัยที่เปิดเผยแนวโน้มที่น่ากังวลในการใช้ AI ทางการศึกษา บริษัทผู้พัฒนาแชทบอต Claude กำลังเปลี่ยนจากแนวทางที่เน้นความเป็นส่วนตัวในอดีต และจะเริ่มฝึกโมเดล AI ด้วยการสนทนาของผู้ใช้ ซึ่งถือเป็นการเปลี่ยนแปลงที่โดดเด่นจากความมุ่งมั่นในการปกป้องข้อมูลที่เคยมีมาก่อน

การเปลี่ยนแปลงนโยบายความเป็นส่วนตัวส่งผลต่อผู้ใช้ Claude ทุกคน

Anthropic ได้ประกาศว่าจะเริ่มเก็บรวบรวมการสนทนาของผู้ใช้เพื่อฝึก Claude เวอร์ชันในอนาคต โดยละทิ้งนโยบายเดิมที่ไม่ใช้ข้อมูลลูกค้าสำหรับการฝึกโมเดล การเปลี่ยนแปลงนี้แสดงถึงการเปลี่ยนแนวทางพื้นฐานของบริษัทต่อความเป็นส่วนตัวของผู้ใช้ ก่อนหน้านี้ Anthropic จะเก็บข้อมูลเฉพาะเมื่อผู้ใช้รายงานเนื้อหาอย่างชัดเจนหรือเลือกเข้าร่วมโปรแกรมการฝึกเท่านั้น

นโยบายใหม่จะมีผลตั้งแต่วันที่ 28 กันยายน 2025 ทำให้ผู้ใช้เดิมมีช่วงเวลาจำกัดในการตัดสินใจ ผู้ใช้ใหม่จะพบกับการตัดสินใจเลือกเข้าร่วมระหว่างการสร้างบัญชี ขณะที่ผู้ใช้ปัจจุบันจะเห็นป๊อปอัปขออนุญาตเมื่อเข้าสู่ระบบครั้งถัดไป บริษัทได้ตั้งค่าเริ่มต้นให้อนุญาตการเก็บข้อมูล หมายความว่าผู้ใช้ต้องเลือกปกป้องความเป็นส่วนตัวของตนเองอย่างแข็งขัน

การเปลี่ยนแปลงสำคัญในนโยบายความเป็นส่วนตัว

  • นโยบายเดิม: ไม่มีการเก็บรวบรวมข้อมูลผู้ใช้เพื่อการฝึกอบรม เว้นแต่จะมีการรายงานอย่างชัดเจนหรือเลือกเข้าร่วม
  • นโยบายใหม่: เริ่มต้นด้วยการเลือกเข้าร่วมโดยอัตโนมัติสำหรับการเก็บรวบรวมข้อมูลตั้งแต่วันที่ 28 กันยายน 2025
  • ข้อมูลที่ได้รับผลกระทบ: การสนทนาใหม่และเซสชันในอดีตที่มีการใช้งานอีกครั้ง
  • การควบคุมของผู้ใช้: มีตัวเลือกสลับในการตั้งค่าความเป็นส่วนตัวเพื่อเลือกไม่เข้าร่วม
  • การปกป้องข้อมูล: กระบวนการอัตโนมัติเพื่อซ่อนข้อมูลที่มีความละเอียดอ่อน ไม่มีการขายให้กับบุคคลที่สาม

งานวิจัยด้านการศึกษาเผยความกังวลเรื่องการให้คะแนนอัตโนมัติ

ในเวลาเดียวกัน Anthropic ได้เผยแพร่รายงานการศึกษาที่วิเคราะห์วิธีที่ครูใช้ Claude เผยให้เห็นรูปแบบที่น่าตกใจในการนำ AI มาใช้ การศึกษาตรวจสอบการสนทนา 74,000 ครั้งจากบัญชีการศึกษาระดับสูงในช่วงเดือนพฤษภาคมและมิถุนายน 2025 พบว่านักการศึกษาพึ่งพา AI มากขึ้นสำหรับงานที่ละเอียดอ่อนเช่นการประเมินนักเรียน

งานวิจัยพบว่าแม้การพัฒนาหลักสูตรจะคิดเป็น 57% ของการใช้ AI ในหมู่นักการศึกษา แต่ที่น่ากังวลคือ 7% ใช้ Claude เพื่อประเมินผลการเรียนของนักเรียน ที่น่าตกใจยิ่งกว่าคือเกือบครึ่งหนึ่งของการโต้ตอบการให้คะแนนเหล่านี้—48.9%—เกี่ยวข้องกับระบบอัตโนมัติที่สมบูรณ์มากกว่าการช่วยเหลือจาก AI สิ่งนี้เกิดขึ้นทั้งที่นักการศึกษาเองให้คะแนน AI ว่ามีประสิทธิภาพน้อยที่สุดสำหรับงานประเมิน

สstatistik การใช้งาน Claude ในด้านการศึกษา

หมวดหมู่งาน เปอร์เซ็นต์การใช้งาน อัตราการทำงานอัตโนมัติ
การพัฒนาหลักสูตร 57% ต่ำ (ต้องการความร่วมมือ)
การวิจัยทางวิชาการ 13% ต่ำ (ต้องการความร่วมมือ)
การประเมิน/การให้คะแนนนักเรียน 7% 48.9% (การทำงานอัตโนมัติสูง)
งานด้านการบริหาร เปอร์เซ็นต์ที่เหลือ การทำงานอัตโนมัติสูง
การสำรวจความซับซ้อนและผลกระทบของ AI ในการศึกษา
การสำรวจความซับซ้อนและผลกระทบของ AI ในการศึกษา

คณาจารย์แสดงความกังวลด้านจริยธรรมเกี่ยวกับการให้คะแนนด้วย AI

การศึกษาประกอบด้วยงานวิจัยเชิงคุณภาพจากคณาจารย์ 22 คนของ Northeastern University ที่เน้นประเด็นจริยธรรมที่สำคัญเกี่ยวกับการให้คะแนนอัตโนมัติ ศาสตราจารย์คนหนึ่งเน้นภาระผูกพันทางศีลธรรมที่นักการศึกษามีต่อนักเรียน โดยระบุว่านักเรียนจ่ายค่าเล่าเรียนเพื่อความเชี่ยวชาญของมนุษย์ ไม่ใช่การประเมินจาก AI

Anthropic เองแสดงความกังวลเกี่ยวกับอัตราการใช้ระบบอัตโนมัติที่สูงในการให้คะแนน โดยยอมรับว่าการมอบหมายงานการศึกษาที่สำคัญเช่นนี้ทำให้เกิดคำถามร้ายแรงเกี่ยวกับคุณภาพและความยุติธรรมทางการศึกษา บริษัทระบุว่าแม้ขอบเขตที่การประเมินที่สร้างโดย AI มีอิทธิพลต่อเกรดสุดท้ายจะยังไม่ชัดเจน แต่ข้อมูลแสดงการพึ่งพาการประเมินอัตโนมัติอย่างมาก

ผลกระทบในวงกว้างสำหรับ AI ในการศึกษา

จังหวะเวลาของการพัฒนาเหล่านี้ตรงกับการแข่งขันที่เพิ่มขึ้นในหมู่บริษัท AI ที่มุ่งเป้าไปที่ภาคการศึกษา Anthropic เพิ่งเปิดตัว Learning Mode สำหรับ Claude ขณะที่คู่แข่งอย่าง OpenAI ได้แนะนำ Study Mode Google ได้ทำให้ชุด AI ราคา 20 ดอลลาร์สหรัฐต่อเดือนฟรีสำหรับนักศึกษาวิทยาลัย เน้นศักยภาพที่ร่ำรวยของสัญญาการศึกษา

งานวิจัยเผยว่านักการศึกษายินดีที่จะใช้ระบบอัตโนมัติสำหรับงานบริหารเช่นการจัดการการเงินและบันทึกนักเรียนมากกว่า ขณะที่ชอบการร่วมมือกับ AI สำหรับกิจกรรมที่ซับซ้อนที่ต้องใช้การคิดเชิงวิพากษ์ อย่างไรก็ตาม อัตราการใช้ระบบอัตโนมัติที่สูงในการให้คะแนนบ่งชี้ว่านักการศึกษาบางคนอาจข้ามเส้นจริยธรรมในการนำ AI มาใช้

วิธีการวิจัย

  • แหล่งข้อมูล: บทสนทนา Claude ที่ไม่เปิดเผยตัวตน 74,000 รายการจากบัญชีสถาบันอุดมศึกษา
  • ช่วงเวลา: พฤษภาคม-มิถุนายน 2025
  • การวิจัยเพิ่มเติม: ข้อมูลจากแบบสำรวจและข้อมูลเชิงคุณภาพจากอาจารย์ Northeastern University จำนวน 22 คน
  • การจำแนกงาน: จับคู่กับฐานข้อมูล O*NET ของ US Department of Labor
  • ประเภทบัญชี: บัญชีฟรีและ Pro ที่มีที่อยู่อีเมลสถาบันอุดมศึกษา

การควบคุมผู้ใช้และตัวเลือกการปกป้องข้อมูล

แม้จะมีการเปลี่ยนแปลงนโยบาย Anthropic ยืนยันว่าผู้ใช้ยังคงควบคุมข้อมูลของตนได้ บริษัทอ้างว่าใช้กระบวนการอัตโนมัติเพื่อซ่อนข้อมูลที่ละเอียดอ่อนและระบุว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ผู้ใช้ที่ต้องการเลือกไม่เข้าร่วมสามารถปิดการใช้งานสวิตช์ Help improve Claude ในการตั้งค่าความเป็นส่วนตัวได้

สำหรับผู้ใช้เดิมที่อาจตกลงให้เก็บข้อมูลโดยไม่ได้ตั้งใจ สามารถเปลี่ยนการตั้งค่าได้โดยไปที่ Settings > Privacy > Privacy Settings อย่างไรก็ตาม ข้อมูลใดๆ ที่เก็บไว้แล้วจะไม่สามารถเรียกคืนได้เมื่อผู้ใช้เลือกเข้าร่วมโปรแกรมการฝึกแล้ว