Anthropic กำลังทำการเปลี่ยนแปลงที่สำคัญในการจัดการข้อมูลผู้ใช้ ขณะเดียวกันก็เผยแพร่งานวิจัยที่เปิดเผยแนวโน้มที่น่ากังวลในการใช้ AI ทางการศึกษา บริษัทผู้พัฒนาแชทบอต Claude กำลังเปลี่ยนจากแนวทางที่เน้นความเป็นส่วนตัวในอดีต และจะเริ่มฝึกโมเดล AI ด้วยการสนทนาของผู้ใช้ ซึ่งถือเป็นการเปลี่ยนแปลงที่โดดเด่นจากความมุ่งมั่นในการปกป้องข้อมูลที่เคยมีมาก่อน
การเปลี่ยนแปลงนโยบายความเป็นส่วนตัวส่งผลต่อผู้ใช้ Claude ทุกคน
Anthropic ได้ประกาศว่าจะเริ่มเก็บรวบรวมการสนทนาของผู้ใช้เพื่อฝึก Claude เวอร์ชันในอนาคต โดยละทิ้งนโยบายเดิมที่ไม่ใช้ข้อมูลลูกค้าสำหรับการฝึกโมเดล การเปลี่ยนแปลงนี้แสดงถึงการเปลี่ยนแนวทางพื้นฐานของบริษัทต่อความเป็นส่วนตัวของผู้ใช้ ก่อนหน้านี้ Anthropic จะเก็บข้อมูลเฉพาะเมื่อผู้ใช้รายงานเนื้อหาอย่างชัดเจนหรือเลือกเข้าร่วมโปรแกรมการฝึกเท่านั้น
นโยบายใหม่จะมีผลตั้งแต่วันที่ 28 กันยายน 2025 ทำให้ผู้ใช้เดิมมีช่วงเวลาจำกัดในการตัดสินใจ ผู้ใช้ใหม่จะพบกับการตัดสินใจเลือกเข้าร่วมระหว่างการสร้างบัญชี ขณะที่ผู้ใช้ปัจจุบันจะเห็นป๊อปอัปขออนุญาตเมื่อเข้าสู่ระบบครั้งถัดไป บริษัทได้ตั้งค่าเริ่มต้นให้อนุญาตการเก็บข้อมูล หมายความว่าผู้ใช้ต้องเลือกปกป้องความเป็นส่วนตัวของตนเองอย่างแข็งขัน
การเปลี่ยนแปลงสำคัญในนโยบายความเป็นส่วนตัว
- นโยบายเดิม: ไม่มีการเก็บรวบรวมข้อมูลผู้ใช้เพื่อการฝึกอบรม เว้นแต่จะมีการรายงานอย่างชัดเจนหรือเลือกเข้าร่วม
- นโยบายใหม่: เริ่มต้นด้วยการเลือกเข้าร่วมโดยอัตโนมัติสำหรับการเก็บรวบรวมข้อมูลตั้งแต่วันที่ 28 กันยายน 2025
- ข้อมูลที่ได้รับผลกระทบ: การสนทนาใหม่และเซสชันในอดีตที่มีการใช้งานอีกครั้ง
- การควบคุมของผู้ใช้: มีตัวเลือกสลับในการตั้งค่าความเป็นส่วนตัวเพื่อเลือกไม่เข้าร่วม
- การปกป้องข้อมูล: กระบวนการอัตโนมัติเพื่อซ่อนข้อมูลที่มีความละเอียดอ่อน ไม่มีการขายให้กับบุคคลที่สาม
งานวิจัยด้านการศึกษาเผยความกังวลเรื่องการให้คะแนนอัตโนมัติ
ในเวลาเดียวกัน Anthropic ได้เผยแพร่รายงานการศึกษาที่วิเคราะห์วิธีที่ครูใช้ Claude เผยให้เห็นรูปแบบที่น่าตกใจในการนำ AI มาใช้ การศึกษาตรวจสอบการสนทนา 74,000 ครั้งจากบัญชีการศึกษาระดับสูงในช่วงเดือนพฤษภาคมและมิถุนายน 2025 พบว่านักการศึกษาพึ่งพา AI มากขึ้นสำหรับงานที่ละเอียดอ่อนเช่นการประเมินนักเรียน
งานวิจัยพบว่าแม้การพัฒนาหลักสูตรจะคิดเป็น 57% ของการใช้ AI ในหมู่นักการศึกษา แต่ที่น่ากังวลคือ 7% ใช้ Claude เพื่อประเมินผลการเรียนของนักเรียน ที่น่าตกใจยิ่งกว่าคือเกือบครึ่งหนึ่งของการโต้ตอบการให้คะแนนเหล่านี้—48.9%—เกี่ยวข้องกับระบบอัตโนมัติที่สมบูรณ์มากกว่าการช่วยเหลือจาก AI สิ่งนี้เกิดขึ้นทั้งที่นักการศึกษาเองให้คะแนน AI ว่ามีประสิทธิภาพน้อยที่สุดสำหรับงานประเมิน
สstatistik การใช้งาน Claude ในด้านการศึกษา
หมวดหมู่งาน | เปอร์เซ็นต์การใช้งาน | อัตราการทำงานอัตโนมัติ |
---|---|---|
การพัฒนาหลักสูตร | 57% | ต่ำ (ต้องการความร่วมมือ) |
การวิจัยทางวิชาการ | 13% | ต่ำ (ต้องการความร่วมมือ) |
การประเมิน/การให้คะแนนนักเรียน | 7% | 48.9% (การทำงานอัตโนมัติสูง) |
งานด้านการบริหาร | เปอร์เซ็นต์ที่เหลือ | การทำงานอัตโนมัติสูง |
![]() |
---|
การสำรวจความซับซ้อนและผลกระทบของ AI ในการศึกษา |
คณาจารย์แสดงความกังวลด้านจริยธรรมเกี่ยวกับการให้คะแนนด้วย AI
การศึกษาประกอบด้วยงานวิจัยเชิงคุณภาพจากคณาจารย์ 22 คนของ Northeastern University ที่เน้นประเด็นจริยธรรมที่สำคัญเกี่ยวกับการให้คะแนนอัตโนมัติ ศาสตราจารย์คนหนึ่งเน้นภาระผูกพันทางศีลธรรมที่นักการศึกษามีต่อนักเรียน โดยระบุว่านักเรียนจ่ายค่าเล่าเรียนเพื่อความเชี่ยวชาญของมนุษย์ ไม่ใช่การประเมินจาก AI
Anthropic เองแสดงความกังวลเกี่ยวกับอัตราการใช้ระบบอัตโนมัติที่สูงในการให้คะแนน โดยยอมรับว่าการมอบหมายงานการศึกษาที่สำคัญเช่นนี้ทำให้เกิดคำถามร้ายแรงเกี่ยวกับคุณภาพและความยุติธรรมทางการศึกษา บริษัทระบุว่าแม้ขอบเขตที่การประเมินที่สร้างโดย AI มีอิทธิพลต่อเกรดสุดท้ายจะยังไม่ชัดเจน แต่ข้อมูลแสดงการพึ่งพาการประเมินอัตโนมัติอย่างมาก
ผลกระทบในวงกว้างสำหรับ AI ในการศึกษา
จังหวะเวลาของการพัฒนาเหล่านี้ตรงกับการแข่งขันที่เพิ่มขึ้นในหมู่บริษัท AI ที่มุ่งเป้าไปที่ภาคการศึกษา Anthropic เพิ่งเปิดตัว Learning Mode สำหรับ Claude ขณะที่คู่แข่งอย่าง OpenAI ได้แนะนำ Study Mode Google ได้ทำให้ชุด AI ราคา 20 ดอลลาร์สหรัฐต่อเดือนฟรีสำหรับนักศึกษาวิทยาลัย เน้นศักยภาพที่ร่ำรวยของสัญญาการศึกษา
งานวิจัยเผยว่านักการศึกษายินดีที่จะใช้ระบบอัตโนมัติสำหรับงานบริหารเช่นการจัดการการเงินและบันทึกนักเรียนมากกว่า ขณะที่ชอบการร่วมมือกับ AI สำหรับกิจกรรมที่ซับซ้อนที่ต้องใช้การคิดเชิงวิพากษ์ อย่างไรก็ตาม อัตราการใช้ระบบอัตโนมัติที่สูงในการให้คะแนนบ่งชี้ว่านักการศึกษาบางคนอาจข้ามเส้นจริยธรรมในการนำ AI มาใช้
วิธีการวิจัย
- แหล่งข้อมูล: บทสนทนา Claude ที่ไม่เปิดเผยตัวตน 74,000 รายการจากบัญชีสถาบันอุดมศึกษา
- ช่วงเวลา: พฤษภาคม-มิถุนายน 2025
- การวิจัยเพิ่มเติม: ข้อมูลจากแบบสำรวจและข้อมูลเชิงคุณภาพจากอาจารย์ Northeastern University จำนวน 22 คน
- การจำแนกงาน: จับคู่กับฐานข้อมูล O*NET ของ US Department of Labor
- ประเภทบัญชี: บัญชีฟรีและ Pro ที่มีที่อยู่อีเมลสถาบันอุดมศึกษา
การควบคุมผู้ใช้และตัวเลือกการปกป้องข้อมูล
แม้จะมีการเปลี่ยนแปลงนโยบาย Anthropic ยืนยันว่าผู้ใช้ยังคงควบคุมข้อมูลของตนได้ บริษัทอ้างว่าใช้กระบวนการอัตโนมัติเพื่อซ่อนข้อมูลที่ละเอียดอ่อนและระบุว่าไม่ได้ขายข้อมูลผู้ใช้ให้กับบุคคลที่สาม ผู้ใช้ที่ต้องการเลือกไม่เข้าร่วมสามารถปิดการใช้งานสวิตช์ Help improve Claude ในการตั้งค่าความเป็นส่วนตัวได้
สำหรับผู้ใช้เดิมที่อาจตกลงให้เก็บข้อมูลโดยไม่ได้ตั้งใจ สามารถเปลี่ยนการตั้งค่าได้โดยไปที่ Settings > Privacy > Privacy Settings อย่างไรก็ตาม ข้อมูลใดๆ ที่เก็บไว้แล้วจะไม่สามารถเรียกคืนได้เมื่อผู้ใช้เลือกเข้าร่วมโปรแกรมการฝึกแล้ว