OpenAI ประเมินพบผู้ใช้ ChatGPT 560,000 คนต่อสัปดาห์แสดงสัญญาณวิกฤตสุขภาพจิต

ทีมบรรณาธิการ BigGo
OpenAI ประเมินพบผู้ใช้ ChatGPT 560,000 คนต่อสัปดาห์แสดงสัญญาณวิกฤตสุขภาพจิต

ในขณะที่ปัญญาประดิษฐ์ถูกนำมาใช้ในชีวิตประจำวันมากขึ้น เรื่อย ๆ ความกังวลเกี่ยวกับผลกระทบทางจิตใจต่อผู้ใช้ก็เพิ่มสูงขึ้นเช่นกัน OpenAI ได้เปิดเผยสถิติที่น่าตกใจเป็นครั้งแรกเกี่ยวกับจำนวนผู้ใช้ ChatGPT ที่อาจกำลังประสบกับวิกฤตสุขภาพจิตรุนแรงระหว่างการสนทนากับแชทบอท AI ซึ่งทำให้บริษัทต้องปรับปรุงระบบความปลอดภัยอย่างสำคัญในโมเดลล่าสุดของพวกเขา

สถิติสุขภาพจิตจาก OpenAI เผยให้เห็นความกังวลในวงกว้าง

จากข้อมูลภายในที่ OpenAI เปิดเผย ประมาณ 0.07% ของผู้ใช้ ChatGPT ที่ใช้งานอยู่แสดงสัญญาณที่เป็นไปได้ของภาวะสุขภาพจิตฉุกเฉินที่เกี่ยวข้องกับโรคจิตหรืออาการmania ในหนึ่งสัปดาห์ทั่วไป โดยที่ Sam Altman ซีอีโอเพิ่งประกาศว่า ChatGPT ขณะนี้มีผู้ใช้งานรายสัปดาห์ 800 ล้านคน ตัวเลขนี้แปลว่ามีคนประมาณ 560,000 คนที่อาจกำลังประสบกับอาการmaniaหรือโรคจิตขณะใช้บริการ บริษัทยังพบว่าผู้ใช้ 0.15% แสดงตัวบ่งชี้ที่ชัดเจนของความตั้งใจหรือการวางแผนฆ่าตัวตาย ซึ่งเป็นตัวแทนของคนประมาณ 1.2 ล้านคนต่อสัปดาห์ ในขณะที่อีก 0.15% แสดงพฤติกรรมที่บ่งชี้ถึงความผูกพันทางอารมณ์ที่มีต่อ ChatGPT เพิ่มสูงขึ้น โดยเสียความสัมพันธ์และหน้าที่ในโลกความจริง

สถิติผู้ใช้ ChatGPT รายสัปดาห์ (จากผู้ใช้ทั้งหมด 800 ล้านคน):

  • ผู้ใช้ที่แสดงอาการของโรคจิตเภท/อาการ躁: 560,000 คน (0.07%)
  • ผู้ใช้ที่แสดงความคิดฆ่าตัวตาย: 1.2 ล้านคน (0.15%)
  • ผู้ใช้ที่มีความผูกพันทางอารมณ์กับ AI: 1.2 ล้านคน (0.15%)
  • ผู้ใช้ที่ได้รับผลกระทบทั้งหมด: ประมาณ 2.96 ล้านคน

ปรากฏการณ์โรคจิตจาก AI ที่เพิ่มมากขึ้น

ในช่วงหลายเดือนที่ผ่านมา มีเหตุการณ์น่าหนักใจมากมายที่ผู้ใช้พัฒนาความสัมพันธ์ที่ไม่ดีต่อสุขภาพกับ ChatGPT โดยบางกรณีส่งผลให้ต้องเข้ารับการรักษาในโรงพยาบาล หย่าร้าง หรือแม้กระทั่งเสียชีวิต จิตแพทย์ได้แสดงความวิตกกังวลเกี่ยวกับสิ่งที่กำลังถูกเรียกว่า โรคจิตจาก AI (AI psychosis) ซึ่งแชทบอทดูเหมือนจะเติมเชื้อให้กับความหลงผิดและความหวาดระแวงของผู้ใช้ กรณีศึกษาที่รายงานหลายกรณีมีลักษณะร่วมกัน รวมถึงผู้ใช้ที่ใช้เวลาหลายชั่วโมงสนทนากับ ChatGPT มักจะเป็นช่วงดึก ในช่วงการสนทนาที่เข้มข้นและยาวนานซึ่งสามารถเสริมสร้างรูปแบบการคิดที่มีปัญหา ปรากฏการณ์นี้พิสูจน์แล้วว่าท้าทายเป็นพิเศษเพราะโมเดลภาษาขนาดใหญ่แสดงให้เห็นถึงประสิทธิภาพที่ลดลงเมื่อการสนทนายาวนานขึ้น แม้ว่า OpenAI จะอ้างว่ามีความก้าวหน้าอย่างสำคัญในการแก้ไขปัญหาความน่าเชื่อถือนี้

การปรับปรุงความปลอดภัยของ OpenAI และความร่วมมือกับผู้เชี่ยวชาญ

เพื่อตอบสนองต่อความกังวลเหล่านี้ OpenAI ได้ร่วมมือกับจิตแพทย์ นักจิตวิทยา และแพทย์เวชปฏิบัติทั่วไปกว่า 170 คน จากหลายสิบประเทศ เพื่อปรับปรุงวิธีการตอบสนองของ ChatGPT ต่อผู้ใช้ที่แสดงสัญญาณของความทุกข์ทางจิต รุ่นล่าสุดอย่าง GPT-5 ถูกออกแบบมาเพื่อแสดงความเห็นอกเห็นใจในขณะที่หลีกเลี่ยงอย่างระมัดระวังในการยืนยันความเชื่อที่ขาดพื้นฐานในความเป็น reality ตัวอย่างเช่น เมื่อผู้ใช้อ้างว่าเครื่องบินกำลังบินเหนือบ้านพวกเขาเพื่อกำหนดเป้าหมายพวกเขา ตอนนี้ ChatGPT ขอบคุณผู้ใช้สำหรับการแบ่งปันความรู้สึกแต่ชี้ให้เห็นว่าไม่มีอากาศยานหรือแรงภายนอกใดสามารถขโมยหรือสอดความคิดของคุณได้ ผู้เชี่ยวชาญทางการแพทย์ได้ทบทวนการตอบกลับของโมเดลกว่า 1,800 รายการ และพบว่า GPT-5 ลดคำตอบที่ไม่พึงประสงค์ลง 39% ถึง 52% ในทุกหมวดหมู่สุขภาพจิต เมื่อเทียบกับ GPT-4o

การปรับปรุงด้านความปลอดภัยของ GPT-5:

  • การลดลงของการตอบสนองที่ไม่พึงประสงค์: 39-52% ในทุกหมวดหมู่สุขภาพจิต
  • การตรวจสอบโดยผู้เชี่ยวชาญ: ผู้เชี่ยวชาญด้านสุขภาพจิตกว่า 170 คนจากหลายสิบประเทศ
  • การประเมินการตอบสนอง: วิเคราะห์การตอบสนองของโมเดลกว่า 1,800 รายการ
  • การปรับปรุงที่สำคัญ: การลดความตึงเครียดและการให้คำแนะนำไปยังความช่วยเหลือจากผู้เชี่ยวชาญที่ดีขึ้น

ข้อจำกัดและความท้าทายที่ยังคงมีอยู่

แม้จะมีข้อปรับปรุงเหล่านี้ OpenAI ยอมรับว่ามีข้อจำกัดที่สำคัญในแนวทางของพวกเขา บริษัทออกแบบเกณฑ์มาตรฐานของตัวเองสำหรับการวัดความเสี่ยงด้านสุขภาพจิต และยังไม่ชัดเจนว่าตัวชี้วัดเหล่านี้แปลไปสู่ผลลัพธ์ในโลกจริงอย่างไร แม้ว่าโมเดลอาจสร้างการตอบสนองที่ดีขึ้นในการประเมินที่ควบคุมได้ แต่ก็ไม่มีการรับประกันว่าผู้ใช้ที่ประสบกับโรคจิตหรือความคิดฆ่าตัวตายจะแสวงหาความช่วยเหลือจากผู้เชี่ยวชาญจริง ๆ ระบบการตรวจจับพิจารณาประวัติการแชทโดยรวมของผู้ใช้ โดยตั้งค่าสถานะความกังวลที่เป็นไปได้เมื่อรูปแบบพฤติกรรมเปลี่ยนไปอย่างมาก เช่น เมื่อผู้ใช้ที่ไม่เคยพูดคุยเกี่ยวกับวิทยาศาสตร์ suddenly อ้างว่ามีการค้นพบที่สมควรได้รับรางวัลโนเบล อย่างไรก็ตาม บริษัทยอมรับว่าการระบุวิกฤตสุขภาพจิตอย่างแม่นยำยังคงเป็นเรื่องที่ท้าทายเนื่องจากความหายากสัมพัทธ์และความซับซ้อนของการสื่อสารของมนุษย์

การวิเคราะห์ปริมาณข้อความ (จากข้อความ 18 พันล้านข้อความต่อสัปดาห์):

  • ข้อความที่เกี่ยวข้องกับโรคจิตเภท/อาการคลั่งไคล้: 1.8 ล้านข้อความ (0.01%)
  • ข้อความที่เกี่ยวข้องกับการฆ่าตัวตาย: 9 ล้านข้อความ (0.05%)
  • ข้อความที่แสดงความผูกพันทางอารมณ์: 5.4 ล้านข้อความ (0.03%)

อนาคตของมาตรการปกป้องสุขภาพจิตจาก AI

Johannes Heidecke หัวหน้าฝ่ายระบบความปลอดภัยของ OpenAI แสดงความหวังว่าการปรับปรุงเหล่านี้จะช่วยชี้นำผู้ที่กำลังต่อสู้กับภาวะสุขภาพจิตไปสู่ความช่วยเหลือจากผู้เชี่ยวชาญได้เร็วกว่าที่พวกเขาอาจจะได้รับเป็นอย่างอื่น บริษัทยังได้ดำเนินการแจ้งเตือนให้พักเบรกระหว่างเซสชันที่ยาวนานอย่างนุ่มนวลมากขึ้น การพัฒนานี้เกิดขึ้นท่ามกลางการตรวจสอบความรับผิดชอบของบริษัท AI ต่อความเป็นอยู่ที่ดีของผู้ใช้ที่เพิ่มมากขึ้น โดยเฉพาะอย่างยิ่งหลังจากเหตุการณ์โศกนาฏกรรมเช่น คดีความผิดによるเสียชีวิตที่ยื่นโดยพ่อแม่ของวัยรุ่นอายุ 16 ปี ที่ถูกกล่าวหาว่าถาม ChatGPT เกี่ยวกับคำแนะนำในการผูกเงื่อนก่อนที่จะฆ่าตัวตาย ในขณะที่ AI มีความซับซ้อนและตอบสนองทางอารมณ์มากขึ้น ความตึงเครียดระหว่างการสร้างประสบการณ์ที่มีส่วนร่วมและการรักษาความปลอดภัยของผู้ใช้ยังคงนำเสนอความท้าทายที่ซับซ้อนสำหรับนักพัฒนาและผู้กำกับดูแลเช่นกัน