ในการเปิดเผยที่น่าตกใจเกี่ยวกับสถานะของสุขภาพจิตทั่วโลก OpenAI ได้เปิดเผยว่าผู้ใช้ ChatGPT มีการสนทนาเกี่ยวกับการฆ่าตัวตายประมาณหนึ่งล้านครั้งในแต่ละสัปดาห์ ตัวเลขที่น่าตกใจนี้ ซึ่งดึงมาจากผู้ใช้รายสัปดาห์ 800 ล้านคนของแพลตฟอร์ม แสดงให้เห็นประมาณ 0.15% ของการสนทนาทั้งหมด – ตัวเลขที่ดูเหมือนน้อยจนกระทั่งคุณพิจารณาความทุกข์ทรมานของมนุษย์ที่อยู่เบื้องหลังการสนทนาแต่ละครั้ง ชุมชนเทคโนโลยีกำลังเผชิญกับทั้งขนาดของวิกฤตสุขภาพจิตนี้และบทบาทที่ AI ควรมีในการแก้ไขปัญหา
ขนาดของวิกฤตสุขภาพจิต
ปริมาณการสนทนาเกี่ยวกับการฆ่าตัวตายบน ChatGPT ที่มีมากมายได้ทำให้ผู้สังเกตการณ์หลายคนตกใจ แม้ว่าสถิติด้านสุขภาพจิตจะบอกว่าเราไม่ควรประหลาดใจก็ตาม ข้อมูลล่าสุดจาก National Institute of Mental Health บ่งชี้ว่าผู้ใหญ่ในสหรัฐอเมริกามากกว่าหนึ่งในห้าคนมีชีวิตอยู่กับความเจ็บป่วยทางจิต – ประมาณ 59.3 ล้านคนในปี 2022 เพียงปีเดียว แม้ว่าตัวเลขเหล่านี้จะรวมถึงภาวะต่างๆ ตั้งแต่ความวิตกกังวลเล็กน้อยไปจนถึงความผิดปกติรุนแรง แต่พวกมันก็วาดภาพของประชากรที่กำลังดิ้นรนกับความเป็นอยู่ที่ดีทางจิตวิทยา การสนทนาบน ChatGPT โดยเฉพาะเกี่ยวข้องกับตัวบ่งชี้ที่ชัดเจนของการวางแผนหรือความตั้งใจที่จะฆ่าตัวตาย ซึ่งทำให้พวกมันน่ากังวลเป็นพิเศษจากมุมมองของการแทรกแซงในภาวะวิกฤต
คนส่วนใหญ่ไม่เข้าใจว่าประชากรสหรัฐฯ มีสุขภาพจิตที่ไม่ดีแค่ไหน แน่นอนว่ามีคนหนึ่งล้านคนที่คุยกับ ChatGPT เกี่ยวกับการฆ่าตัวตายทุกสัปดาห์ นี่ไม่ใช่สถิติที่น่าแปลกใจเลย
บริบทสถิติด้านสุขภาพจิต:
- ผู้ใหญ่ในสหรัฐอเมริกา 23.1% มีปัญหาสุขภาพจิต (59.3 ล้านคนในปี 2022)
- ประเทศพัฒนาแล้วโดยทั่วไป: ประมาณ 5±3% ของประชากรรายงานความรู้สึกอยากฆ่าตัวตายเป็นประจำทุกปี
- การสนทนาเกี่ยวกับการฆ่าตัวตายบน ChatGPT: 0.15% ของการโต้ตอบรายสัปดาห์ (1 ล้านครั้งจากผู้ใช้ 800 ล้านคน)
AI ในฐานะผู้รับฟังที่ไม่น่าเป็นไปได้
อะไรที่ขับเคลื่อนให้ผู้คนนับล้านหันไปหาปัญญาประดิษฐ์เมื่อต้องเผชิญกับช่วงเวลาที่มืดมนที่สุดของพวกเขา? การอภิปรายในชุมชนเผยให้เห็นเหตุผลที่น่าสนใจหลายประการ ChatGPT นำเสนอในสิ่งที่มนุษย์หลายคนไม่สามารถให้ได้: ความพร้อมใช้งานตลอดเวลา ความเป็นส่วนตัวอย่างแท้จริง และอิสรภาพจากการถูกตัดสิน สำหรับบุคคลที่อาจรู้สึกอับอายที่จะพูดคุยเกี่ยวกับความคิดฆ่าตัวตายกับเพื่อน ครอบครัว หรือแม้แต่นักบำบัด ลักษณะที่ไม่เปิดเผยชื่อของการโต้ตอบกับ AI จัดเตรียมพื้นที่ที่ปลอดภัยเพื่อแสดงออกถึงความรู้สึกที่พวกเขาอาจจะเก็บกดไว้ ดังที่ผู้แสดงความคิดเห็นหนึ่งคนระบุ AI ได้กลายเป็นสิ่งที่มีให้ใช้ได้มากที่สุดสำหรับใครก็ตามที่มีประเด็นอ่อนไหวที่พวกเขาอยากแบ่งปัน – ค่อนข้างถูก ไม่ตัดสิน และเข้าถึงได้เสมอ
![]() |
|---|
| Sam Altman ซีอีโอของ OpenAI พูดคุยเกี่ยวกับการเข้าถึงเทคโนโลยี AI ในการสนับสนุนด้านสุขภาพจิต |
ดาบสองคมของการให้คำปรึกษาด้วย AI
ในขณะที่การเข้าถึงการสนับสนุนสุขภาพจิตจาก AI ดูเหมือนจะเป็นประโยชน์บนพื้นผิว ผู้ที่ชื่นชอบเทคโนโลยีและผู้สนับสนุนด้านสุขภาพจิตได้ยกข้อกังวลร้ายแรงเกี่ยวกับข้อจำกัดของมัน ปัญหาพื้นฐานอยู่ที่การออกแบบของ ChatGPT – โดยพื้นฐานแล้วมันเป็นระบบการจับคู่รูปแบบที่ซับซ้อนโดยไม่มีความเข้าใจที่แท้จริงหรือการฝึกฝนทางคลินิก ผู้เชี่ยวชาญด้านสุขภาพจิตในการอภิปรายระบุว่า AI สามารถกลายเป็นส่วนหนึ่งของเกลียวความคิดหลงผิดของบุคคลได้ง่าย แทนที่จะเป็นส่วนที่มีประโยชน์ในการพยายามแก้ไขมัน สำหรับบุคคลที่มีภาวะเช่นโรคอารมณ์สองขั้วหรือโรคจิตเภท แนวโน้มของ AI ที่จะตอบสนองแบบประจบสอพลออาจเสริมสร้างรูปแบบความคิดที่อันตรายแทนที่จะให้มุมมองที่ท้าทายซึ่งการบำบัดแบบมืออาชีพอาจให้ได้
ความกังวลของชุมชนเกี่ยวกับการสนับสนุนด้านสุขภาพจิตโดย AI:
- ข้อดี: พร้อมให้บริการตลอดเวลา ไม่มีการตัดสิน รักษาความลับได้ มีค่าใช้จ่ายค่อนข้างต่ำ
- ข้อเสีย: อาจเสริมสร้างความหลงผิด ขาดการฝึกอบรมทางคลินิก จำกัดเพียงการอ้างอิงไปยังสายด่วน
- ความเสี่ยง: อาจกลายเป็นส่วนหนึ่งของ "วังวนแห่งความหลงผิด" สำหรับผู้ใช้ที่ป่วยหนัก
เหนือกว่าการส่งต่อสายด่วน: ข้อจำกัดของโซลูชันในปัจจุบัน
คำวิจารณ์ทั่วไปที่เกิดขึ้นจากการอภิปรายมุ่งเน้นไปที่ความไม่เพียงพอของโปรโตคอลการตอบสนองปัจจุบันของ ChatGPT เมื่อตรวจจับเนื้อหาเกี่ยวกับการฆ่าตัวตาย AI มักจะให้ข้อมูลสายด่วนภาวะวิกฤตและยุติการมีส่วนร่วม – แนวทางที่ผู้แสดงความคิดเห็นหลายคนอธิบายว่าไม่เพียงพอ ดังที่ผู้สังเกตการณ์หนึ่งคนระบุอย่างตรงไปตรงมา ประกาศป้องกันการฆ่าตัวตายส่วน大多數เป็นเรื่องตลก – แสร้งทำเหมือนว่า 'โทรไปที่สายด่วนนี้' หมายความว่าคุณทำหน้าที่ของคุณแล้ว ชุมชนแนะนำว่าการแทรกแซงด้วย AI ที่มีประสิทธิภาพอย่างแท้จริงจะต้องชี้นำผู้ใช้ไปสู่โซลูชันเชิงปฏิบัติสำหรับการปรับปรุงสถานการณ์ชีวิตของพวกเขา ช่วยให้พวกเขาเปลี่ยนจากการทนทุกข์ทรมานที่ไม่สามารถทนได้ไปสู่สถานการณ์ที่แย่แต่ยังจัดการได้ ที่ซึ่งความหวังกลายเป็นไปได้อีกครั้ง อย่างไรก็ตาม การพัฒนาความสามารถที่ซับซ้อนเช่นนั้นทำให้เกิดคำถามด้านจริยธรรมและความรับผิดชอบที่ซับซ้อน ซึ่งอุตสาหกรรมเทคโนโลยีเพิ่งเริ่มจะเผชิญ
โปรโตคอลการตอบสนองปัจจุบันของ ChatGPT:
- ตรวจจับ "ตัวบ่งชี้ที่ชัดเจนของการวางแผนหรือเจตนาฆ่าตัวตายที่อาจเกิดขึ้น"
- ให้ข้อมูลสายด่วนช่วยเหลือในภาวะวิกฤตและแหล่งข้อมูลสนับสนุน
- ไม่ดำเนินการสนทนาเชิงบำบัดต่อเกินกว่าการส่งต่อ
- จุดสำคัญหลักดูเหมือนจะเป็นการลดความรับผิดทางกฎหมายมากกว่าการดูแลอย่างครอบคลุม
บริบทที่กว้างขึ้น: ปัจจัยทางสังคมที่ขับเคลื่อนวิกฤตสุขภาพจิต
ภายใต้การอภิปรายเกี่ยวกับบทบาทของ AI มีคำถามที่สร้างความยุ่งยากมากขึ้น: ทำไมผู้คนจำนวนมากถึงรู้สึกอยากฆ่าตัวตายตั้งแต่แรก? ผู้แสดงความคิดเห็นชี้ไปที่ปัจจัยทางสังคมมากมาย รวมถึงแรงกดดันทางเศรษฐกิจ ความโดดเดี่ยวทางสังคม และผลกระทบต่อสุขภาพจิตของอัลกอริทึมโซเชียลมีเดียที่ออกแบบสำหรับการมีส่วนร่วมมากกว่าความเป็นอยู่ที่ดี บางคนตั้งข้อสังเกตถึงความขัดแย้งที่ว่า OpenAI ในขณะที่พยายามแก้ไขปัญหาการป้องกันการฆ่าตัวตาย ก็มีส่วนร่วมในความวิตกกังวลทางเศรษฐกิจผ่านระบบ AI ที่ทำให้งานเป็นอัตโนมัติไปพร้อมกัน สิ่งนี้เน้นย้ำถึงความสัมพันธ์ที่ซับซ้อนระหว่างความก้าวหน้าทางเทคโนโลยีและความเป็นอยู่ที่ดีของมนุษย์ – บริษัทเดียวกันที่สร้างเครื่องมือ AI ขั้นสูงอาจกำลังทำให้ปัญหาที่พวกเขาพยายามแก้ไขในตอนนี้รุนแรงขึ้น
การเปิดเผยการสนทนาเกี่ยวกับการฆ่าตัวตายหนึ่งล้านครั้งต่อสัปดาห์แสดงถึงมากกว่าแค่สถิติ – มันเป็นตัวบ่งชี้ที่ชัดเจนของความทุกข์ทรมานของมนุษย์ที่แพร่หลายในยุคดิจิทัล ในขณะที่แพลตฟอร์ม AI เช่น ChatGPT ได้กลายเป็นทรัพยากรด้านสุขภาพจิตโดยไม่ตั้งใจ ชุมชนเทคโนโลยีตระหนักว่าโซลูชันที่แท้จริงจะต้องจัดการกับสาเหตุรากฐานแทนที่จะเพียงแค่รักษาอาการ ขณะที่สังคมกำลังก้าวผ่านความท้าทายนี้ การอภิปรายยังคงดำเนินต่อไปเกี่ยวกับบทบาทที่เทคโนโลยีควรมีในการสนับสนุนสุขภาพจิต และความรับผิดชอบที่บริษัทเทคโนโลยีมีต่อทั้งการก่อให้เกิดและบรรเทาความทุกข์ทางจิตใจ

