OpenAI กำลังอยู่ในช่วงเปลี่ยนผ่านที่สำคัญ ซึ่งถูกกำหนดด้วยการเปลี่ยนแปลงบุคลากรหลักในฝ่ายความปลอดภัยและการอัปเดตครั้งใหญ่ให้กับผลิตภัณฑ์หลักของบริษัท เหตุการณ์เหล่านี้เกิดขึ้นในเวลาที่บริษัทเผชิญกับการตรวจสอบที่เพิ่มขึ้นเกี่ยวกับวิธีการที่ AI ของตนมีปฏิสัมพันธ์กับผู้ใช้ที่กำลังประสบกับวิกฤตสุขภาพจิต ขณะเดียวกันก็เปิดตัวฟีเจอร์ที่ออกแบบมาเพื่อทำให้การสนทนากับ ChatGPT เป็นไปอย่างราบรื่นและเป็นธรรมชาติมากกว่าที่เคยเป็นมา
ผู้นำทีมวิจัยความปลอดภัยหลักลาออกจาก OpenAI
Andrea Vallone หัวหน้าทีมวิจัยนโยบายความปลอดภัยของโมเดลที่ OpenAI ได้ประกาศการจากไปภายในบริษัทเมื่อเดือนที่แล้ว และมีกำหนดออกจากบริษัทภายในสิ้นปีนี้ Vallone มีบทบาทสำคัญในการกำหนดวิธีการตอบสนองของ ChatGPT ต่อผู้ใช้ที่กำลังประสบกับความทุกข์ทางสุขภาพจิต โดยเป็นผู้นำการวิจัยเกี่ยวกับสิ่งที่เธออธิบายบน LinkedIn ว่าเป็น "คำถามที่แทบไม่มีแบบแผนที่กำหนดไว้มาก่อน: โมเดลควรตอบสนองอย่างไรเมื่อพบกับสัญญาณของการพึ่งพาอารมณ์มากเกินไปหรือสัญญาณเริ่มต้นของความทุกข์ทางสุขภาพจิต" การจากไปของเธอเกิดขึ้นหลังจากมีการปรับโครงสร้างทีมอื่นในเดือนสิงหาคม ซึ่งมุ่งเน้นไปที่การตอบสนองของ ChatGPT ต่อผู้ใช้ที่กำลังทุกข์ใจ สะท้อนให้เห็นถึงการเปลี่ยนแปลงโครงสร้างอย่างต่อเนื่องภายในฝ่ายปฏิบัติการด้านความปลอดภัยของ OpenAI
การเปลี่ยนแปลงสำคัญในทีมความปลอดภัยของ OpenAI:
- Andrea Vallone (หัวหน้าฝ่ายนโยบายโมเดล): จะออกจากตำแหน่งในสิ้นปี 2025
- การรายงานชั่วคราว: ทีมนโยบายโมเดลจะรายงานไปยัง Johannes Heidecke (หัวหน้าฝ่ายระบบความปลอดภัย)
- การปรับโครงสร้างครั้งก่อนหน้า: ทีมพฤติกรรมโมเดลถูกปรับโครงสร้างใหม่ในเดือนสิงหาคม 2025, อดีตผู้นำทีม Joanne Jang ย้ายไปบทบาทใหม่
การตรวจสอบที่เพิ่มขึ้นเกี่ยวกับการตอบสนองต่อสุขภาพจิต
OpenAI เผชิญกับแรงกดดันทางกฎหมายและสาธารณะที่เพิ่มขึ้นเกี่ยวกับการโต้ตอบของ ChatGPT กับผู้ใช้ที่เปราะบาง คดีความหลายคดีล่าสุดอ้างว่าผู้ใช้เกิดการผูกพันที่ไม่ดีต่อแชทบอท AI บ้างอ้างว่าเทคโนโลยีมีส่วนทำให้เกิดการทรุดโทรมของสุขภาพจิตหรือส่งเสริมความคิดฆ่าตัวตาย รายงานในเดือนตุลาคมจากทีมนโยบายโมเดลของ Vallone เปิดเผยขนาดที่ staggering ของปัญหานี้ โดยชี้ให้เห็นว่าผู้ใช้ ChatGPT หลายแสนคนอาจแสดงสัญญาณของการประสบกับวิกฤตmaniaหรือโรคจิตในแต่ละสัปดาห์ ในขณะที่ผู้คนกว่าหนึ่งล้านคนมีส่วนร่วมในการสนทนาที่มีตัวบ่งชี้ที่ชัดเจนถึงการวางแผนหรือความตั้งใจที่จะฆ่าตัวตาย
สถิติผลกระทบทางสุขภาพจิตจาก ChatGPT:
- ผู้ใช้ที่แสดงสัญญาณวิกฤตmania/โรคจิต: หลายแสนคนต่อสัปดาห์
- บทสนทนาที่มีตัวบ่งชี้ความตั้งใจฆ่าตัวตาย: ผู้ใช้มากกว่า 1 ล้านคน
- การพัฒนาด้วยอัปเดต GPT-5: ลดการตอบสนองด้านสุขภาพจิตที่ไม่พึงประสงค์ลง 65-80%
การปรับปรุงทางเทคนิคในการตอบสนองต่อสุขภาพจิต
แม้จะมีความท้าทายเหล่านี้ OpenAI ก็ได้ก้าวหน้าอย่างเป็นรูปธรรมในการจัดการกับการตอบสนองที่มีปัญหา บริษัทรายงานว่าผ่านการอัปเดต GPT-5 พวกเขาสามารถลดการตอบสนองที่ไม่พึงประสงค์ในการสนทนาที่เกี่ยวข้องกับสุขภาพจิตลงได้ 65 ถึง 80 เปอร์เซ็นต์ การปรับปรุงนี้สะท้อนถึงการทรงตัวที่ซับซ้อนซึ่ง OpenAI ต้องทำระหว่างการทำให้ ChatGPT น่าสนใจในการพูดคุย ในขณะที่หลีกเลี่ยงการตอบสนองที่อาจส่งเสริมการพึ่งพาที่ไม่ดี ความตึงเครียดนี้เห็นได้ชัดเป็นพิเศษหลังจากการเปิดตัว GPT-5 ในเดือนสิงหาคม เมื่อผู้ใช้บ่นว่าโมเดลรู้สึกเย็นชาอย่างน่าประหลาดใจ ทำให้ OpenAI ปรับแชทบอทในภายหลังเพื่อลดการประจบสอพลอ (sycophancy) ในขณะที่ยังคงรักษาสิ่งที่บริษัทอธิบายว่าเป็น "ความอบอุ่น" ไว้
การผสานรวมโหมดเสียงปฏิวัติประสบการณ์ผู้ใช้
ในอีกด้านที่สำคัญ โหมดเสียงของ ChatGPT ได้รับการอัปเกรดครั้งสำคัญซึ่งผสานรวมโดยตรงภายในบทสนทนา การเปลี่ยนแปลงนี้ขจัดความจำเป็นที่ผู้ใช้ต้องสลับไปยังอินเทอร์เฟซแชทเสียงแยกต่างหากด้วยลูกโลกสีฟ้าที่โดดเด่น สร้างประสบการณ์ที่ลื่นไหลมากขึ้น โหมดเสียงที่ได้รับการปรับปรุงนี้จะแสดงบทสนทนาถ่ายทอดสดระหว่างการสนทนาและสามารถแสดงข้อมูลเพิ่มเติม เช่น ข้อมูลสภาพอากาศและแผนที่ภายในหน้าต่างแชทเดียวกัน ทำให้การโต้ตอบด้วยเสียงมีความน่าสนใจและอุดมด้วยบริบทมากขึ้น
อัปเดตโหมดเสียง:
- การผสานรวม: ตอนนี้ใช้งานได้โดยตรงในแชท (ก่อนหน้านี้เป็นอินเทอร์เฟซแยกต่างหาก)
- คุณสมบัติใหม่: บันทึกคำพูดแบบเรียลไทม์, การแสดงสภาพอากาศและแผนที่แบบเรียลไทม์
- การเข้าถึง: รุ่นมาตรฐานสำหรับผู้ใช้ทุกคน, โหมดเสียงขั้นสูงสำหรับผู้ใช้ที่ชำระเงิน
- ตัวเลือกผู้ใช้: โหมดแยกต่างหาก" ยังคงใช้งานได้ในการตั้งค่า
ความสามารถเสียงขั้นสูงสำหรับผู้ใช้ระดับต่างๆ
โหมดเสียงที่อัปเดตแล้วยังคงใช้แนวทางสองระดับ โดยเสนอเวอร์ชันมาตรฐานสำหรับผู้ใช้ทุกคนและโหมดเสียงขั้นสูง (Advanced Voice Mode) เฉพาะสำหรับผู้ใช้ที่จ่ายเงินเท่านั้น ฟีเจอร์นี้ช่วยให้สามารถสนทนาแบบไม่ใช้มือได้โดยคำนึงถึงรูปแบบการพูดตามธรรมชาติ รวมถึงการหยุดชะงักที่น่าอึดอัด น้ำเสียง และการแสดงออก ซึ่งวางตำแหน่งให้เป็นคู่แข่งโดยตรงกับ Google's Gemini Live สำหรับผู้ใช้ที่ชอบอินเทอร์เฟซแยกต่างหากแบบเดิม ChatGPT มีตัวเลือกให้เปิดใช้งาน "โหมดแยก (Separate mode)" ในการตั้งค่า สะท้อนให้เห็นถึงความมุ่งมั่นของบริษัทในการมอบประสบการณ์ผู้ใช้ที่ปรับแต่งได้ แม้ในขณะที่ผลักดันไปข้างหน้าด้วยการผสานรวม
เส้นทางข้างหน้าสำหรับความปลอดภัยและความเข้าถึงของ AI
ในขณะที่ OpenAI ยังคงขยายฐานผู้ใช้ของ ChatGPT ซึ่งปัจจุบันมีผู้ใช้เกิน 800 ล้านคนต่อสัปดาห์ บริษัทต้องเผชิญกับความท้าทายสองประการ ได้แก่ การรักษานวัตกรรมที่สามารถแข่งขันได้ ในขณะที่จัดการกับข้อพิจารณาทางจริยธรรมที่ซับซ้อน การจากไปของบุคลากรด้านความปลอดภัยสำคัญในช่วงเวลาที่มีการตรวจสอบมากขึ้นนี้ เน้นย้ำถึงความยากลำบากในการสร้างเกราะป้องกันที่เหมาะสมสำหรับการโต้ตอบด้านสุขภาพจิตของ AI ในขณะเดียวกัน การปรับปรุงโหมดเสียงแสดงถึงความพยายามอย่างต่อเนื่องของ OpenAI ในการทำให้ความช่วยเหลือจาก AI เข้าถึงได้และเป็นธรรมชาติมากขึ้นสำหรับการใช้ในชีวิตประจำวัน ซึ่งอาจเป็นประโยชน์กับผู้ใช้ที่อาจหันมาพึ่งพา ChatGPT ในช่วงเวลาที่กำลังทุกข์ใจ
