OpenAI เปิดตัวระบบตรวจจับอายุและการแจ้งเตือนผู้ปกครองหลังเกิดข้อถกเถียงเรื่องการฆ่าตัวตายของวัยรุ่น

ทีมชุมชน BigGo
OpenAI เปิดตัวระบบตรวจจับอายุและการแจ้งเตือนผู้ปกครองหลังเกิดข้อถกเถียงเรื่องการฆ่าตัวตายของวัยรุ่น

OpenAI ได้ประกาศการเปลี่ยนแปลงครั้งใหญ่ในมาตรการความปลอดภัยของ ChatGPT โดยเปิดตัวระบบพยากรณ์อายุและโปรโตคอลการแจ้งเตือนผู้ปกครองเพื่อตอบสนองต่อความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของวัยรุ่น การประกาศครั้งนี้เกิดขึ้นท่ามกลางการตรวจสอบอย่างเข้มข้นหลังจากมีกรณีล่าสุดที่วัยรุ่นถูกกล่าวหาว่าหลบเลี่ยงระบบป้องกันของ AI ซึ่งมีผลที่ตามมาอย่างน่าเศร้า รวมถึงเหตุการณ์การฆ่าตัวตายที่จุดประกายการถกเถียงอย่างกว้างขวางเกี่ยวกับความรับผิดชอบของ AI

รูปแบบการใช้งาน ChatGPT ที่เปลี่ยนแปลง:

  • การใช้งานที่เกี่ยวข้องกับงาน: ลดลงจาก ~50% เหลือ ~25% ในช่วงปีที่ผ่านมา
  • การใช้งานส่วนตัว: เพิ่มขึ้นอย่างมากในทุกกลุ่มอายุ
  • ฐานผู้ใช้: มีวัตถุประสงค์สำหรับผู้ที่อายุ 13 ปีขึ้นไป

เทคโนโลยีตรวจจับอายุทำให้เกิดความกังวลด้านความเป็นส่วนตัว

บริษัทกำลังพัฒนาระบบพยากรณ์อายุแบบอัตโนมัติที่วิเคราะห์วิธีการโต้ตอบของผู้ใช้กับ ChatGPT เพื่อกำหนดว่าพวกเขาอายุต่ำกว่า 18 ปีหรือไม่ เมื่อระบบไม่แน่ใจเกี่ยวกับอายุของผู้ใช้ ระบบจะตั้งค่าเริ่มต้นให้ถือว่าพวกเขาเป็นเด็กและใช้ข้อจำกัดด้านความปลอดภัยที่เข้มงวดกว่า ในบางภูมิภาค OpenAI อาจต้องการการยืนยันตัวตนด้วยบัตรประจำตัว ซึ่งบริษัทยอมรับว่าสิ่งนี้สร้างการแลกเปลี่ยนด้านความเป็นส่วนตัวสำหรับผู้ใช้ผู้ใหญ่

สมาชิกในชุมชนแสดงความสงสัยเกี่ยวกับแนวทางนี้ โดยเฉพาะเรื่องการตรวจจับผิดในทางบวก ความกังวลขยายไปเกินความไม่สะดวก - ผู้ใช้กังวลเกี่ยวกับการถูกระบบ AI ตั้งค่าสถานะผิดและเผชิญกับการแทรกแซงที่ไม่ต้องการ รวมถึงการติดต่อจากตำรวจที่อาจเกิดขึ้นสำหรับวิกฤตสุขภาพจิตที่รับรู้

การแจ้งเตือนผู้ปกครองและโปรโตคอลการติดต่อหน่วยงาน

ด้านที่ถูกโต้แย้งมากที่สุดคือแผนของ OpenAI ที่จะติดต่อผู้ปกครองหรือหน่วยงานเมื่อระบบตรวจพบความคิดฆ่าตัวตายในผู้ใช้ที่อายุต่ำกว่า 18 ปี บริษัทระบุว่าจะพยายามติดต่อผู้ปกครองก่อน และหากไม่สำเร็จ อาจติดต่อหน่วยงานในกรณีที่มีอันตรายใกล้เคียง

นโยบายนี้ได้รับการต่อต้านอย่างมากจากผู้ใช้ที่กลัวการล่วงล้ำและการเตือนภัยเท็จ ลักษณะอัตโนมัติของการตัดสินใจเหล่านี้ทำให้นักวิจารณ์กังวลเป็นพิเศษ ซึ่งตั้งคำถามว่าระบบ AI สามารถประเมินสถานการณ์วิกฤตที่แท้จริงได้อย่างแม่นยำหรือไม่ เมื่อเทียบกับการเขียนเชิงสร้างสรรค์หรือการสนทนาแบบสบาย ๆ

ข้อจำกัดการเขียนเชิงสร้างสรรค์จุดประกายการถกเถียง

OpenAI วางแผนที่จะบล็อกวัยรุ่นจากการพูดคุยเกี่ยวกับการฆ่าตัวตายหรือการทำร้ายตนเองแม้ในบริบทของการเขียนเชิงสร้างสรรค์ - เป็นการตอบสนองโดยตรงต่อกรณีที่ผู้ใช้หลบเลี่ยงมาตรการความปลอดภัยโดยอ้างว่าเขียนเรื่องราวแฟนตาซี อย่างไรก็ตาม ข้อจำกัดแบบครอบคลุมนี้ทำให้เกิดคำถามเกี่ยวกับการใช้งานด้านการศึกษาและความคิดสร้างสรรค์ที่ถูกต้อง

ความท้าทายอยู่ที่ธรรมชาติพื้นฐานของโมเดลภาษา ซึ่งปรับตัวตามบริบทและสามารถถูกจัดการผ่านการใช้คำสั่งที่ฉลาด นักวิจารณ์โต้แย้งว่าผู้ใช้ที่มุ่งมั่นจะหาทางหลบเลี่ยงข้อจำกัดได้เสมอ ในขณะที่ผู้ใช้ที่ถูกต้องอาจเผชิญกับอุปสรรคที่ไม่จำเป็น

มาตรการความปลอดภัยใหม่สำหรับผู้ใช้อายุต่ำกว่า 18 ปี:

  • ระบบทำนายอายุจากรูปแบบการใช้งาน
  • ตั้งค่าเริ่มต้นเป็นประสบการณ์สำหรับผู้ใช้อายุต่ำกว่า 18 ปี เมื่อไม่แน่ใจ
  • ไม่อนุญาตให้มีเนื้อหาที่เจ้าชู้หรือยั่วยวน
  • ข้อจำกัดในการเขียนเชิงสร้างสรรค์เกี่ยวกับหัวข้อการฆ่าตัวตาย/การทำร้ายตนเอง
  • ติดต่อผู้ปกครองเมื่อมีแนวคิดฆ่าตัวตาย
  • ติดต่อหน่วยงานที่เกี่ยวข้องหากติดต่อผู้ปกครองไม่ได้ในสถานการณ์วิกฤต

ผลกระทบที่กว้างขวางต่อการกำกับดูแล AI

การประกาศนี้สะท้อนความพยายามของ OpenAI ในการสร้างสมดุลระหว่างหลักการที่แข่งขันกันสามประการ: ความเป็นส่วนตัวของผู้ใช้ เสรีภาพของผู้ใหญ่ และการปกป้องวัยรุ่น บริษัทยอมรับว่าหลักการเหล่านี้มักขัดแย้งกันและไม่ใช่ทุกคนจะเห็นด้วยกับแนวทางของพวกเขา

ผมสงสัยว่าเป็นเพียงเรื่องของเวลาจนกว่าประชากรที่อยู่ในแบบจำลองทางสถิติของค่าเฉลี่ยเท่านั้นจะสามารถดำเนินธุรกิจได้โดยไม่มีอุปสรรคและความเจ็บปวดอย่างต่อเนื่อง

การเปลี่ยนแปลงเหล่านี้เน้นย้ำคำถามที่กว้างขวางกว่าเกี่ยวกับการกำกับดูแล AI และความรับผิดชอบขององค์กร ในขณะที่ OpenAI วางตำแหน่งตัวเองว่าปกป้องความเป็นส่วนตัวผ่านคุณสมบัติความปลอดภัยขั้นสูง นักวิจารณ์ชี้ไปที่แนวปฏิบัติที่กว้างขวางกว่าของบริษัท โดยตั้งคำถามเกี่ยวกับความสอดคล้องของจุดยืนด้านจริยธรรมของพวกเขา

การแลกเปลี่ยนระหว่างความเป็นส่วนตัวและความปลอดภัย:

  • จำเป็นต้องมีการยืนยันตัวตนในบางประเทศ/กรณี
  • คุณสมบัติด้านความปลอดภัยขั้นสูงเพื่อปกป้องข้อมูลจากพนักงาน OpenAI
  • การตรวจสอบอัตโนมัติสำหรับการใช้งานในทางที่ผิดอย่างร้ายแรง
  • การส่งต่อให้มนุษย์ตรวจสอบสำหรับความเสี่ยงที่สำคัญ (การคุกคามชีวิต การทำร้ายผู้อื่น เหตุการณ์ด้านความปลอดภัยทางไซเบอร์)
การอภิปรายของ OpenAI เรื่องความปลอดภัยของวัยรุ่น เสรีภาพ และความเป็นส่วนตัว เน้นย้ำถึงความสมดุลที่ซับซ้อนระหว่างความเป็นส่วนตัวของผู้ใช้และมาตรการป้องกัน
การอภิปรายของ OpenAI เรื่องความปลอดภัยของวัยรุ่น เสรีภาพ และความเป็นส่วนตัว เน้นย้ำถึงความสมดุลที่ซับซ้อนระหว่างความเป็นส่วนตัวของผู้ใช้และมาตรการป้องกัน

การตอบสนองของตลาดและแนวโน้มในอนาคต

ข้อมูลแสดงให้เห็นว่ารูปแบบการใช้งาน ChatGPT กำลังเปลี่ยนแปลงอยู่แล้ว โดยการใช้งานที่เกี่ยวข้องกับงานลดลงจากประมาณ 50% เป็น 25% ในปีที่ผ่านมา เนื่องจากผู้ใช้หันไปใช้ AI สำหรับเรื่องส่วนตัวมากขึ้น แนวโน้มนี้ทำให้การพิจารณาด้านความเป็นส่วนตัวและความปลอดภัยมีความสำคัญมากยิ่งขึ้น เมื่อ AI กลายเป็นส่วนที่ใกล้ชิดมากขึ้นในชีวิตของผู้ใช้

จังหวะเวลาของการประกาศของ OpenAI ซึ่งเกิดขึ้นพร้อมกับการรายงานข่าวเชิงลบเกี่ยวกับเหตุการณ์ความปลอดภัยของวัยรุ่น แสดงให้เห็นว่าการเปลี่ยนแปลงเหล่านี้เป็นการตอบสนองมากกว่าการป้องกัน เมื่อเทคโนโลยี AI ยังคงก้าวหน้าอย่างรวดเร็ว ความท้าทายในการนำมาตรการป้องกันที่มีประสิทธิภาพมาใช้โดยไม่ขัดขวางการใช้งานที่ถูกต้องยังคงไม่ได้รับการแก้ไข

อ้างอิง: Teen safety, freedom, and privacy