OpenAI ได้ประกาศการเปลี่ยนแปลงครั้งใหญ่ในมาตรการความปลอดภัยของ ChatGPT โดยเปิดตัวระบบพยากรณ์อายุและโปรโตคอลการแจ้งเตือนผู้ปกครองเพื่อตอบสนองต่อความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของวัยรุ่น การประกาศครั้งนี้เกิดขึ้นท่ามกลางการตรวจสอบอย่างเข้มข้นหลังจากมีกรณีล่าสุดที่วัยรุ่นถูกกล่าวหาว่าหลบเลี่ยงระบบป้องกันของ AI ซึ่งมีผลที่ตามมาอย่างน่าเศร้า รวมถึงเหตุการณ์การฆ่าตัวตายที่จุดประกายการถกเถียงอย่างกว้างขวางเกี่ยวกับความรับผิดชอบของ AI
รูปแบบการใช้งาน ChatGPT ที่เปลี่ยนแปลง:
- การใช้งานที่เกี่ยวข้องกับงาน: ลดลงจาก ~50% เหลือ ~25% ในช่วงปีที่ผ่านมา
- การใช้งานส่วนตัว: เพิ่มขึ้นอย่างมากในทุกกลุ่มอายุ
- ฐานผู้ใช้: มีวัตถุประสงค์สำหรับผู้ที่อายุ 13 ปีขึ้นไป
เทคโนโลยีตรวจจับอายุทำให้เกิดความกังวลด้านความเป็นส่วนตัว
บริษัทกำลังพัฒนาระบบพยากรณ์อายุแบบอัตโนมัติที่วิเคราะห์วิธีการโต้ตอบของผู้ใช้กับ ChatGPT เพื่อกำหนดว่าพวกเขาอายุต่ำกว่า 18 ปีหรือไม่ เมื่อระบบไม่แน่ใจเกี่ยวกับอายุของผู้ใช้ ระบบจะตั้งค่าเริ่มต้นให้ถือว่าพวกเขาเป็นเด็กและใช้ข้อจำกัดด้านความปลอดภัยที่เข้มงวดกว่า ในบางภูมิภาค OpenAI อาจต้องการการยืนยันตัวตนด้วยบัตรประจำตัว ซึ่งบริษัทยอมรับว่าสิ่งนี้สร้างการแลกเปลี่ยนด้านความเป็นส่วนตัวสำหรับผู้ใช้ผู้ใหญ่
สมาชิกในชุมชนแสดงความสงสัยเกี่ยวกับแนวทางนี้ โดยเฉพาะเรื่องการตรวจจับผิดในทางบวก ความกังวลขยายไปเกินความไม่สะดวก - ผู้ใช้กังวลเกี่ยวกับการถูกระบบ AI ตั้งค่าสถานะผิดและเผชิญกับการแทรกแซงที่ไม่ต้องการ รวมถึงการติดต่อจากตำรวจที่อาจเกิดขึ้นสำหรับวิกฤตสุขภาพจิตที่รับรู้
การแจ้งเตือนผู้ปกครองและโปรโตคอลการติดต่อหน่วยงาน
ด้านที่ถูกโต้แย้งมากที่สุดคือแผนของ OpenAI ที่จะติดต่อผู้ปกครองหรือหน่วยงานเมื่อระบบตรวจพบความคิดฆ่าตัวตายในผู้ใช้ที่อายุต่ำกว่า 18 ปี บริษัทระบุว่าจะพยายามติดต่อผู้ปกครองก่อน และหากไม่สำเร็จ อาจติดต่อหน่วยงานในกรณีที่มีอันตรายใกล้เคียง
นโยบายนี้ได้รับการต่อต้านอย่างมากจากผู้ใช้ที่กลัวการล่วงล้ำและการเตือนภัยเท็จ ลักษณะอัตโนมัติของการตัดสินใจเหล่านี้ทำให้นักวิจารณ์กังวลเป็นพิเศษ ซึ่งตั้งคำถามว่าระบบ AI สามารถประเมินสถานการณ์วิกฤตที่แท้จริงได้อย่างแม่นยำหรือไม่ เมื่อเทียบกับการเขียนเชิงสร้างสรรค์หรือการสนทนาแบบสบาย ๆ
ข้อจำกัดการเขียนเชิงสร้างสรรค์จุดประกายการถกเถียง
OpenAI วางแผนที่จะบล็อกวัยรุ่นจากการพูดคุยเกี่ยวกับการฆ่าตัวตายหรือการทำร้ายตนเองแม้ในบริบทของการเขียนเชิงสร้างสรรค์ - เป็นการตอบสนองโดยตรงต่อกรณีที่ผู้ใช้หลบเลี่ยงมาตรการความปลอดภัยโดยอ้างว่าเขียนเรื่องราวแฟนตาซี อย่างไรก็ตาม ข้อจำกัดแบบครอบคลุมนี้ทำให้เกิดคำถามเกี่ยวกับการใช้งานด้านการศึกษาและความคิดสร้างสรรค์ที่ถูกต้อง
ความท้าทายอยู่ที่ธรรมชาติพื้นฐานของโมเดลภาษา ซึ่งปรับตัวตามบริบทและสามารถถูกจัดการผ่านการใช้คำสั่งที่ฉลาด นักวิจารณ์โต้แย้งว่าผู้ใช้ที่มุ่งมั่นจะหาทางหลบเลี่ยงข้อจำกัดได้เสมอ ในขณะที่ผู้ใช้ที่ถูกต้องอาจเผชิญกับอุปสรรคที่ไม่จำเป็น
มาตรการความปลอดภัยใหม่สำหรับผู้ใช้อายุต่ำกว่า 18 ปี:
- ระบบทำนายอายุจากรูปแบบการใช้งาน
- ตั้งค่าเริ่มต้นเป็นประสบการณ์สำหรับผู้ใช้อายุต่ำกว่า 18 ปี เมื่อไม่แน่ใจ
- ไม่อนุญาตให้มีเนื้อหาที่เจ้าชู้หรือยั่วยวน
- ข้อจำกัดในการเขียนเชิงสร้างสรรค์เกี่ยวกับหัวข้อการฆ่าตัวตาย/การทำร้ายตนเอง
- ติดต่อผู้ปกครองเมื่อมีแนวคิดฆ่าตัวตาย
- ติดต่อหน่วยงานที่เกี่ยวข้องหากติดต่อผู้ปกครองไม่ได้ในสถานการณ์วิกฤต
ผลกระทบที่กว้างขวางต่อการกำกับดูแล AI
การประกาศนี้สะท้อนความพยายามของ OpenAI ในการสร้างสมดุลระหว่างหลักการที่แข่งขันกันสามประการ: ความเป็นส่วนตัวของผู้ใช้ เสรีภาพของผู้ใหญ่ และการปกป้องวัยรุ่น บริษัทยอมรับว่าหลักการเหล่านี้มักขัดแย้งกันและไม่ใช่ทุกคนจะเห็นด้วยกับแนวทางของพวกเขา
ผมสงสัยว่าเป็นเพียงเรื่องของเวลาจนกว่าประชากรที่อยู่ในแบบจำลองทางสถิติของค่าเฉลี่ยเท่านั้นจะสามารถดำเนินธุรกิจได้โดยไม่มีอุปสรรคและความเจ็บปวดอย่างต่อเนื่อง
การเปลี่ยนแปลงเหล่านี้เน้นย้ำคำถามที่กว้างขวางกว่าเกี่ยวกับการกำกับดูแล AI และความรับผิดชอบขององค์กร ในขณะที่ OpenAI วางตำแหน่งตัวเองว่าปกป้องความเป็นส่วนตัวผ่านคุณสมบัติความปลอดภัยขั้นสูง นักวิจารณ์ชี้ไปที่แนวปฏิบัติที่กว้างขวางกว่าของบริษัท โดยตั้งคำถามเกี่ยวกับความสอดคล้องของจุดยืนด้านจริยธรรมของพวกเขา
การแลกเปลี่ยนระหว่างความเป็นส่วนตัวและความปลอดภัย:
- จำเป็นต้องมีการยืนยันตัวตนในบางประเทศ/กรณี
- คุณสมบัติด้านความปลอดภัยขั้นสูงเพื่อปกป้องข้อมูลจากพนักงาน OpenAI
- การตรวจสอบอัตโนมัติสำหรับการใช้งานในทางที่ผิดอย่างร้ายแรง
- การส่งต่อให้มนุษย์ตรวจสอบสำหรับความเสี่ยงที่สำคัญ (การคุกคามชีวิต การทำร้ายผู้อื่น เหตุการณ์ด้านความปลอดภัยทางไซเบอร์)
![]() |
---|
การอภิปรายของ OpenAI เรื่องความปลอดภัยของวัยรุ่น เสรีภาพ และความเป็นส่วนตัว เน้นย้ำถึงความสมดุลที่ซับซ้อนระหว่างความเป็นส่วนตัวของผู้ใช้และมาตรการป้องกัน |
การตอบสนองของตลาดและแนวโน้มในอนาคต
ข้อมูลแสดงให้เห็นว่ารูปแบบการใช้งาน ChatGPT กำลังเปลี่ยนแปลงอยู่แล้ว โดยการใช้งานที่เกี่ยวข้องกับงานลดลงจากประมาณ 50% เป็น 25% ในปีที่ผ่านมา เนื่องจากผู้ใช้หันไปใช้ AI สำหรับเรื่องส่วนตัวมากขึ้น แนวโน้มนี้ทำให้การพิจารณาด้านความเป็นส่วนตัวและความปลอดภัยมีความสำคัญมากยิ่งขึ้น เมื่อ AI กลายเป็นส่วนที่ใกล้ชิดมากขึ้นในชีวิตของผู้ใช้
จังหวะเวลาของการประกาศของ OpenAI ซึ่งเกิดขึ้นพร้อมกับการรายงานข่าวเชิงลบเกี่ยวกับเหตุการณ์ความปลอดภัยของวัยรุ่น แสดงให้เห็นว่าการเปลี่ยนแปลงเหล่านี้เป็นการตอบสนองมากกว่าการป้องกัน เมื่อเทคโนโลยี AI ยังคงก้าวหน้าอย่างรวดเร็ว ความท้าทายในการนำมาตรการป้องกันที่มีประสิทธิภาพมาใช้โดยไม่ขัดขวางการใช้งานที่ถูกต้องยังคงไม่ได้รับการแก้ไข
อ้างอิง: Teen safety, freedom, and privacy