OpenAI เสนอเงินเดือน 555,000 ดอลลาร์สหรัฐ สำหรับตำแหน่ง 'หัวหน้าฝ่ายเตรียมพร้อม' เพื่อลดความเสี่ยงจาก AI

ทีมบรรณาธิการ BigGo
OpenAI เสนอเงินเดือน 555,000 ดอลลาร์สหรัฐ สำหรับตำแหน่ง 'หัวหน้าฝ่ายเตรียมพร้อม' เพื่อลดความเสี่ยงจาก AI

ในขณะที่โมเดลปัญญาประดิษฐ์มีพลังมากขึ้น บริษัทที่สร้างพวกมันก็กำลังเผชิญกับแรงกดดันที่เพิ่มขึ้นในการจัดการศักยภาพที่จะก่อให้เกิดอันตรายร้ายแรง OpenAI ซึ่งเป็นผู้นำในวงการนี้ กำลังดำเนินการที่โดดเด่นเพื่อจัดการกับข้อกังวลเหล่านี้โดยตรง ด้วยการสรรหาผู้บริหารระดับสูงที่มุ่งเน้นเรื่องความปลอดภัยและการลดความเสี่ยงจาก AI โดยเฉพาะ

บทบาทที่สำคัญและมีค่าตอบแทนสูง

OpenAI กำลังตามหาตำแหน่ง "หัวหน้าฝ่ายเตรียมพร้อม" อย่างแข็งขัน ซึ่งเป็นตำแหน่งผู้นำระดับสูงที่มีหน้าที่กำกับดูแลกลยุทธ์ทางเทคนิคเบื้องหลังกรอบความปลอดภัยของบริษัท ตำแหน่งนี้ ซึ่งประกาศโดย CEO Sam Altman มาพร้อมกับค่าตอบแทนที่สูงถึง 555,000 ดอลลาร์สหรัฐต่อปีบวกกับหุ้น ซึ่งสะท้อนถึงความสำคัญและความยากลำบากของงาน Altman เองได้อธิบายว่านี่เป็นงานที่ "เครียด" และผู้ที่ได้รับเลือกจะต้อง "กระโดดลงไปในส่วนที่ลึกที่สุดแทบจะทันที" ตำแหน่งนี้มีหน้าที่รับผิดชอบในการดำเนินการสิ่งที่บริษัทเรียกว่า "ท่อส่งความปลอดภัยที่สามารถขยายขนาดได้ในเชิงปฏิบัติการ" ซึ่งเกี่ยวข้องกับการประเมินความสามารถของ AI การพัฒนาแบบจำลองภัยคุกคาม และการออกแบบมาตรการบรรเทาผลกระทบก่อนที่โมเดลใหม่จะถูกปล่อยสู่สาธารณะ

รายละเอียดบทบาทหัวหน้าฝ่ายเตรียมความพร้อมของ OpenAI

  • เงินเดือนต่อปี: 555,000 ดอลลาร์สหรัฐ + หุ้นส่วน
  • ความรับผิดชอบหลัก: กำกับดูแลกลยุทธ์ทางเทคนิคเพื่อความปลอดภัยของ AI และการลดความเสี่ยง (กรอบการเตรียมความพร้อม)
  • ขอบเขตความเสี่ยงหลัก: ความปลอดภัยทางไซเบอร์, ความสามารถด้านชีวภาพ/เคมี, การปรับปรุงตนเองของ AI
  • คำจำกัดความของ "อันตรายร้ายแรง": ผลลัพธ์ที่รวมถึงผู้เสียชีวิตจำนวนมาก (หลายพันคน) หรือความเสียหายทางเศรษฐกิจเกินหลายแสนล้านดอลลาร์

การนิยามและควบคุม "อันตรายร้ายแรง"

พันธกิจหลักของหัวหน้าฝ่ายเตรียมพร้อมคือการติดตามความสามารถของ AI ขั้นสูงสุดที่อาจสร้าง "ความเสี่ยงใหม่ของอันตรายร้ายแรง" กรอบการเตรียมพร้อมของ OpenAI นิยามอันตรายร้ายแรงนี้ในระดับหายนะ ซึ่งรวมถึงผลลัพธ์เช่น "การเสียชีวิตหรือบาดเจ็บสาหัสของคนหลายพันคน" หรือ "ความเสียหายทางเศรษฐกิจหลายแสนล้านดอลลาร์" บริษัทได้จำกัดโฟกัสหลักลงเหลือสามโดเมนความเสี่ยงที่สำคัญ ได้แก่ ความมั่นคงปลอดภัยทางไซเบอร์ ความสามารถด้านชีววิทยาและเคมี และการปรับปรุงตัวเองของ AI การเคลื่อนไหวครั้งนี้แสดงถึงความพยายามที่จะทำให้ความปลอดภัยเป็นส่วนหนึ่งของสถาบัน สร้างสายการบังคับบัญชาที่ชัดเจนพร้อม "บุคคลที่รับผิดชอบโดยตรง" เพื่อให้มั่นใจว่าโมเดลที่มีพลังจะได้รับการทดสอบความเครียดอย่างเข้มงวดและจะถูกส่งออกไปพร้อมกับมาตรการป้องกันที่แข็งแกร่งเท่านั้น

การตอบสนองต่อการตรวจสอบจากสาธารณะและภายในที่เพิ่มขึ้น

ความคิดริเริ่มในการจ้างงานนี้เกิดขึ้นท่ามกลางความสงสัยจากภายนอกและความปั่นป่วนภายในที่เพิ่มสูงขึ้น ความไว้วางใจของสาธารณะต่อ AI กำลังลดลง โพลล่าสุดจาก Pew พบว่า 50% ของชาวอเมริกันกังวลมากกว่าตื่นเต้นต่อบทบาทของ AI ในชีวิตประจำวัน ซึ่งเพิ่มขึ้นอย่างมีนัยสำคัญจาก 37% ในปี 2021 ภายในองค์กร ความพยายามด้านความปลอดภัยของ OpenAI เองก็เผชิญกับการวิพากษ์วิจารณ์ อดีตผู้นำด้านความปลอดภัย Jan Leike ระบุในปี 2024 ว่า "วัฒนธรรมและกระบวนการด้านความปลอดภัยได้กลายเป็นเรื่องรองลงมาจากผลิตภัณฑ์ที่สวยงาม" บริษัทยังได้รับผลกระทบจากความท้าทายด้านชื่อเสียง รวมถึงคดีความผิดฐานทำให้เสียชีวิตหลายคดีที่อ้างว่าคำตอบของ ChatGPT มีส่วนทำให้ผู้ใช้ฆ่าตัวตาย ซึ่งผลักดันให้บริษัทต้องกล่าวถึงความเสี่ยงอย่างชัดเจน เช่น "โรคจิตหรืออาการคลุ้มคลั่ง" "การทำร้ายตัวเอง" และ "การพึ่งพาทางอารมณ์กับ AI"

ความรู้สึกของสาธารณชนต่อ AI (ข้อมูลจาก Pew Research)

  • ความกังวลเทียบกับความตื่นเต้น: 50% ของชาวอเมริกันรู้สึกกังวลมากกว่าตื่นเต้นต่อบทบาทที่เพิ่มขึ้นของ AI (เพิ่มขึ้นจาก 37% ในปี 2021)
  • การรับรู้ถึงความเสี่ยง: 57% เชื่อว่า AI ก่อให้เกิดความเสี่ยงสูงต่อสังคม
  • ความต้องการการกำกับดูแล: 80% ของผู้ใหญ่ในสหรัฐฯ ต้องการให้รัฐบาลรักษากฎระเบียบด้านความปลอดภัยของ AI แม้ว่าจะทำให้การพัฒนาช้าลง
  • ความไว้วางใจในความยุติธรรมของ AI: มีเพียง 2% เท่านั้นที่เชื่อใจ AI อย่างเต็มที่ในการตัดสินใจที่ยุติธรรมและปราศจากอคติ

ความท้าทายที่พัฒนาขึ้นของความปลอดภัย AI

รายการประกาศรับสมัครงานนี้เน้นย้ำว่าความเสี่ยงจาก AI ได้พัฒนาจากการอภิปรายเชิงทฤษฎีไปสู่ความกังวลในเชิงปฏิบัติการที่เร่งด่วนแล้ว ภัยคุกคามในปัจจุบันมีตั้งแต่เรื่องค่อนข้างธรรมดา เช่น การถูกแทนที่งานและข้อมูลเท็จ ไปจนถึงสถานการณ์ร้ายแรงที่เกี่ยวข้องกับสงครามไซเบอร์ เชื้อโรคที่ถูกออกแบบทางวิศวกรรม และการสูญเสียการควบคุมของมนุษย์ให้กับระบบที่ปรับปรุงตัวเองได้ ยิ่งไปกว่านั้น กรอบการทำงานของ OpenAI เองยังยอมรับถึงแรงกดดันทางการแข่งขันของอุตสาหกรรม โดยระบุว่าข้อกำหนดด้านความปลอดภัยอาจถูก "ปรับเปลี่ยน" หากคู่แข่งปล่อยโมเดลความเสี่ยงสูงออกมาโดยไม่มีมาตรการป้องกันที่คล้ายกัน การยอมรับนี้ทำให้ความปลอดภัยไม่ใช่ผู้ตัดสินที่เป็นกลาง แต่เป็นส่วนสำคัญและมีการแข่งขันของเกมการแข่งขันทางเทคโนโลยี

การสร้างความไว้วางใจใหม่ผ่านมาตรการป้องกันเชิงสถาบัน

ด้วยการสร้างและให้ทุนสนับสนุนตำแหน่งผู้บริหารนี้ OpenAI กำลังพยายามแสดงให้เห็นว่าบริษัทให้ความสำคัญกับความเสี่ยงหายนะอย่างจริงจัง และกำลังสร้างมาตรการป้องกันเชิงสถาบัน องค์กรด้านความปลอดภัยของบริษัทมีการเปลี่ยนแปลงที่เห็นได้ชัด โดยหัวหน้าฝ่ายเตรียมพร้อมคนก่อน Aleksander Madry ถูกย้ายตำแหน่งในเดือนกรกฎาคม 2024 การจ้างผู้นำเฉพาะหน้าที่มีชื่อเสียงสูงเป็นความพยายามที่จะทำให้หน้าที่นี้มีเสถียรภาพและแสดงถึงความมุ่งมั่นที่จะ "ส่งมอบโมเดลขั้นสูงสุดโดยไม่ต้องโยนคำถามยากๆ ไปให้บทความบล็อกและคำขอโทษที่ร่างตอนตีสอง" ในขณะที่ระบบ AI ฝังตัวลึกลงไปในพื้นที่ที่ละเอียดอ่อน เช่น การสนับสนุนสุขภาพจิตและโครงสร้างพื้นฐานที่สำคัญ สาธารณะและหน่วยงานกำกับดูแลก็เริ่มมองว่าสัญญาด้านความปลอดภัยเป็นข้อผูกมัดที่ควรมาพร้อมกับผลที่ตามมาจริงๆ หากพวกมันล้มเหลว หัวหน้าฝ่ายเตรียมพร้อมคนใหม่จะเป็นบุคคลที่รับผิดชอบในท้ายที่สุดเพื่อให้มั่นใจว่าสัญญาเหล่านั้นจะได้รับการรักษาไว้