ความตึงเครียดภายใน OpenAI ปรากฏขึ้น ขณะที่บริษัทเผชิญการตรวจสอบข้อเรียกร้องเรื่องผลิตภาพของ AI

ทีมบรรณาธิการ BigGo
ความตึงเครียดภายใน OpenAI ปรากฏขึ้น ขณะที่บริษัทเผชิญการตรวจสอบข้อเรียกร้องเรื่องผลิตภาพของ AI

ในขณะที่ปัญญาประดิษฐ์ได้ฝังตัวลึกเข้าไปในสถานที่ทำงานทั่วโลก การถกเถียงเกี่ยวกับผลกระทบที่แท้จริงต่อผลิตภาพและเศรษฐกิจก็ทวีความรุนแรงขึ้น บริษัท AI ชั้นนำอย่าง OpenAI กำลังส่งเสริมการศึกษาที่เน้นย้ำถึงการเพิ่มประสิทธิภาพอย่างมีนัยสำคัญ ในขณะที่งานวิจัยทางวิชาการจากภายนอกมักวาดภาพที่คลางแคลงใจมากกว่า ความแตกต่างนี้ไม่ใช่เพียงข้อพิพาททางวิชาการเท่านั้น แต่ตอนนี้กำลังเป็นเชื้อเพลิงให้กับความตึงเครียดภายในตัว OpenAI เอง ซึ่งทำให้เกิดคำถามเกี่ยวกับบทบาทของบริษัทในฐานะนักวิจัยที่เป็นกลาง เทียบกับผู้สนับสนุนเทคโนโลยีของตัวเอง

OpenAI และ Anthropic เปิดตัวผลการศึกษาตอบโต้เรื่องผลิตภาพของ AI

ในการตอบสนองโดยตรงต่อกระแสงานวิจัยทางวิชาการที่คลางแคลงใจ OpenAI และคู่แข่งอย่าง Anthropic ได้เปิดเผยรายงานใหม่ที่สนับสนุนประโยชน์ด้านผลิตภาพของเครื่องมือ AI ของพวกเขา รายงาน "The State of Enterprise AI" ของ OpenAI ซึ่งเผยแพร่เมื่อวันที่ 8 ธันวาคม 2025 มีพื้นฐานมาจากการสำรวจคนงาน 9,000 คน โดยอ้างว่าการใช้ ChatGPT ช่วยประหยัดเวลาทำงานให้กับผู้เชี่ยวชาญได้เฉลี่ย 40 ถึง 60 นาทีต่อวัน โดย 75% ของผู้ตอบแบบสอบถามรายงานว่ามีการปรับปรุงในด้านความเร็วหรือคุณภาพของงานของพวกเขา ในทำนองเดียวกัน Anthropic ได้เปิดตัวการศึกษาภายในในช่วงปลายเดือนพฤศจิกายนที่แนะนำว่าผู้ช่วย AI Claude ของบริษัทสามารถลดเวลาในการทำงานบางอย่างได้ถึง 80% จาก 90 นาทีเหลือเพียง 18 นาที ทั้งสองบริษัทกำลังใช้ข้อมูลนี้เพื่อเสริมสร้างข้อโต้แย้งสำหรับการลงทุนใน AI ขององค์กรอย่างต่อเนื่อง เพื่อตอบโต้เรื่องเล่าที่ตั้งคำถามถึงผลตอบแทนจากการลงทุน

ข้ออ้างเกี่ยวกับผลิตภาพหลักจากบริษัท AI (ปี 2025)

บริษัท รายงาน/การศึกษา ประโยชน์ที่อ้าง ขนาดตัวอย่าง ข้อควรระวังสำคัญ
OpenAI "The State of Enterprise AI" ประหยัดเวลา 40-60 นาที/วันทำงาน; 75% รายงานว่าความเร็ว/คุณภาพดีขึ้น คนงาน 9,000 คน รายงานมีจุดมุ่งเน้นทางการตลาด; ขาดรายละเอียดการแบ่งย่อยทางระเบียบวิธี
Anthropic การวิเคราะห์ภายใน Claude ลดเวลาในการทำงานลง 80% (จากเฉลี่ย 90 นาที เหลือ 18 นาที) การสนทนา 100,000 ครั้ง การประมาณการอาจ "กล่าวเกินจริง" เนื่องจากไม่ได้นับงานที่ทำนอกการแชทกับ AI

การโต้กลับทางวิชาการและการวิพากษ์วิจารณ์แนวคิด "Workslop"

รายงานที่มองโลกในแง่ดีของอุตสาหกรรม AI ขัดแย้งอย่างชัดเจนกับข้อค้นพบจากสถาบันการศึกษาชั้นนำที่เผยแพร่ก่อนหน้านี้ในปี 2025 การศึกษาจาก MIT ในเดือนสิงหาคมสรุปว่าองค์กร 95% ที่ลงทุนในผลิตภัณฑ์ธุรกิจ AI "ไม่พบผลตอบแทนใดๆ" จากการลงทุน ซึ่งมีมูลค่ารวมประมาณ 30-40 พันล้านดอลลาร์สหรัฐ งานวิจัยชี้ให้เห็นว่าโครงการนำร่อง AI ส่วนใหญ่หยุดชะงักโดยไม่ส่งผลกระทบต่อผลกำไรที่วัดได้ หลังจากนั้นไม่นาน ความคิดริเริ่มจาก Harvard Business Review ได้นำเสนอแนวคิดเรื่อง "workslop" ซึ่งหมายถึงงานที่ "ปลอมตัวเป็นงานที่ดี แต่ขาดสาระสำคัญที่จะก้าวหน้าในงานที่กำหนดได้อย่างมีความหมาย" โดยให้เหตุผลว่าการใช้ AI ระดับมืออาชีพส่วนใหญ่ตกอยู่ในหมวดหมู่นี้ การศึกษาเหล่านี้ได้สร้างความท้าทายด้านความน่าเชื่อถืออย่างมีนัยสำคัญสำหรับบริษัท AI ที่พยายามจะพิสูจน์ความชอบธรรมของการใช้จ่ายขององค์กรในระดับใหญ่

ข้อมูลเชิงวิชาการและข้อโต้แย้งจากภาคอุตสาหกรรม (2025)

  • ผลการศึกษาของ MIT (สิงหาคม): พบว่า 95% ขององค์กร "ไม่ได้รับผลตอบแทนใดๆ" จากการลงทุนใน AI ที่มีมูลค่ารวม 30-40 พันล้านดอลลาร์สหรัฐ
  • Harvard Business Review: อธิบายว่าการใช้ AI ในระดับมืออาชีพจำนวนมากเป็น "งานลวกๆ" (workslop) — งานที่ไม่มีสาระสำคัญและไม่ได้ช่วยให้งานก้าวหน้าอย่างมีความหมาย
  • คำตอบของ Brad Lightcap ประธานเจ้าหน้าที่ฝ่ายปฏิบัติการของ OpenAI: ปัดการศึกษาทางวิชาการ โดยระบุว่ามัน "ไม่ค่อยสอดคล้องกับสิ่งที่เราเห็นในทางปฏิบัติ"

การออกจากงานภายในและข้อกล่าวหาเรื่องการเปลี่ยนลำดับความสำคัญของการวิจัย

แรงกดดันที่จะนำเสนอเรื่องเล่าในแง่บวกดูเหมือนจะทำให้เกิดความตึงเครียดภายใน OpenAI ตามรายงานจาก WIRED พนักงานอย่างน้อยสองคนในทีมวิจัยเศรษฐกิจของ OpenAI ได้ลาออกไปในช่วงไม่กี่เดือนที่ผ่านมา โดยหนึ่งในนั้นอ้างถึงความตึงเครียดที่เพิ่มขึ้นระหว่างการวิเคราะห์ที่เข้มงวดกับการทำหน้าที่เป็น "หน่วยสนับสนุนโดยพฤตินัย" อดีตพนักงาน Tom Cunningham รายงานว่าลาออกในเดือนกันยายน โดยระบุในข้อความภายในว่ามันกลายเป็นเรื่องยากที่จะเผยแพร่งานวิจัยคุณภาพสูงที่อาจเน้นผลกระทบทางเศรษฐกิจเชิงลบ เช่น การเลิกจ้างงาน สิ่งนี้เกิดขึ้นหลังจากที่อดีตหัวหน้าฝ่ายวิจัยนโยบาย Miles Brundage ลาออกในเดือนตุลาคม 2024 ซึ่งอ้างถึงข้อจำกัดในการเผยแพร่เช่นกัน ข้อกล่าวหาเหล่านี้ชี้ให้เห็นถึงการเปลี่ยนแปลงเชิงกลยุทธ์ภายใน OpenAI ที่มุ่งไปสู่การสนับสนุนงานวิจัยที่ทำให้เทคโนโลยีของบริษัทดูดีขึ้น ขณะที่บริษัทกำลังสร้างความร่วมมือมูลค่าหลายพันล้านดอลลาร์กับบริษัทและรัฐบาล

รายงานการลาออกของทีมวิจัย OpenAI (ปลายปี 2024-2025)

  • Tom Cunningham (ทีมวิจัยเศรษฐศาสตร์): ลาออกกันยายน 2025 อ้างถึงความยากลำบากในการเผยแพร่งานวิจัยที่ไม่ทำหน้าที่เป็นงานสนับสนุน
  • Miles Brundage (หัวหน้าทีมวิจัยนโยบาย): ลาออกตุลาคม 2024 อ้างถึงข้อจำกัดในการเผยแพร่งานวิจัยในหัวข้อสำคัญ เนื่องจากบริษัทกลายเป็น "องค์กรที่มีชื่อเสียงระดับสูง"

การถกเถียงเรื่องระเบียบวิธีและท่าทีที่มั่นใจของอุตสาหกรรม

แม้จะมีพาดหัวข่าวในแง่บวกจากรายงานของตัวเอง ทั้ง OpenAI และ Anthropic ต่างก็รวมข้อแม้ที่เผยให้เห็นจุดอ่อนทางระเบียบวิธี การศึกษาของ Anthropic ระบุอย่างชัดเจนว่าการประมาณการประหยัดเวลาของบริษัท "อาจประเมินผลกระทบด้านผลิตภาพในปัจจุบันสูงเกินไป" เพราะไม่ได้คำนึงถึงงานของมนุษย์ที่ทำนอกเหนือจากการสนทนากับ AI รายงานของ OpenAI ให้รายละเอียดน้อยมากเกี่ยวกับวิธีการแบ่งแยกตัวชี้วัดที่ดีของบริษัท ซึ่งนำไปสู่การที่นักวิจารณ์จัดว่ารายงานนี้มุ่งเน้นการตลาดมากกว่าจะเข้มงวดทางวิทยาศาสตร์ อย่างไรก็ตาม อุตสาหกรรมยังคงแสดงท่าทีท้าทายต่อสาธารณะ COO ของ OpenAI Brad Lightcap ปฏิเสธการศึกษาจาก MIT และ Harvard โดยตรง โดยบอกกับ Bloomberg ว่า "พวกมันไม่เคยค่อนข้างสอดคล้องกับสิ่งที่เราเห็นในทางปฏิบัติ" ความมั่นใจนี้ถูกวางอยู่บนพื้นหลังของความท้าทายทางกายภาพและการเมือง รวมถึงการขาดแคลนทองแดงที่กำลังจะเกิดขึ้นสำหรับศูนย์ข้อมูล และความกังวลของสาธารณชนต่อผลกระทบด้านสุขภาพและเศรษฐกิจจากความเฟื่องฟูของโครงสร้างพื้นฐาน

เส้นทางที่แตกต่างจากคู่แข่งและภูมิทัศน์ทางการเมือง

แนวทางที่ระมัดระวังของ OpenAI ในการเผยแพร่งานวิจัยเศรษฐกิจเชิงลบที่ถูกกล่าวหา ทำให้บริษัทแตกต่างจากคู่แข่งบางราย CEO ของ Anthropic Dario Amodei ได้เตือนซ้ำแล้วซ้ำเล่าว่า AI สามารถทำให้งานระดับเริ่มต้นของพนักงานออฟฟิศอัตโนมัติได้ถึงครึ่งหนึ่งภายในปี 2030 โดยนำเสนอการคาดการณ์ดังกล่าวว่าเป็นสิ่งจำเป็นสำหรับการอภิปรายสาธารณะ คำเตือนเหล่านี้ได้ดึงดูดการวิพากษ์วิจารณ์อย่างรุนแรงจากรัฐบาล Trump โดยที่ปรึกษาพิเศษทำเนียบขาว David Sacks กล่าวหาว่า Anthropic "สร้างความกลัว" กลยุทธ์ของ OpenAI ดูเหมือนจะได้รับการปรับเทียบเพื่อนำทางผ่านสภาพแวดล้อมทางการเมืองที่ซับซ้อนนี้ ซึ่งการแบ่งปัน "สถิติที่มืดมน" อาจทำให้ความร่วมมือและภาพลักษณ์สาธารณะของบริษัทซับซ้อนขึ้น การวิจัยเศรษฐกิจของบริษัทในตอนนี้ถูกรวมเข้าด้วยกันอย่างแน่นหนากับกลยุทธ์นโยบาย นำโดยหัวหน้าเจ้าหน้าที่กิจการระดับโลก Chris Lehane ซึ่งเป็นนักการเมืองมืออาชีพที่มีประสบการณ์ซึ่งรู้จักกันในชื่อ "ปรมาจารย์แห่งหายนะ" จากช่วงเวลาของเขาในทำเนียบขาวสมัย Clinton

ผลกระทบที่กว้างขึ้นต่อความโปร่งใสและความไว้วางใจใน AI

ความขัดแย้งที่เกิดขึ้นใหม่ระหว่างวัฒนธรรมการวิจัยภายในของ OpenAI และการสนับสนุนธุรกิจของบริษัท ชี้ให้เห็นถึงภาวะที่กลืนไม่เข้าคายไม่ออกหลักสำหรับห้องปฏิบัติการ AI ชั้นนำ พวกเขาได้รับอำนาจพิเศษในการรายงานด้วยตนเองเกี่ยวกับความเสี่ยงและความสามารถของเทคโนโลยีที่พวกเขากำลังเร่งนำไปใช้ แต่พวกเขาก็มีแรงจูงใจทางการค้าและการเมืองอย่างมหาศาลที่จะควบคุมเรื่องเล่า ในขณะที่อิทธิพลของ AI ต่อเศรษฐกิจเติบโตขึ้น โดยมีชาวอเมริกันอายุน้อย 44% กลัวโอกาสในการทำงานลดลงตามการสำรวจของ Harvard Kennedy School ความจำเป็นในการวิจัยที่เป็นอิสระและโปร่งใสก็ยิ่งมีความสำคัญมากขึ้น การออกจากงานของนักวิจัยจาก OpenAI และการถกเถียงที่กำลังดำเนินอยู่เกี่ยวกับข้อเรียกร้องเรื่องผลิตภาพ ชี้ให้เห็นว่าการรักษาความไว้วางใจของสาธารณะจะต้องใช้แนวทางที่สมดุลมากขึ้น ซึ่งยอมรับทั้งศักยภาพและความวุ่นวายอันลึกซึ้งของปัญญาประดิษฐ์