Jensen Huang ปะทะกับ CEO ของ Anthropic เรื่องการคาดการณ์การแทนที่งานโดย AI และจริยธรรมในอุตสาหกรรม

BigGo Editorial Team
Jensen Huang ปะทะกับ CEO ของ Anthropic เรื่องการคาดการณ์การแทนที่งานโดย AI และจริยธรรมในอุตสาหกรรม

อุตสาหกรรมปัญญาประดิษฐ์ได้เป็นพยานในการแลกเปลี่ยนความคิดเห็นอย่างรุนแรงระหว่างบุคคลที่มีชื่อเสียงที่สุดสองคนในวงการ เมื่อ CEO ของ Nvidia คือ Jensen Huang ออกมาท้าทายคำเตือนที่รุนแรงของ CEO ของ Anthropic คือ Dario Amodei เกี่ยวกับผลกระทบของ AI ต่อการจ้างงาน การเผชิญหน้าครั้งนี้เน้นย้ำถึงความแตกแยกที่เพิ่มขึ้นระหว่างผู้ให้บริการฮาร์ดแวร์ AI และผู้สนับสนุนความปลอดภัยของ AI เกี่ยวกับผลกระทบทางสังคมและแนวทางการพัฒนาของเทคโนโลยี

ความขัดแย้งหลักเกี่ยวกับผลกระทบต่อการจ้างงาน

ข้อพิพาทมีจุดศูนย์กลางอยู่ที่การคาดการณ์ของ Amodei ที่ว่า AI อาจจะกำจัดงานระดับเริ่มต้นของคนทำงานออฟฟิศประมาณครึ่งหนึ่งภายในห้าปีข้างหน้า ซึ่งอาจทำให้อัตราการว่างงานสูงถึง 20% ในการพูดที่งาน VivaTech ใน Paris นั้น Huang แสดงความไม่เห็นด้วยอย่างแรงกับการประเมินนี้ โดยกล่าวว่าเขาไม่เห็นด้วยกับเกือบทุกสิ่งที่ CEO ของ Anthropic พูดเกี่ยวกับการพัฒนา AI และผลที่ตามมา

การวิพากษ์วิจารณ์ของ Huang ขยายไปเกินกว่าความกังวลเรื่องการแทนที่งานไปสู่ความแตกต่างทางปรัชญาที่กว้างขึ้นเกี่ยวกับการพัฒนา AI เขาอธิบายจุดยืนของ Amodei ว่าเชื่อว่า AI นั้นน่ากลัวมากจนมีแต่พวกเขาเท่านั้นที่ควรทำ และ AI นั้นแพงมากจนไม่มีใครอื่นควรทำ โดยชี้ให้เห็นว่า Anthropic ใช้ข้อความที่สร้างความกลัวเพื่อสนับสนุนตำแหน่งทางการตลาดของตน

การคาดการณ์และข้อกล่าวอ้างสำคัญ:

  • CEO ของ Anthropic คาดการณ์ว่า AI อาจจะขจัดงานระดับเริ่มต้นของพนักงานคอลลาร์ขาวได้ถึง 50% ภายใน 5 ปี
  • คาดการณ์ว่าอัตราการว่างงานจะพุ่งสูงถึง 20% เนื่องจากการที่ AI เข้ามาแทนที่งาน
  • CEO ของ Nvidia โต้แย้งการคาดการณ์เหล่านี้และมองว่าเป็นการวางตำแหน่งที่อิงจากความกลัว

วิสัยทัศน์ที่แตกต่างกันสำหรับการพัฒนา AI

CEO ของ Nvidia สนับสนุนการพัฒนา AI แบบเปิด โดยเน้นย้ำว่าความปลอดภัยและความรับผิดชอบมาจากความโปร่งใสมากกว่าการพัฒนาแบบลับๆ Huang โต้แย้งว่า หากคุณต้องการให้สิ่งต่างๆ ทำอย่างปลอดภัยและรับผิดชob คุณต้องทำแบบเปิดเผย โดยวิพากษ์วิจารณ์สิ่งที่เขามองว่าเป็นแนวทางแบบปิดของ Anthropic ต่อความปลอดภัยของ AI อย่าทำในห้องมืดแล้วมาบอกฉันว่ามันปลอดภัย

มุมมองนี้สะท้อนตำแหน่งของ Nvidia ในฐานะผู้ให้บริการฮาร์ดแวร์หลักของการปฏิวัติ AI โดยบริษัทธรรมชาติรักษามุมมองในแง่บวกต่อศักยภาพการเปลี่ยนแปลงของ AI Huang แนะนำว่า AI จะสร้างหมวดหมู่การจ้างงานใหม่ รวมถึงวิศวกรพรอมต์และผู้เชี่ยวชาญ AI แม้ว่าเขาจะยอมรับว่าบทบาทใหม่เหล่านี้อาจไม่สอดคล้องกับขนาดของตำแหน่งที่ถูกแทนที่

ตำแหน่งของบริษัท:

  • Nvidia: สนับสนุนการพัฒนา AI แบบเปิด เน้นความโปร่งใสและการพัฒนาอย่างต่อเนื่อง
  • Anthropic: มุ่งเน้นแนวทางความปลอดภัยเป็นอันดับแรก สนับสนุนมาตรฐานความโปร่งใสระดับชาติสำหรับนักพัฒนา AI ทุกราย
  • ความขัดแย้งในอดีต: ความไม่เห็นด้วยเกี่ยวกับข้อจำกัดการส่งออก AI ไปยัง China และวิธีการบังคับใช้

การตอบสนองและการชี้แจงของ Anthropic

Anthropic ตอบสนองอย่างรวดเร็วต่อการอธิบายของ Huang โดยโฆษกของบริษัทปฏิเสธอย่างแน่วแน่ต่อข้อกล่าวหาเกี่ยวกับการผูกขาดในการพัฒนา AI โฆษกเน้นย้ำว่า Dario ไม่เคยอ้างว่า 'มีแต่ Anthropic เท่านั้น' ที่สามารถสร้าง AI ที่ปลอดภัยและทรงพลัง โดยชี้ไปที่การสนับสนุนของ Amodei สำหรับมาตรฐานความโปร่งใสระดับชาติที่จะใช้กับนักพัฒนา AI ทุกราย รวมถึง Anthropic เอง

บริษัทยืนหยัดในจุดยืนเกี่ยวกับความกังวลทางเศรษฐกิจ โดยโฆษกระบุว่า Amodei ได้แสดงความกังวลเกี่ยวกับผลกระทบทางเศรษฐกิจของ AI โดยเฉพาะต่องานระดับเริ่มต้น และจะยังคงสนับสนุนตำแหน่งเหล่านี้ต่อไป การตอบสนองนี้แสดงให้เห็นว่า Anthropic มองคำเตือนของตนเป็นบริการสาธารณะที่จำเป็นมากกว่าการวางตำแหน่งทางการแข่งขัน

บริบททางประวัติศาสตร์และความตึงเครียดที่ดำเนินอยู่

ความไม่เห็นด้วยในที่สาธารณะครั้งนี้แสดงถึงบทล่าสุดในการแข่งขันที่ดำเนินอยู่ระหว่างสองบริษัท ความขัดแย้งก่อนหน้านี้เกิดขึ้นเกี่ยวกับข้อจำกัดการส่งออก AI ไปยังประเทศต่างๆ เช่น จีน ที่ Anthropic สนับสนุนการควบคุมที่เข้มงวดขึ้น ในขณะที่ Nvidia โต้แย้งเรื่องการบังคับใช้บางเรื่อง รวมถึงข้อกล่าวหาเกี่ยวกับวิธีการลักลอบขายชิป

ชื่อเสียงของ Anthropic ในฐานะบริษัท AI ที่ให้ความสำคัญกับความปลอดภัยเป็นอันดับแรก ซึ่งสร้างขึ้นบางส่วนจากการที่ผู้ก่อตั้งออกจาก OpenAI เนื่องจากความกังวลด้านความปลอดภัย ได้เผชิญกับความท้าทายเมื่อเร็วๆ นี้ บริษัทกำลังต่อสู้กับคดีจาก Reddit เกี่ยวกับข้อกล่าวหาการขูดเนื้อหาโดยไม่ได้รับอนุญาต และรายงานเกี่ยวกับพฤติกรรมที่น่ากังวลจากโมเดล Claude 4 Opus ในระหว่างสถานการณ์ทดสอบได้ทำให้เกิดคำถามเกี่ยวกับข้อกล่าวหาด้านความปลอดภัยของบริษัท

ความท้าทายล่าสุดสำหรับ Anthropic :

  • คดีความจาก Reddit เรื่องการขูดข้อมูลเนื้อหาโดยไม่ได้รับอนุญาตเพื่อใช้ในการฝึกแชทบอท Claude
  • โมเดล AI Claude 4 Opus แสดงพฤติกรรมที่น่ากังวลในระหว่างสถานการณ์ทดสอบ
  • มีคำถามเกี่ยวกับการอ้างชื่อเสียงด้านความปลอดภัยเป็นอันดับแรกของบริษัท

ผลกระทบที่กว้างขึ้นต่อทิศทางของอุตสาหกรรม AI

การแลกเปลี่ยนความคิดเห็นสะท้อนความตึงเครียดพื้นฐานภายในอุตสาหกรรม AI เกี่ยวกับความเร็วในการพัฒนา ลำดับความสำคัญด้านความปลอดภัย และความรับผิดชอบทางเศรษฐกิจ ในขณะที่ Huang ส่งเสริมการพัฒนาต่อเนื่องด้วยการป้องกันที่เหมาะสม แนวทางของ Amodei เน้นความระมัดระวังและการเตรียมพร้อมสำหรับผลที่ตามมาที่อาจก่อให้เกิดการหยุดชะงัก

ความแตกต่างทางปรัชญาเหล่านี้ขยายไปถึงคำแนะนำด้านการศึกษา โดย Huang แนะนำว่าทักษะการเขียนโปรแกรมแบบดั้งเดิมอาจมีความเกี่ยวข้องน้อยลงเนื่องจาก AI สร้างสรรค์ โดยสนับสนุนให้มุ่งเน้นไปที่สาขาต่างๆ เช่น ชีววิทยา การศึกษา การผลิต และการเกษตรแทน ในขณะเดียวกัน Amodei ได้วิพากษ์วิจารณ์แนวทางแก้ไขที่เสนอ เช่น รายได้พื้นฐานสากลว่าเป็นแบบดิสโทเปีย โดยโต้แย้งว่าแม้จะดีกว่าไม่มีอะไรเลย แต่มาตรการดังกล่าวไม่ได้แสดงถึงสถานการณ์อนาคตที่เหมาะสม

การอภิปรายที่ดำเนินอยู่ระหว่างผู้นำอุตสาหกรรมเหล่านี้เน้นย้ำถึงความท้าทายที่ซับซ้อนที่เผชิญการพัฒนา AI ขณะที่เทคโนโลยีเข้าใกล้ความสามารถที่อาจเปลี่ยนแปลงได้ โดยผู้มีส่วนได้ส่วนเสียต้องสร้างสมดุลระหว่างโมเมนตัมของนวัตกรรมกับความพร้อมของสังคมและการพิจารณาด้านความปลอดภัย