Nvidia เปิดตัว GPU Rubin CPX สำหรับการประมวลผล AI แบบ Long-Context พร้อมประสิทธิภาพเพิ่มขึ้น 6.5 เท่า

ทีมบรรณาธิการ BigGo
Nvidia เปิดตัว GPU Rubin CPX สำหรับการประมวลผล AI แบบ Long-Context พร้อมประสิทธิภาพเพิ่มขึ้น 6.5 เท่า

Nvidia ได้เปิดตัวแนวทางใหม่ที่ล้ำสมัยในการประมวลผล AI ด้วยการเปิดตัว GPU Rubin CPX ที่ออกแบบมาเป็นพิเศษเพื่อจัดการกับขั้นตอนการประมวลผลบริบทที่ใช้การคำนวณเข้มข้นของแอปพลิเคชัน AI แบบ long-context นี่ถือเป็นการเคลื่อนไหวครั้งแรกในอุตสาหกรรมที่มุ่งสู่การแยกภาระงาน AI inference ข้ามฮาร์ดแวร์เฉพาะทาง ซึ่งอาจต้องใช้ GPU สองตัวทำงานร่วมกันเพื่อให้ได้ประสิทธิภาพและความทำกำไรสูงสุด

การแก้ไขปัญหา Long-Context

Rubin CPX มุ่งเป้าไปที่แอปพลิเคชันที่ต้องการบริบทอินพุตมากกว่าหนึ่งล้านโทเค็น เพื่อแก้ไขปัญหาคอขวดที่สำคัญในการประมวลผล AI แอปพลิเคชันปัจจุบันประสบปัญหากับบริบทที่ยาวมาก เช่น การประมวลผลโค้ด 100,000 บรรทัด หรือการวิเคราะห์วิดีโอหลายเฟรม ซึ่งผู้ใช้มักต้องรอ 5-10 นาทีสำหรับโทเค็นแรกที่จะปรากฏขึ้น แอปพลิเคชันประมวลผลวิดีโอเผชิญกับความล่าช้ายิ่งกว่านั้น คือ 10-20 วินาทีหรือมากกว่า ซึ่งอธิบายได้ว่าทำไม video LLM จึงถูกจำกัดให้ใช้กับคลิปสั้นๆ ในปัจจุบัน

ข้อมูลจำเพาะทางเทคนิคและประสิทธิภาพ

Rubin CPX ให้กำลังการคำนวณ 30 petaFLOPs ของ NVFP4 คู่กับหน่วยความจำ GDDR7 ขนาด 128 GB Nvidia อ้างว่าชิปนี้ให้ประสิทธิภาพดีกว่า GB300 Blackwell Ultra ที่กำลังจะเปิดตัวถึง 6.5 เท่าสำหรับแอปพลิเคชันที่มีความยาวบริบทขนาดใหญ่ การใช้ GDDR7 แทนหน่วยความจำ HBM ที่มีราคาแพงทำให้โซลูชันนี้คุ้มค่ากว่าในขณะที่ยังคงให้แบนด์วิดท์ที่จำเป็นสำหรับงานประมวลผลบริบท

ข้อมูลจำเพาะทางเทคนิคของ Rubin CPX

  • พลังการประมวลผล: 30 petaFLOPs NVFP4
  • หน่วยความจำ: 128 GB GDDR7
  • ประสิทธิภาพเมื่อเทียบกับ Blackwell Ultra : เร็วกว่าสูงสุด 6.5 เท่าสำหรับแอปพลิเคชันที่ใช้บริบทยาว
  • ความยาวบริบท: ปรับให้เหมาะสมสำหรับโทเค็นมากกว่า 1 ล้านตัว

การกำหนดค่าการติดตั้งและความสามารถในการขยายขนาด

Nvidia วางแผนที่จะเสนอ Rubin CPX ในสองการกำหนดค่าหลัก แร็ก Vera Rubin NVL144 CPX รุ่นเรือธงรวม GPU Rubin CPX 144 ตัว GPU Rubin มาตรฐาน 144 ตัว และ CPU Vera 36 ตัว ให้กำลังการคำนวณ NVFP4 รวม 8 exaFLOPs ซึ่งแสดงถึงการปรับปรุง 7.5 เท่าเมื่อเทียบกับระบบ Blackwell Ultra สำหรับลูกค้าที่มีอยู่ Nvidia จะเสนอแร็ก CPX แยกต่างหากที่สามารถเพิ่มเข้าไปในการติดตั้ง Rubin ปัจจุบัน เพิ่มประสิทธิภาพจาก 5 exaFLOPs เป็น 8 exaFLOPs พร้อมรองรับหน่วยความจำ GDDR7 ความเร็วสูงถึง 150TB

การกำหนดค่า Rack ของ Vera Rubin NVL144 CPX

  • GPU Rubin CPX จำนวน 144 ตัว
  • GPU Rubin จำนวน 144 ตัว
  • CPU Vera จำนวน 36 ตัว
  • พลังการประมวลผลรวม: 8 exaFLOPs NVFP4
  • รองรับหน่วยความจำ: สูงสุด 150TB GDDR7
  • การปรับปรุงประสิทธิภาพ: เร็วกว่า Blackwell Ultra ถึง 7.5 เท่า

ผลกระทบทางเศรษฐกิจและการคาดการณ์ผลตอบแทนการลงทุน

ตามการคาดการณ์ของ Nvidia การลงทุน 3 ล้านดอลลาร์สหรัฐในระบบ GB200 NVL72 สามารถสร้างรายได้จากโทเค็น 30 ล้านดอลลาร์สหรัฐ บริษัทประมาณการว่าแม้จะมีการแข่งขันแบบฟรี GB200 NVL72 สามารถเพิ่มกำไรจากโทเค็นได้เกือบสี่เท่า การเพิ่มเทคโนโลยี CPX คาดว่าจะช่วยเพิ่มผลตอบแทนเหล่านี้ยิ่งขึ้น โดย Nvidia อ้างว่าได้ผลตอบแทนการลงทุน 30-50 เท่าสำหรับแพลตฟอร์มใหม่

การคาดการณ์ทางเศรษฐกิจ

  • การลงทุน GB200 NVL72 : 3 ล้านดอลลาร์สหรัฐ
  • รายได้จาก Token ที่คาดการณ์: 30 ล้านดอลลาร์สหรัฐ
  • ROI สำหรับแพลตฟอร์มใหม่: 30 เท่าถึง 50 เท่า
  • การเพิ่มประสิทธิภาพด้วย Intelligent GPU Division : เพิ่มขึ้น 3 เท่าด้วยต้นทุน/พลังงานเท่าเดิม

การใช้งานในตลาดและมุมมองอนาคต

Nvidia ได้ระบุการเขียนโค้ดโปรแกรมขนาดใหญ่และการประมวลผลวิดีโอเป็นแอปพลิเคชันหลักที่ต้องการบริบทล้านโทเค็น บริษัทประมาณการว่าประมาณ 20% ของแอปพลิเคชัน AI ในปัจจุบันประสบกับความล่าช้าอย่างมีนัยสำคัญในการรอการสร้างโทเค็นแรก Rubin CPX คาดว่าจะพร้อมใช้งานภายในปีหน้า โดยมีแผนงานที่อัปเดตขยายไปถึงสถาปัตยกรรม Feynman ในปี 2028 การเคลื่อนไหวเชิงกลยุทธ์นี้ทำให้ Nvidia อยู่ในตำแหน่งที่จะรักษาความได้เปรียบในการแข่งขันในตลาดฮาร์ดแวร์ AI พร้อมทั้งอาจบังคับให้คู่แข่งอย่าง Google และ AMD พัฒนาโซลูชันเฉพาะทางที่คล้ายกัน