Nvidia เปิดตัวแพลตฟอร์ม AI Rubin สัญญาลดต้นทุน 10 เท่า และเร่งการอนุมานผล 5 เท่า

ทีมบรรณาธิการ BigGo
Nvidia เปิดตัวแพลตฟอร์ม AI Rubin สัญญาลดต้นทุน 10 เท่า และเร่งการอนุมานผล 5 เท่า

ในงาน CES 2026 Jensen Huang ซีอีโอของ Nvidia ไม่ได้ขึ้นเวทีเพียงเพื่อประกาศชิปตัวใหม่ แต่เพื่อแนะนำการปรับโครงสร้างสถาปัตยกรรมครั้งใหญ่ที่ออกแบบมาเพื่อนิยามเศรษฐศาสตร์ของปัญญาประดิษฐ์ใหม่ แพลตฟอร์ม Rubin ใหม่ซึ่งตั้งชื่อตามนักดาราศาสตร์ Vera Rubin แสดงถึงความพยายามที่ทะเยอทะยานที่สุดของ Nvidia ในการลดอุปสรรคของการนำ AI ขนาดใหญ่ไปใช้จริง ด้วยการตัดต้นทุนและเพิ่มประสิทธิภาพอย่างมาก การประกาศนี้เกิดขึ้นในขณะที่อุตสาหกรรมกำลังเผชิญกับค่าใช้จ่ายด้านคอมพิวเตอร์ที่พุ่งสูงขึ้นในการฝึกอบรมและรันโมเดลที่ใหญ่ขึ้นเรื่อยๆ ทำให้ Rubin เป็นตัวเร่งที่มีศักยภาพสำหรับเฟสต่อไปของการนำ AI ไปใช้

ระบบแบบองค์รวมที่สร้างมาสำหรับการขยายขนาด

แนวทางของ Nvidia กับ Rubin ก้าวข้ามการปรับปรุง GPU แบบทีละน้อย ไปสู่สิ่งที่บริษัทเรียกว่า "การออกแบบร่วมขั้นสุด" แพลตฟอร์มนี้ไม่ใช่ชิปตัวเดียว แต่เป็นซูเปอร์คอมพิวเตอร์ AI แบบบูรณาการที่ประกอบด้วยส่วนประกอบเฉพาะทางหกส่วนที่ทำงานประสานกัน หัวใจของระบบคือ GPU Rubin ใหม่ ซึ่งมี Transform Engine รุ่นที่สามที่สามารถคำนวณได้สูงสุด 50 petaflops ด้วยกำลังประมวลผล NVFP4 มันทำงานคู่กับ CPU Vera ตัวใหม่ ซึ่งเป็นโปรเซสเซอร์ประหยัดพลังงานที่สร้างขึ้นด้วยคอร์ที่ออกแบบเอง 88 คอร์ ซึ่งปรับให้เหมาะสมโดยเฉพาะสำหรับ "การให้เหตุผลแบบเอเจนต์" และงาน AI ที่ซับซ้อนและทำงานยาวนาน คู่ CPU-GPU นี้เชื่อมต่อกันด้วย NVLink 6 Switch ความเร็วสูง และได้รับการสนับสนุนโดย ConnectX-9 SuperNIC สำหรับเครือข่าย และ Bluefield-4 Data Processing Unit (DPU) สำหรับการถ่ายโอนงานโครงสร้างพื้นฐาน

ส่วนประกอบหลักของแพลตฟอร์ม Rubin:

  • Rubin GPU: หน่วยประมวลผลหลักที่มี 3rd-gen Transform Engine; ประสิทธิภาพสูงสุด 50 Petaflops NVFP4
  • Vera CPU: ใช้ 88 คอร์ Olympus ที่ออกแบบเอง; เข้ากันได้กับ Armv9.2; ปรับให้เหมาะสมสำหรับการให้เหตุผลแบบเอเจนต์
  • NVLink 6 Switch: ให้การเชื่อมต่อระหว่าง GPU ถึง GPU ที่เร็วสูงสุด
  • ConnectX-9 SuperNIC: จัดการเครือข่ายความเร็วสูง
  • Bluefield-4 DPU: ย้ายภาระงานโครงสร้างพื้นฐานออกจาก CPU/GPU
  • Spectrum-6 Ethernet Switch: ให้เครือข่ายภายในศูนย์ข้อมูล

การเพิ่มประสิทธิภาพและประสิทธิผลที่ไม่เคยมีมาก่อน

ผลลัพธ์เชิงสังเคราะห์ของการก้าวกระโดดทางสถาปัตยกรรมนี้คือการปรับปรุงประสิทธิภาพที่เหลือเชื่อเมื่อเทียบกับแพลตฟอร์ม Blackwell รุ่นก่อน ตามเกณฑ์มาตรฐานภายในของ Nvidia แพลตฟอร์ม Rubin บรรลุความเร็วในการฝึกโมเดล AI ที่เพิ่มขึ้น 3.5 เท่า สำหรับการอนุมานผล — กระบวนการรันโมเดลที่ฝึกแล้ว — การเพิ่มขึ้นนั้นเด่นชัดยิ่งขึ้น โดย Rubin ให้ความเร็วเพิ่มขึ้น 5 เท่า บางทีสิ่งที่สำคัญที่สุดสำหรับการนำไปใช้อย่างกว้างขวางคือประสิทธิภาพการใช้พลังงานของแพลตฟอร์มที่ได้รับการปรับปรุง 8 เท่าในด้านประสิทธิภาพการอนุมานผลต่อวัตต์ ตัวเลขเหล่านี้แปลเป็นประโยชน์ในการดำเนินงานโดยตรง โดย Nvidia อ้างว่าแพลตฟอร์มสามารถลดต้นทุนโทเค็นสำหรับการอนุมานผลได้สูงสุดถึง 10 เท่า และลดจำนวน GPU ที่จำเป็นสำหรับการฝึกโมเดล mixture-of-experts (MoE) ลงสี่เท่าเมื่อเทียบกับ Blackwell

การเปรียบเทียบประสิทธิภาพกับแพลตฟอร์ม Blackwell:

เมตริก การปรับปรุง
ความเร็วในการฝึกฝนโมเดล AI เร็วกว่า 3.5 เท่า
ความเร็วในการอนุมาน เร็วกว่า 5 เท่า
ประสิทธิภาพการอนุมานต่อวัตต์ สูงกว่า 8 เท่า
ค่าใช้จ่ายต่อโทเค็นในการอนุมาน ลดลงสูงสุด 10 เท่า
จำนวน GPU ที่จำเป็นสำหรับการฝึกโมเดล MoE น้อยลง 4 เท่า

จัดการกับปัญหาคอขวดด้านหน่วยความจำสำหรับ AI ในอนาคต

นวัตกรรมหลักที่ Nvidia เน้นคือแนวทางของ Rubin ต่อหน่วยความจำ Dion Harris ผู้อำนวยการอาวุโสฝ่ายโซลูชันโครงสร้างพื้นฐาน AI ของ Nvidia อธิบายว่าระบบ AI สมัยใหม่ โดยเฉพาะอย่างยิ่งระบบที่ขับเคลื่อนเอเจนต์ AI และงานที่มีคอนเท็กซ์ยาว สร้างแรงกดดันอย่างมากต่อหน่วยความจำ เนื่องจากความต้องการแคช Key-Value (KV) ขนาดมหาศาล เพื่อแก้ไขปัญหานี้ Rubin ได้แนะนำหน่วยความจำ fabric ภายนอกใหม่ ซึ่งเป็นชั้นจัดเก็บข้อมูลเฉพาะที่ช่วยให้การรวมหน่วยความจำมีประสิทธิภาพและขยายขนาดได้มากขึ้น การออกแบบนี้มีจุดมุ่งหมายเพื่อป้องกันไม่ให้ข้อจำกัดด้านหน่วยความจำขัดขวางการพัฒนาแอปพลิเคชัน AI ที่ซับซ้อนและทำงานต่อเนื่องมากขึ้น

ประกาศพันธมิตรและแผนการติดตั้งระยะแรก (ครึ่งหลังปี 2026):

  • ผู้ให้บริการคลาวด์: Amazon Web Services (AWS), Google Cloud, Microsoft Azure.
  • บริษัท AI: Anthropic, OpenAI.
  • ซูเปอร์คอมพิวเตอร์: HPE "Blue Lion," Lawrence Berkeley National Lab "Doudna".

การนำไปใช้ในอุตสาหกรรมทันทีและผลกระทบในอนาคต

แพลตฟอร์ม Rubin กำลังอยู่ในขั้นตอนการผลิตแล้วและได้รับการยืนยันจากผู้ให้บริการคลาวด์รายใหญ่เกือบทุกราย พันธมิตรแรกๆ ที่กำหนดว่าจะนำเทคโนโลยีนี้ไปใช้ในครึ่งหลังของปี 2026 ได้แก่ Amazon Web Services (AWS), Google Cloud และ Microsoft Azure ผู้นำด้านการวิจัย AI อย่าง Anthropic และ OpenAI ก็อยู่ในแถวแรกเช่นเดียวกัน นอกเหนือจากคลาวด์แล้ว สถาปัตยกรรมนี้จะขับเคลื่อนซูเปอร์คอมพิวเตอร์รุ่นต่อไป เช่น "Blue Lion" ของ Hewlett Packard Enterprise และระบบ "Doudna" ที่ Lawrence Berkeley National Laboratory ด้วยการทำให้โครงสร้างพื้นฐาน AI ขั้นสูงมีต้นทุนที่คุ้มค่าและทรงพลังมากขึ้น Rubin ของ Nvidia อาจเร่งการเปลี่ยนผ่านของ AI ขั้นสูงจากห้องปฏิบัติการวิจัยและบริษัทเทคโนโลยีขนาดใหญ่ ไปสู่แอปพลิเคชันสำหรับผู้บริโภคและองค์กรในวงกว้างมากขึ้น ซึ่งอาจนำไปสู่ยุคใหม่ของการคำนวณ AI ขนาดใหญ่ที่เข้าถึงได้ตามที่ Huang จินตนาการไว้