ในการประกาศสำคัญที่งาน CES 2026 Nvidia ได้ประกาศว่าแพลตฟอร์มซูเปอร์ชิป AI รุ่นใหม่ล่าสุด Vera Rubin ได้เข้าสู่ขั้นตอนการผลิตเต็มรูปแบบแล้ว การเคลื่อนไหวครั้งนี้ส่งสัญญาณถึงการมาถึงในไม่ช้าของสิ่งที่บริษัทอ้างว่าเป็นฮาร์ดแวร์ AI ที่ก้าวล้ำที่สุดเท่าที่เคยมีมา โดยสัญญาว่าจะไม่เพียงแต่เพิ่มประสิทธิภาพอย่างก้าวกระโดด แต่ยังลดต้นทุนในการรันโมเดลปัญญาประดิษฐ์ที่ซับซ้อนลงอย่างมากอีกด้วย การประกาศโดยซีอีโอ Jensen Huang นี้เป็นการเตรียมพร้อมสำหรับเฟสใหม่ในการแข่งขันโครงสร้างพื้นฐาน AI โดยผู้ให้บริการคลาวด์รายใหญ่และสถาบันวิจัยต่างเตรียมพร้อมที่จะติดตั้งระบบใหม่นี้แล้ว
ก้าวกระโดดทางสถาปัตยกรรมใหม่สำหรับการประมวลผล AI
แพลตฟอร์มใหม่ที่ตั้งชื่อตามนักดาราศาสตร์หญิงชาวอเมริกันผู้บุกเบิก Vera Rubin นี้ แสดงถึงการเปลี่ยนแปลงทางสถาปัตยกรรมแบบองค์รวม มันไม่ใช่แค่ GPU ใหม่ แต่เป็นระบบที่ประกอบด้วยชิปที่แตกต่างกันหกชนิด ซึ่งออกแบบมาให้ทำงานประสานกัน หัวใจหลักของระบบคือ GPU Rubin และ CPU Vera ตัวใหม่ ซึ่ง CPU ตัวหลังนี้ออกแบบมาโดยเฉพาะสำหรับ "การให้เหตุผลแบบเอเจนต์" ซึ่งเป็นความสามารถที่สำคัญสำหรับ AI ที่สามารถวางแผนและดำเนินงานหลายขั้นตอนได้ เพื่อเอาชนะปัญหาคอขวดด้านหน่วยความจำและการเคลื่อนย้ายข้อมูลที่รบกวนระบบ AI สมัยใหม่ Nvidia ยังได้แนะนำเลเยอร์จัดเก็บข้อมูลภายนอกใหม่และอัปเกรดเทคโนโลยีการเชื่อมต่อ Bluefield และ NVLink ของตนอีกด้วย แนวทางแบบบูรณาการนี้มีเป้าหมายเพื่อจัดหาแพลตฟอร์มที่มีความสมดุลและมีประสิทธิภาพมากขึ้นสำหรับงาน AI ขนาดใหญ่รุ่นต่อไป
ส่วนประกอบสถาปัตยกรรมแพลตฟอร์ม
- Rubin GPU: หน่วยประมวลผลกราฟิกหลัก
- Vera CPU: หน่วยประมวลผลกลางรุ่นใหม่ที่ออกแบบมาสำหรับ "Agentic Reasoning"
- Enhanced Interconnects: เทคโนโลยี NVLink (รุ่นที่ 6) และเทคโนโลยีสวิตช์ที่ได้รับการอัปเกรด
- Enhanced Data Processing: ระบบ Bluefield ที่ได้รับการอัปเกรด
- New Memory Hierarchy: ชั้นเก็บข้อมูลภายนอกสำหรับการขยาย KV cache ที่มีประสิทธิภาพ
- (ประเภทชิปเฉพาะที่หกไม่มีรายละเอียดในบทความที่ให้มา)
การอ้างสิทธิ์ด้านประสิทธิภาพและประสิทธิภาพตั้งมาตรฐานใหม่
การอ้างสิทธิ์ด้านประสิทธิภาพของ Nvidia สำหรับแพลตฟอร์ม Rubin นั้นมีนัยสำคัญ บ่งชี้ถึงก้าวกระโดดของรุ่นที่ชัดเจนเหนือสถาปัตยกรรม Blackwell ในปัจจุบัน ตามข้อมูลของบริษัท Rubin บรรลุความเร็วที่เพิ่มขึ้น 3.5 เท่าในงานฝึกอบรมโมเดล AI สำหรับการอนุมาน ซึ่งเป็นกระบวนการรันโมเดลที่ฝึกอบรมมาแล้ว ผลลัพธ์ที่ได้ยิ่งเด่นชัดมากขึ้น โดยรายงานว่า Rubin ทำงานเร็วขึ้น 5 เท่าจากรุ่นก่อนหน้า พลังการคำนวณสูงสุดของแพลตฟอร์มอยู่ที่ 50 เพตะฟลอปส์ บางทีสิ่งที่สำคัญกว่าสำหรับผู้ดำเนินการศูนย์ข้อมูล Nvidia ระบุว่าแพลตฟอร์มให้การปรับปรุงประสิทธิภาพต่อวัตต์สำหรับการอนุมานที่ดีขึ้น 8 เท่า การผสมผสานระหว่างความเร็วดิบและประสิทธิภาพนี้ได้รับการออกแบบมาเพื่อจัดการกับโมเดล AI ที่ซับซ้อนมากขึ้นเรื่อยๆ ซึ่งต้องการการประมวลผลและหน่วยความจำจำนวนมหาศาล
ข้อมูลจำเพาะหลักและข้ออ้างด้านประสิทธิภาพ (Rubin เทียบกับ Blackwell)
| เมตริก | ข้ออ้างของ Rubin | การปรับปรุงเมื่อเทียบกับ Blackwell |
|---|---|---|
| ความเร็วการฝึกฝน AI | ไม่ระบุ | เร็วขึ้น 3.5 เท่า |
| ความเร็วการอนุมาน AI | ไม่ระบุ | เร็วขึ้น 5 เท่า |
| คำนวณสูงสุด (พีค) | 50 เพตะฟลอปส์ | ไม่ระบุ |
| ประสิทธิภาพการอนุมานต่อวัตต์ | ไม่ระบุ | ดีขึ้น 8 เท่า |
| ค่าใช้จ่ายในการรันโมเดล | ไม่ระบุ | ประมาณ 1/10 |
| จำนวนชิปสำหรับการฝึกฝน | ไม่ระบุ | ต้องการประมาณ 1/4 |
เน้นเชิงกลยุทธ์ในการลดต้นทุนรวมในการเป็นเจ้าของ
เหนือกว่าประสิทธิภาพดิบแล้ว ข้อความของ Nvidia เน้นย้ำข้อโต้แย้งทางเศรษฐกิจสำหรับการอัปเกรดสู่ Rubin อย่างมาก บริษัทบอกกับนักวิเคราะห์ว่าการรันโมเดล AI บนแพลตฟอร์มใหม่นี้อาจมีต้นทุนประมาณหนึ่งในสิบของสิ่งที่ต้องจ่ายบนระบบ Blackwell ยิ่งไปกว่านั้น การฝึกอบรมโมเดลขนาดใหญ่บางรุ่นอาจต้องการเพียงหนึ่งในสี่ของจำนวนชิปที่จำเป็นกับรุ่นก่อนหน้า การคาดการณ์การลดลงทั้งในค่าใช้จ่ายในการดำเนินงาน (OpEx) และค่าใช้จ่ายลงทุน (CapEx) เหล่านี้เป็นการเคลื่อนไหวเชิงกลยุทธ์เพื่อเสริมสร้างความภักดีของลูกค้า ด้วยการทำให้ฮาร์ดแวร์ของตัวเองมีประสิทธิภาพด้านต้นทุนมากขึ้นอย่างมีนัยสำคัญ Nvidia ตั้งเป้าที่จะยกระดับมาตรฐานสำหรับคู่แข่งและทำให้ลูกค้ายากที่จะพิสูจน์ความเสี่ยงและการลงทุนในการเปลี่ยนไปใช้โซลูชันซิลิคอนทางเลือกหรือที่ออกแบบเอง
การรับนำไปใช้ในระบบนิเวศที่กว้างขวางและภูมิทัศน์การแข่งขัน
แพลตฟอร์ม Vera Rubin ได้รับข้อผูกมัดจากภาคอุตสาหกรรมที่กว้างขวางแล้ว ผู้ให้บริการคลาวด์รายใหญ่เช่น Amazon Web Services (AWS) และ Microsoft พร้อมด้วยบริษัท AI ชั้นนำอย่าง Anthropic และ OpenAI ต่างเตรียมพร้อมที่จะนำชิปเหล่านี้ไปใช้ โครงการเฉพาะได้แก่ศูนย์ข้อมูลใหม่ของ Microsoft ในรัฐจอร์เจียและวิสคอนซิน ซึ่งในที่สุดจะติดตั้งชิป Rubin หลายพันตัว ในภาคส่วนการประมวลผลสมรรถนะสูง ระบบเช่น Blue Lion ของ HPE และซูเปอร์คอมพิวเตอร์ Doudna ที่ Lawrence Berkeley National Laboratory ก็ถูกกำหนดให้ติดตั้งเช่นกัน การรับนำไปใช้ที่กว้างขวางนี้เน้นย้ำถึงการพึ่งพาโซลูชันสำเร็จรูปของ Nvidia อย่างต่อเนื่องของอุตสาหกรรม แม้ว่าบริษัทต่างๆ เช่น OpenAI จะกำลังสำรวจการออกแบบชิปที่กำหนดเองในความร่วมมือกับบริษัทเช่น Broadcom
ผู้ใช้ในระยะเริ่มต้นที่ได้รับการยืนยัน
- บริษัทด้านคลาวด์และ AI: Microsoft, CoreWeave, Amazon Web Services (AWS), Anthropic, OpenAI.
- ระบบ HPC: ซูเปอร์คอมพิวเตอร์ HPE Blue Lion, ซูเปอร์คอมพิวเตอร์ Doudna ของ Lawrence Berkeley National Laboratory
- พันธมิตรด้านซอฟต์แวร์: Red Hat (สำหรับการผสานรวมซอฟต์แวร์ระดับองค์กร)
ไทม์ไลน์การผลิตและผลกระทบต่อตลาด
ในขณะที่ Nvidia ประกาศ "การผลิตเต็มรูปแบบ" นักวิเคราะห์อุตสาหกรรมตีความว่านี่เป็นสัญญาณว่าชิปได้ผ่านขั้นตอนการพัฒนาและการทดสอบที่สำคัญแล้ว บริษัทเคยระบุไว้ก่อนหน้านี้ว่าระบบที่ใช้ Rubin จะเริ่มมาถึงในครึ่งหลังของปี 2026 และการประกาศครั้งนี้ดูเหมือนจะยืนยันว่าไทม์ไลน์นั้นเป็นไปตามแผน สิ่งนี้เป็นที่น่าสังเกตเป็นพิเศษหลังจากที่มีรายงานเกี่ยวกับความล่าช้าของแพลตฟอร์ม Blackwell ในปี 2024 เนื่องจากข้อบกพร่องในการออกแบบเรื่องความร้อน การเพิ่มกำลังการผลิตของ Rubin ที่สำเร็จเป็นสิ่งสำคัญสำหรับ Nvidia ในการรักษาตำแหน่งการครองตลาดที่โดดเด่นท่ามกลางความต้องการการประมวลผล AI ที่รุนแรง การประกาศครั้งนี้ทำหน้าที่เพื่อสร้างความมั่นใจให้กับนักลงทุนและลูกค้าว่าเครื่องยนต์การดำเนินงานของ Nvidia ยังคงทรงพลัง วิวัฒนาการจากผู้จัดหา GPU ไปเป็นสถาปนิกระบบ AI แบบเต็มสแต็ก ซึ่งแพลตฟอร์มแบบบูรณาการของตนกำลังกลายเป็นสิ่งที่แทนที่ได้ยากขึ้นเรื่อยๆ
