การเติบโตแบบทวีคูณของปริมาณงานปัญญาประดิษฐ์กำลังผลักดันโครงสร้างพื้นฐานศูนย์ข้อมูลแบบดั้งเดิมให้ถึงขีดจำกัด บังคับให้อุตสาหกรรมต้องแสวงหาโซลูชันปฏิวัติสำหรับการเชื่อมต่อคลัสเตอร์ GPU ขนาดใหญ่ เมื่อโมเดล AI มีความซับซ้อนมากขึ้นและต้องการ GPU หลายพันตัวเพื่อทำงานเป็นระบบเดียวกัน คอขวดในการสื่อสารข้อมูลได้กลายเป็นอุปสรรคสำคัญต่อประสิทธิภาพและความมีประสิทธิผล
Co-Packaged Optics: การเปลี่ยนแปลงกระบวนทัศน์ในสถาปัตยกรรมศูนย์ข้อมูล
คำตอบของ Nvidia สำหรับความท้าทายนี้มาในรูปแบบของเทคโนโลยี Co-Packaged Optics (CPO) ซึ่งแสดงถึงการเบี่ยงเบนพื้นฐานจากโมดูลออปติคัลแบบเสียบได้แบบดั้งเดิม บริษัทได้ประกาศว่า CPO จะกลายเป็นข้อกำหนดโครงสร้างมากกว่าการปรับปรุงเพิ่มเติมแบบเลือกได้สำหรับศูนย์ข้อมูล AI ในอนาคต เทคโนโลยีนี้แก้ไขข้อจำกัดที่รุนแรงของการเชื่อมต่อแบบทองแดงในปัจจุบัน ซึ่งไม่สามารถใช้งานได้จริงที่ความเร็วเช่น 800 Gb/s ในระยะทางที่ขยายออกไปตามที่ต้องการในการกำหนดค่าคลัสเตอร์ AI สมัยใหม่
นวัตกรรมหลักอยู่ที่การฝังเอนจินแปลงออปติคัลไว้โดยตรงข้าง ๆ switch ASIC ทำให้ไม่จำเป็นต้องให้สัญญาณเดินทางผ่านร่องไฟฟ้ายาวก่อนแปลงเป็นแสง การเปลี่ยนแปลงสถาปัตยกรรมนี้ลดการสูญเสียไฟฟ้าจากประมาณ 22 เดซิเบลเหลือเพียง 4 เดซิเบล พร้อมกับลดการใช้พลังงานต่อพอร์ตจาก 30W เหลือ 9W ผลกระทบขยายออกไปเกินกว่าเพียงการเพิ่มประสิทธิภาพ เนื่องจากการลดลงนี้ขจัดจุดที่อาจเกิดความล้มเหลวจำนวนมากและทำให้การใช้งานการเชื่อมต่อออปติคัลง่ายขึ้นอย่างมาก
การเปรียบเทียบ CPO กับโมดูลแบบเสียบได้แบบดั้งเดิม
- การสูญเสียไฟฟ้า: 4 dB ( CPO ) เทียบกับ 22 dB (แบบดั้งเดิม)
- การใช้พลังงาน: 9W ต่อพอร์ต ( CPO ) เทียบกับ 30W ต่อพอร์ต (แบบดั้งเดิม)
- ประสิทธิภาพการใช้พลังงาน: ปรับปรุงดีขึ้น 3.5 เท่าด้วย CPO
- ความสมบูรณ์ของสัญญาณ: ดีกว่า 64 เท่าด้วย CPO
- ความน่าเชื่อถือ: ปรับปรุงดีขึ้น 10 เท่าเนื่องจากมีส่วนประกอบที่ทำงานน้อยลง
- ความเร็วในการติดตั้ง: เร็วขึ้นประมาณ 30% ด้วย CPO
![]() |
---|
การเปรียบเทียบเทคโนโลยีออปติกส์แบบดั้งเดิมและแบบ co-packaged ที่เน้นการปรับปรุงความสมบูรณ์ของสัญญาณ |
Quantum-X InfiniBand: การนิยามประสิทธิภาพเครือข่ายใหม่
กำหนดการในช่วงต้นปี 2026 สวิตช์ Quantum-X InfiniBand ของ Nvidia จะส่งมอบความสามารถในการส่งผ่านข้อมูลที่ไม่เคยมีมาก่อนที่ 115 Tb/s ต่อสวิตช์ แต่ละหน่วยรองรับ 144 พอร์ตที่ทำงานที่ 800 Gb/s สร้างโซลูชันเครือข่ายความหนาแน่นสูงที่ออกแบบมาโดยเฉพาะสำหรับการปรับใช้ AI ขนาดใหญ่ การรวม ASIC เฉพาะทางที่มีความสามารถในการประมวลผลในเครือข่าย 14.4 TFLOPS แสดงถึงความก้าวหน้าที่สำคัญในสถาปัตยกรรมการประมวลผลแบบกระจาย
สวิตช์รวม Scalable Hierarchical Aggregation Reduction Protocol (SHARP) รุ่นที่สี่ของ Nvidia ซึ่งเพิ่มประสิทธิภาพการดำเนินการแบบรวมและลดเวลาแฝงในสถานการณ์การประมวลผลแบบกระจาย เนื่องจากความต้องการประสิทธิภาพที่รุนแรง สวิตช์เหล่านี้จะต้องใช้ระบบระบายความร้อนด้วยของเหลวเพื่อรักษาอุณหภูมิการทำงานที่เหมาะสมภายใต้สภาวะการส่งผ่านข้อมูลสูง
ข้อมูลจำเพาะของ Quantum-X InfiniBand Switch
- อัตราการส่งข้อมูล: 115 Tb/s ต่อสวิตช์
- การกำหนดค่าพอร์ต: 144 พอร์ตที่ความเร็ว 800 Gb/s แต่ละพอร์ต
- พลังการประมวลผล: 14.4 TFLOPS การประมวลผลในเครือข่าย
- การรองรับโปรโตคอล: SHARP รุ่นที่ 4
- ระบบระบายความร้อน: ต้องใช้ระบบระบายความร้อนด้วยของเหลว
- กำหนดการเปิดตัว: ต้นปี 2026
![]() |
---|
NVIDIA Quantum-X Photonics และ Spectrum-X Photonics ปฏิวัติประสิทธิภาพเครือข่ายสำหรับโครงสร้างพื้นฐาน AI |
Spectrum-X Photonics: วิวัฒนาการ Ethernet สำหรับปริมาณงาน AI
ครึ่งหลังของปี 2026 จะเห็นการแนะนำแพลตฟอร์ม Spectrum-X Photonics ของ Nvidia ซึ่งนำเทคโนโลยี CPO มาสู่เครือข่าย Ethernet สร้างขึ้นรอบ Spectrum-6 ASIC แพลตฟอร์มนี้จะเสนอการกำหนดค่าที่แตกต่างกันสองแบบเพื่อรองรับขนาดการปรับใช้ที่หลากหลาย โมเดล SN6810 ให้แบนด์วิดท์ 102.4 Tb/s ผ่าน 128 พอร์ตที่ 800 Gb/s ในขณะที่ SN6800 ที่ใหญ่กว่าขยายขนาดอย่างมากถึง 409.6 Tb/s ด้วย 512 พอร์ตที่ความเร็วต่อพอร์ตเดียวกัน
แนวทางที่เน้น Ethernet นี้รับประกันความเข้ากันได้กับโครงสร้างพื้นฐานศูนย์ข้อมูลที่มีอยู่ในขณะที่ให้การปรับปรุงประสิทธิภาพที่จำเป็นสำหรับแอปพลิเคชัน AI รุ่นต่อไป เช่นเดียวกับคู่หู InfiniBand แพลตฟอร์ม Spectrum-X จะใช้การระบายความร้อนด้วยของเหลวเพื่อจัดการกับความต้องการความร้อนของการทำงานประสิทธิภาพสูง
รุ่นของแพลตฟอร์ม Spectrum-X Photonics
- SN6810: แบนด์วิดท์ 102.4 Tb/s, 128 พอร์ตที่ 800 Gb/s
- SN6800: แบนด์วิดท์ 409.6 Tb/s, 512 พอร์ตที่ 800 Gb/s
- กำหนดการเปิดตัว: ครึ่งหลังของปี 2026
- การระบายความร้อน: ระบบระบายความร้อนด้วยของเหลว
- เทคโนโลยี: ใช้ ASIC Spectrum-6 เป็นฐาน
ความร่วมมือ TSMC: รากฐานของนวัตกรรมออปติคัล
แผนงาน CPO ของ Nvidia สอดคล้องอย่างใกล้ชิดกับการพัฒนาแพลตฟอร์ม Compact Universal Photonic Engine (COUPE) ของ TSMC ความร่วมมือนี้เป็นไปตามวิวัฒนาการสามขั้นตอนที่เริ่มต้นด้วยเอนจินออปติคัลสำหรับตัวเชื่อมต่อ OSFP ที่ส่งมอบอัตราการถ่ายโอนข้อมูล 1.6 Tb/s รุ่นที่สองรวมการบรรจุ CoWoS กับออปติคัลแบบร่วมบรรจุ เปิดใช้งาน 6.4 Tb/s ในระดับเมนบอร์ด รุ่นที่สามสุดท้ายมีเป้าหมาย 12.8 Tb/s ภายในแพ็คเกจโปรเซสเซอร์ในขณะที่ลดการใช้พลังงานและเวลาแฝงเพิ่มเติม
เทคโนโลยี COUPE รุ่นแรกของ TSMC รวมวงจรรวมอิเล็กทรอนิกส์ 65nm กับวงจรรวมโฟโตนิกส์โดยใช้เทคโนโลยีการบรรจุ SoIC-X ของบริษัท รากฐานนี้ให้ความสามารถในการผลิตที่จำเป็นเพื่อบรรลุเป้าหมายประสิทธิภาพที่ทะเยอทะยานของ Nvidia
แผนงานพัฒนาแพลตฟอร์ม TSMC COUPE
- รุ่นที่ 1: 1.6 Tb/s สำหรับตัวเชื่อมต่อ OSFP
- รุ่นที่ 2: 6.4 Tb/s ด้วยบรรจุภัณฑ์ CoWoS
- รุ่นที่ 3: 12.8 Tb/s ภายในแพ็คเกจโปรเซสเซอร์
- เทคโนโลยี: 65nm EIC + PIC โดยใช้บรรจุภัณฑ์ SoIC-X
ผลกระทบต่อการแข่งขันและการตอบสนองของอุตสาหกรรม
การแนะนำเทคโนโลยี CPO ทำให้ Nvidia อยู่ในตำแหน่งที่จะรักษาการครอบงำในโครงสร้างพื้นฐาน AI ในขณะที่สร้างข้อได้เปรียบในการแข่งขันใหม่เหนือคู่แข่งเช่น AMD การปรับปรุงอย่างมากในประสิทธิภาพ ความน่าเชื่อถือ และความสามารถในการขยายขนาดที่ CPO เปิดใช้งานอาจกลายเป็นปัจจัยตัดสินใจในการปรับใช้ AI ขนาดใหญ่ Nvidia อ้างว่าเมื่อเปรียบเทียบกับโมดูลแบบเสียบได้ เทคโนโลยี CPO ให้ประสิทธิภาพพลังงานที่ดีกว่า 3.5 เท่า ความสมบูรณ์ของสัญญาณที่ดีขึ้น 64 เท่า ความยืดหยุ่นมากกว่า 10 เท่าเนื่องจากมีส่วนประกอบที่ใช้งานน้อยลง และเวลาการปรับใช้ที่เร็วกว่าประมาณ 30%
อุตสาหกรรมได้สังเกตเห็นการเปลี่ยนแปลงนี้ โดยการซื้อกิจการ Enosemi ของ AMD แสดงถึงการตอบสนองโดยตรงต่อกลยุทธ์การเชื่อมต่อออปติคัลของ Nvidia พลวัตการแข่งขันนี้บ่งชี้ว่าเทคโนโลยี CPO จะกลายเป็นสนามรบสำคัญในตลาดโครงสร้างพื้นฐาน AI พร้อมผลกระทบที่สำคัญสำหรับผู้ดำเนินการศูนย์ข้อมูลและบริษัท AI ที่วางแผนการปรับใช้ขนาดใหญ่
![]() |
---|
ศูนย์ข้อมูลสมัยใหม่ที่แสดงโครงสร้างพื้นฐานทางเทคโนโลยีขั้นสูงที่จำเป็นสำหรับงาน AI |