AMD กำลังส่งสัญญาณที่แข็งแกร่งในตลาดตัวเร่ง AI ด้วยซีรีส์ Instinct MI400 ที่กำลังจะมาถึง โดยสัญญาว่าจะเพิ่มประสิทธิภาพการคำนวณเป็นสองเท่าพร้อมกับการนำเสนอเทคโนโลยีหน่วยความจำที่ล้ำสมัย การประกาศครั้งนี้เกิดขึ้นในขณะที่บริษัทกำลังมองหาทางท้าทายการครอบงำของ NVIDIA ในตลาด GPU ศูนย์ข้อมูล โดยมี Sam Altman ซีอีโอของ OpenAI สนับสนุนข้อกำหนดที่ทะเยอทะยานนี้โดยตรง
ความก้าวหน้าด้านประสิทธิภาพที่ปฏิวัติวงการด้วยความสามารถ 40 PFLOPs
Instinct MI400 เป็นตัวแทนของความก้าวหน้าทางสถาปัตยกรรมที่สำคัญ โดยส่งมอบประสิทธิภาพการคำนวณ FP4 ที่ 40 PFLOPs และประสิทธิภาพ FP8 ที่ 20 PFLOPs ซึ่งเป็นการเพิ่มความสามารถในการคำนวณเป็นสองเท่าเมื่อเปรียบเทียบกับซีรีส์ MI350 ปัจจุบัน ตัวเร่งจะมี XCDs (Accelerated Compute Dies) สูงสุดสี่ตัวข้าม AIDs (Active Interposer Dies) สองตัว ซึ่งเป็นการเพิ่มขึ้นอย่างมากจากการกำหนดค่า XCDs สองตัวต่อ AID ที่พบในรุ่น MI300 สถาปัตยกรรมที่ได้รับการปรับปรุงนี้จะถูกสร้างบนแพลตฟอร์ม CDNA-Next ของ AMD ซึ่งอาจจะถูกเปลี่ยนชื่อเป็น UDNA ในที่สุดเป็นส่วนหนึ่งของกลยุทธ์ของบริษัทในการรวมสถาปัตยกรรม RDNA และ CDNA เข้าด้วยกัน
การเปรียบเทียบประสิทธิภาพ AMD Instinct MI400 กับ MI350
รายละเอียด | MI400 (2026) | MI350 (2025) | การปรับปรุง |
---|---|---|---|
การคำนวณ FP4 | 40 PFLOPs | 20 PFLOPs | เพิ่มขึ้น 2 เท่า |
การคำนวณ FP8 | 20 PFLOPs | 10 PFLOPs | เพิ่มขึ้น 2 เท่า |
ความจุหน่วยความจำ | 432GB HBM4 | 288GB HBM3e | เพิ่มขึ้น 50% |
แบนด์วิดท์หน่วยความจำ | 19.6 TB/s | 8.0 TB/s | เพิ่มขึ้น 2.45 เท่า |
XCDs ต่อตัวเร่ง | 8 (4 ต่อ AID) | 8 (4 ต่อ AID) | เท่าเดิม |
AIDs ต่อตัวเร่ง | 2 | 2 | เท่าเดิม |
เทคโนโลยีหน่วยความจำ HBM4 ส่งมอบแบนด์วิดท์ที่ไม่เคยมีมาก่อน
ประสิทธิภาพหน่วยความจำได้รับการปรับปรุงอย่างมากด้วยการรวมเทคโนโลยี HBM4 ที่ให้หน่วยความจำความเร็วสูง 432GB เมื่อเปรียบเทียบกับการกำหนดค่า HBM3e ขนาด 288GB ของ MI350 การปรับปรุงแบนด์วิดท์ยิ่งน่าประทับใจมากกว่า โดยเพิ่มขึ้นจาก 8TB/s เป็น 19.6TB/s ที่น่าทึ่ง ซึ่งเป็นการเพิ่มขึ้นมากกว่า 2.4 เท่า การปรับปรุงแบนด์วิดท์หน่วยความจำครั้งใหญ่นี้แก้ไขหนึ่งในคอขวดที่สำคัญในภาระงาน AI โดยเฉพาะสำหรับงานอนุมานที่ต้องการการเข้าถึงโมเดลภาษาขนาดใหญ่อย่างรวดเร็ว MI400 จะมีแบนด์วิดท์ scale-out 300GB/s ต่อ GPU ด้วย ซึ่งช่วยให้การสื่อสารมีประสิทธิภาพในการปรับใช้ขนาดใหญ่
ระบบ Helios Rack-Scale มุ่งเป้าการปรับใช้ในองค์กร
AMD กำลังวางตำแหน่ง MI400 ภายในระบบ Helios rack-scale ที่ครอบคลุม ซึ่งออกแบบมาให้ทำงานเป็นแพลตฟอร์มการคำนวณแบบรวมเป็นหนึ่งเดียวมากกว่าเป็นส่วนประกอบแยกต่างหาก ซีอีโอ Lisa Su เน้นย้ำว่านี่เป็นครั้งแรกที่ AMD ออกแบบทุกส่วนประกอบของแร็คเป็นระบบรวมเป็นหนึ่งเดียว แนวทางนี้แข่งขันโดยตรงกับระบบแร็ค Vera Rubin ที่กำลังจะมาถึงของ NVIDIA และตอบสนองความต้องการของลูกค้า hyperscale ที่ต้องการการรวมเข้าด้วยกันอย่างราบรื่นทั่วทั้งคลัสเตอร์ศูนย์ข้อมูล ระบบนี้ใช้เทคโนโลยีเครือข่าย UALink แบบโอเพ่นซอร์สแทนโซลูชันที่เป็นกรรมสิทธิ์ ซึ่งอาจให้ความยืดหยุ่นมากขึ้นแก่ลูกค้าและลดการผูกมัดกับผู้จำหน่าย
ความร่วมมือกับ OpenAI ส่งสัญญาณการยอมรับจากอุตสาหกรรม
การปรากฏตัวของ Sam Altman ซีอีโอ OpenAI ร่วมกับ Lisa Su ในการประกาศให้ความน่าเชื่อถือจากอุตสาหกรรมอย่างมากสำหรับกลยุทธ์ AI ของ AMD การสนับสนุนของ Altman ที่เขายอมรับว่าเริ่มแรกเขาสงสัยเกี่ยวกับข้อกำหนดก่อนที่จะเรียกมันว่าน่าทึ่ง แสดงให้เห็นว่าบริษัท AI ใหญ่ๆ กำลังพิจารณาทางเลือกอื่นจากระบบนิเวศของ NVIDIA อย่างจริงจัง การมีส่วนร่วมของ OpenAI ในการให้ข้อเสนอแนะสำหรับแผนงาน MI400 บ่งชี้ถึงความร่วมมือที่ลึกซึ้งกว่าที่อาจมีอิทธิพลต่อการออกแบบขั้นสุดท้ายของตัวเร่งและการปรับให้เหมาะสมสำหรับภาระงาน AI ในโลกแห่งความเป็นจริง
กลยุทธ์การกำหนดราคาที่แข่งขันได้มุ่งเป้าการเติบโตของส่วนแบ่งตลาด
AMD กำลังวางตำแหน่งซีรีส์ MI400 เป็นทางเลือกที่คุ้มค่าเมื่อเทียบกับผลิตภัณฑ์ของ NVIDIA โดยผู้บริหารบริษัทระบุถึงการกำหนดราคาที่ก้าวร้าวซึ่งออกแบบมาเพื่อครอบครองส่วนแบ่งตลาด บริษัทอ้างว่า MI355X รุ่นก่อนหน้าส่งมอบโทเค็นต่อดอลลาร์มากกว่า 40% เมื่อเปรียบเทียบกับชิปคู่แข่ง ส่วนใหญ่เนื่องจากการใช้พลังงานที่ต่ำกว่า ข้อได้เปรียบด้านต้นทุนนี้มีความสำคัญเป็นพิเศษเมื่อพิจารณาว่า GPU ศูนย์ข้อมูลสามารถมีราคาหลายหมื่นดอลลาร์สหรัฐต่อชิป และบริษัทคลาวด์มักจะซื้อในปริมาณมหาศาล การรวม CPU และชิปเครือข่ายของ AMD จากการซื้อกิจการ Pensando เข้ากับโซลูชันแร็คที่สมบูรณ์อาจให้ประโยชน์ด้านต้นทุนเพิ่มเติมและโอกาสรายได้ทั่วหลายสายผลิตภัณฑ์
แผนงานผลิตภัณฑ์ AMD Instinct Accelerator
รุ่น | สถาปัตยกรรม | ปีเปิดตัว | หน่วยความจำ | ประสิทธิภาพ FP8 | คุณสมบัติหลัก |
---|---|---|---|---|---|
MI250X | CDNA 2 | 2021 | 128GB HBM2e | ไม่มีข้อมูล | รุ่นแรก |
MI300X | CDNA 3 | 2023 | 192GB HBM3 | 2.6 PFLOPs | ออกแบบที่ล้ำสมัย |
MI325X | CDNA 3 | 2024 | 256GB HBM3e | 2.6 PFLOPs | หน่วยความจำที่ปรับปรุงแล้ว |
MI350X | CDNA 4 | 2025 | 288GB HBM3e | 10 PFLOPs | รุ่นปัจจุบัน |
MI400 | CDNA-Next/UDNA | 2026 | 432GB HBM4 | 20 PFLOPs | สถาปัตยกรรมรุ่นใหม่ |
MI500 | UDNA | ยังไม่กำหนด | ยังไม่กำหนด | ยังไม่กำหนด | แผนงานอนาคต |
กำหนดการเปิดตัวปี 2026 สอดคล้องกับการขยายตัวของตลาด
ซีรีส์ MI400 กำหนดจะเปิดตัวในปี 2026 โดยวางตำแหน่งให้ใช้ประโยชน์จากการขยายตัวที่คาดการณ์ไว้ของตลาดชิป AI ซึ่ง AMD ประมาณการว่าจะเกิน 500 พันล้านดอลลาร์สหรัฐภายในปี 2028 กำหนดเวลานี้ช่วยให้บริษัทสามารถใช้ประโยชน์จากกระบวนการผลิตขั้นสูงและเทคโนโลยีหน่วยความจำ HBM4 ที่เป็นผู้ใหญ่ขณะแข่งขันกับผลิตภัณฑ์รุ่นใหม่ของ NVIDIA จังหวะการเปิดตัวประจำปีเป็นตัวแทนของการเปลี่ยนแปลงจากรอบสองปีแบบดั้งเดิม ซึ่งสะท้อนถึงการแข่งขันที่รุนแรงและความก้าวหน้าทางเทคโนโลยีที่รวดเร็วในพื้นที่ตัวเร่ง AI