AMD เปิดตัว Instinct MI400 พร้อมประสิทธิภาพ 40 PFLOPs และหน่วยความจำ HBM4 ขนาด 432GB ซีอีโอ OpenAI สนับสนุนการเปิดตัวในปี 2026

BigGo Editorial Team
AMD เปิดตัว Instinct MI400 พร้อมประสิทธิภาพ 40 PFLOPs และหน่วยความจำ HBM4 ขนาด 432GB ซีอีโอ OpenAI สนับสนุนการเปิดตัวในปี 2026

AMD กำลังส่งสัญญาณที่แข็งแกร่งในตลาดตัวเร่ง AI ด้วยซีรีส์ Instinct MI400 ที่กำลังจะมาถึง โดยสัญญาว่าจะเพิ่มประสิทธิภาพการคำนวณเป็นสองเท่าพร้อมกับการนำเสนอเทคโนโลยีหน่วยความจำที่ล้ำสมัย การประกาศครั้งนี้เกิดขึ้นในขณะที่บริษัทกำลังมองหาทางท้าทายการครอบงำของ NVIDIA ในตลาด GPU ศูนย์ข้อมูล โดยมี Sam Altman ซีอีโอของ OpenAI สนับสนุนข้อกำหนดที่ทะเยอทะยานนี้โดยตรง

ความก้าวหน้าด้านประสิทธิภาพที่ปฏิวัติวงการด้วยความสามารถ 40 PFLOPs

Instinct MI400 เป็นตัวแทนของความก้าวหน้าทางสถาปัตยกรรมที่สำคัญ โดยส่งมอบประสิทธิภาพการคำนวณ FP4 ที่ 40 PFLOPs และประสิทธิภาพ FP8 ที่ 20 PFLOPs ซึ่งเป็นการเพิ่มความสามารถในการคำนวณเป็นสองเท่าเมื่อเปรียบเทียบกับซีรีส์ MI350 ปัจจุบัน ตัวเร่งจะมี XCDs (Accelerated Compute Dies) สูงสุดสี่ตัวข้าม AIDs (Active Interposer Dies) สองตัว ซึ่งเป็นการเพิ่มขึ้นอย่างมากจากการกำหนดค่า XCDs สองตัวต่อ AID ที่พบในรุ่น MI300 สถาปัตยกรรมที่ได้รับการปรับปรุงนี้จะถูกสร้างบนแพลตฟอร์ม CDNA-Next ของ AMD ซึ่งอาจจะถูกเปลี่ยนชื่อเป็น UDNA ในที่สุดเป็นส่วนหนึ่งของกลยุทธ์ของบริษัทในการรวมสถาปัตยกรรม RDNA และ CDNA เข้าด้วยกัน

การเปรียบเทียบประสิทธิภาพ AMD Instinct MI400 กับ MI350

รายละเอียด MI400 (2026) MI350 (2025) การปรับปรุง
การคำนวณ FP4 40 PFLOPs 20 PFLOPs เพิ่มขึ้น 2 เท่า
การคำนวณ FP8 20 PFLOPs 10 PFLOPs เพิ่มขึ้น 2 เท่า
ความจุหน่วยความจำ 432GB HBM4 288GB HBM3e เพิ่มขึ้น 50%
แบนด์วิดท์หน่วยความจำ 19.6 TB/s 8.0 TB/s เพิ่มขึ้น 2.45 เท่า
XCDs ต่อตัวเร่ง 8 (4 ต่อ AID) 8 (4 ต่อ AID) เท่าเดิม
AIDs ต่อตัวเร่ง 2 2 เท่าเดิม

เทคโนโลยีหน่วยความจำ HBM4 ส่งมอบแบนด์วิดท์ที่ไม่เคยมีมาก่อน

ประสิทธิภาพหน่วยความจำได้รับการปรับปรุงอย่างมากด้วยการรวมเทคโนโลยี HBM4 ที่ให้หน่วยความจำความเร็วสูง 432GB เมื่อเปรียบเทียบกับการกำหนดค่า HBM3e ขนาด 288GB ของ MI350 การปรับปรุงแบนด์วิดท์ยิ่งน่าประทับใจมากกว่า โดยเพิ่มขึ้นจาก 8TB/s เป็น 19.6TB/s ที่น่าทึ่ง ซึ่งเป็นการเพิ่มขึ้นมากกว่า 2.4 เท่า การปรับปรุงแบนด์วิดท์หน่วยความจำครั้งใหญ่นี้แก้ไขหนึ่งในคอขวดที่สำคัญในภาระงาน AI โดยเฉพาะสำหรับงานอนุมานที่ต้องการการเข้าถึงโมเดลภาษาขนาดใหญ่อย่างรวดเร็ว MI400 จะมีแบนด์วิดท์ scale-out 300GB/s ต่อ GPU ด้วย ซึ่งช่วยให้การสื่อสารมีประสิทธิภาพในการปรับใช้ขนาดใหญ่

ระบบ Helios Rack-Scale มุ่งเป้าการปรับใช้ในองค์กร

AMD กำลังวางตำแหน่ง MI400 ภายในระบบ Helios rack-scale ที่ครอบคลุม ซึ่งออกแบบมาให้ทำงานเป็นแพลตฟอร์มการคำนวณแบบรวมเป็นหนึ่งเดียวมากกว่าเป็นส่วนประกอบแยกต่างหาก ซีอีโอ Lisa Su เน้นย้ำว่านี่เป็นครั้งแรกที่ AMD ออกแบบทุกส่วนประกอบของแร็คเป็นระบบรวมเป็นหนึ่งเดียว แนวทางนี้แข่งขันโดยตรงกับระบบแร็ค Vera Rubin ที่กำลังจะมาถึงของ NVIDIA และตอบสนองความต้องการของลูกค้า hyperscale ที่ต้องการการรวมเข้าด้วยกันอย่างราบรื่นทั่วทั้งคลัสเตอร์ศูนย์ข้อมูล ระบบนี้ใช้เทคโนโลยีเครือข่าย UALink แบบโอเพ่นซอร์สแทนโซลูชันที่เป็นกรรมสิทธิ์ ซึ่งอาจให้ความยืดหยุ่นมากขึ้นแก่ลูกค้าและลดการผูกมัดกับผู้จำหน่าย

ความร่วมมือกับ OpenAI ส่งสัญญาณการยอมรับจากอุตสาหกรรม

การปรากฏตัวของ Sam Altman ซีอีโอ OpenAI ร่วมกับ Lisa Su ในการประกาศให้ความน่าเชื่อถือจากอุตสาหกรรมอย่างมากสำหรับกลยุทธ์ AI ของ AMD การสนับสนุนของ Altman ที่เขายอมรับว่าเริ่มแรกเขาสงสัยเกี่ยวกับข้อกำหนดก่อนที่จะเรียกมันว่าน่าทึ่ง แสดงให้เห็นว่าบริษัท AI ใหญ่ๆ กำลังพิจารณาทางเลือกอื่นจากระบบนิเวศของ NVIDIA อย่างจริงจัง การมีส่วนร่วมของ OpenAI ในการให้ข้อเสนอแนะสำหรับแผนงาน MI400 บ่งชี้ถึงความร่วมมือที่ลึกซึ้งกว่าที่อาจมีอิทธิพลต่อการออกแบบขั้นสุดท้ายของตัวเร่งและการปรับให้เหมาะสมสำหรับภาระงาน AI ในโลกแห่งความเป็นจริง

กลยุทธ์การกำหนดราคาที่แข่งขันได้มุ่งเป้าการเติบโตของส่วนแบ่งตลาด

AMD กำลังวางตำแหน่งซีรีส์ MI400 เป็นทางเลือกที่คุ้มค่าเมื่อเทียบกับผลิตภัณฑ์ของ NVIDIA โดยผู้บริหารบริษัทระบุถึงการกำหนดราคาที่ก้าวร้าวซึ่งออกแบบมาเพื่อครอบครองส่วนแบ่งตลาด บริษัทอ้างว่า MI355X รุ่นก่อนหน้าส่งมอบโทเค็นต่อดอลลาร์มากกว่า 40% เมื่อเปรียบเทียบกับชิปคู่แข่ง ส่วนใหญ่เนื่องจากการใช้พลังงานที่ต่ำกว่า ข้อได้เปรียบด้านต้นทุนนี้มีความสำคัญเป็นพิเศษเมื่อพิจารณาว่า GPU ศูนย์ข้อมูลสามารถมีราคาหลายหมื่นดอลลาร์สหรัฐต่อชิป และบริษัทคลาวด์มักจะซื้อในปริมาณมหาศาล การรวม CPU และชิปเครือข่ายของ AMD จากการซื้อกิจการ Pensando เข้ากับโซลูชันแร็คที่สมบูรณ์อาจให้ประโยชน์ด้านต้นทุนเพิ่มเติมและโอกาสรายได้ทั่วหลายสายผลิตภัณฑ์

แผนงานผลิตภัณฑ์ AMD Instinct Accelerator

รุ่น สถาปัตยกรรม ปีเปิดตัว หน่วยความจำ ประสิทธิภาพ FP8 คุณสมบัติหลัก
MI250X CDNA 2 2021 128GB HBM2e ไม่มีข้อมูล รุ่นแรก
MI300X CDNA 3 2023 192GB HBM3 2.6 PFLOPs ออกแบบที่ล้ำสมัย
MI325X CDNA 3 2024 256GB HBM3e 2.6 PFLOPs หน่วยความจำที่ปรับปรุงแล้ว
MI350X CDNA 4 2025 288GB HBM3e 10 PFLOPs รุ่นปัจจุบัน
MI400 CDNA-Next/UDNA 2026 432GB HBM4 20 PFLOPs สถาปัตยกรรมรุ่นใหม่
MI500 UDNA ยังไม่กำหนด ยังไม่กำหนด ยังไม่กำหนด แผนงานอนาคต

กำหนดการเปิดตัวปี 2026 สอดคล้องกับการขยายตัวของตลาด

ซีรีส์ MI400 กำหนดจะเปิดตัวในปี 2026 โดยวางตำแหน่งให้ใช้ประโยชน์จากการขยายตัวที่คาดการณ์ไว้ของตลาดชิป AI ซึ่ง AMD ประมาณการว่าจะเกิน 500 พันล้านดอลลาร์สหรัฐภายในปี 2028 กำหนดเวลานี้ช่วยให้บริษัทสามารถใช้ประโยชน์จากกระบวนการผลิตขั้นสูงและเทคโนโลยีหน่วยความจำ HBM4 ที่เป็นผู้ใหญ่ขณะแข่งขันกับผลิตภัณฑ์รุ่นใหม่ของ NVIDIA จังหวะการเปิดตัวประจำปีเป็นตัวแทนของการเปลี่ยนแปลงจากรอบสองปีแบบดั้งเดิม ซึ่งสะท้อนถึงการแข่งขันที่รุนแรงและความก้าวหน้าทางเทคโนโลยีที่รวดเร็วในพื้นที่ตัวเร่ง AI