Qualcomm ท้าทาย NVIDIA และ AMD ด้วยชิป AI ที่ใช้หน่วยความจำจากมือถือสำหรับการประมวลผลเชิงอนุมานระดับแร็ค

ทีมบรรณาธิการ BigGo
Qualcomm ท้าทาย NVIDIA และ AMD ด้วยชิป AI ที่ใช้หน่วยความจำจากมือถือสำหรับการประมวลผลเชิงอนุมานระดับแร็ค

วงการฮาร์ดแวร์ AI ที่ถูกครอบงำมายาวนานโดย NVIDIA และ AMD กำลังมีผู้ท้าทายใหม่ที่กล้าหาญ Qualcomm บริษัทที่เดิมทีเป็นที่รู้จักจากโปรเซสเซอร์สำหรับมือถือ ได้ประกาศเข้าสู่สนามการเร่งความเร็ว AI ระดับแร็คที่มีเดิมพันสูงด้วยชิปรุ่นใหม่ AI200 และ AI250 ในการปรับกลยุทธ์ที่น่าประหลาดใจ บริษัทกำลังหลีกเลี่ยงการใช้ High Bandwidth Memory (HBM) ซึ่งเป็นมาตรฐานในอุตสาหกรรม และหันมาใช้หน่วยความจำ LPDDR ที่พัฒนามาจากมือแทน โดยมีเป้าหมายเพื่อสร้างตำแหน่งที่มั่นคงในตลาดการประมวลผลเชิงอนุมาน (AI Inferencing) ที่กำลังเติบโตอย่างรวดเร็ว ด้วยการมุ่งเน้นที่ประสิทธิภาพการใช้พลังงานและต้นทุน

แร็กเซิร์ฟเวอร์ดีไซน์ล้ำสมัยของ Qualcomm เน้นย้ำการเข้าสู่ตลาดฮาร์ดแวร์ AI ด้วยชิปนวัตกรรม AI200 และ AI250
แร็กเซิร์ฟเวอร์ดีไซน์ล้ำสมัยของ Qualcomm เน้นย้ำการเข้าสู่ตลาดฮาร์ดแวร์ AI ด้วยชิปนวัตกรรม AI200 และ AI250

การปรับเปลี่ยนสถาปัตยกรรมที่กล้าหาญ สู่หน่วยความจำจากมือถือ

การเปลี่ยนแปลงที่สำคัญที่สุดของ Qualcomm จากมาตรฐานเดิมอยู่ที่สถาปัตยกรรมหน่วยความจำ ในขณะที่คู่แข่งอย่าง NVIDIA และ AMD พึ่งพา High Bandwidth Memory (HBM) สำหรับการส่งผ่านข้อมูลปริมาณมหาศาล ชิป AI ใหม่ของ Qualcomm ติดตั้งหน่วยความจำ LPDDR ไว้สูงสุดถึง 768 GB แนวทาง near-memory นี้เป็นการเดิมพันที่คำนวณมาอย่างดีสำหรับความต้องการเฉพาะด้านของการประมวลผลเชิงอนุมานของ AI ซึ่งขนาดโมเดลที่ใหญ่โตและความจุของหน่วยความจำอาจมีความสำคัญมากกว่าความเร็วในการส่งข้อมูลดิบ บริษัทกล่าวอ้างถึงข้อได้เปรียบหลักหลายประการของการออกแบบนี้ รวมถึง ประสิทธิภาพการใช้พลังงานที่ยอดเยี่ยมด้วยการดึงไฟต่อบิตที่ต่ำกว่า โครงสร้างต้นทุนที่ดึงดูดมากขึ้นเมื่อเทียบกับโมดูล HBM ที่มีราคาแพง และความหนาแน่นของหน่วยความจำที่สูงกว่า ซึ่งเหมาะสำหรับการเก็บโมเดล AI ขนาดใหญ่ให้พร้อมสำหรับงานอนุมาน นอกจากนี้ หน่วยความจำ LPDDR ยังสร้างความร้อนน้อยกว่า HBM ซึ่งช่วยให้มีประสิทธิภาพทางความร้อนที่ดีขึ้นภายในพื้นที่อันคับแคบของเซิร์ฟเวอร์แร็ค

ข้อมูลจำเพาะและการเปรียบเทียบตัวเร่ง AI ของ Qualcomm

Feature Qualcomm AI200/AI250 Industry Context
ประเภทหน่วยความจำ LPDDR (พัฒนามาจากอุปกรณ์มือถือ) HBM (เช่น ใน GPU ของ NVIDIA/AMD)
หน่วยความจำสูงสุด สูงสุด 768 GB ต่ำกว่า 768 GB ในตัวเร่งคู่แข่ง
ภาระงานเป้าหมาย AI Inferencing AI Training และ Inferencing
ข้อได้เปรียบหลัก ประสิทธิภาพการใช้พลังงาน ต้นทุน ความหนาแน่นของหน่วยความจำสูง แบนด์วิดท์หน่วยความจำสูง
ข้อเสียหลัก แบนด์วิดท์ต่ำกว่า ยังไม่ได้รับการพิสูจน์ในการใช้งานเซิร์ฟเวอร์แบบ 24/7 ต้นทุนสูงกว่า การใช้พลังงานมากกว่า
การใช้พลังงานต่อแร็ก ~160 kW ใกล้เคียงกับแร็ก NVIDIA GB300
ความพร้อมจำหน่าย AI200: 2026, AI250: 2027 -

ตั้งเป้าไปที่ตลาด AI Inferencing ด้วยโซลูชันระดับแร็ค

AI200 และ AI250 ไม่ได้เป็นเพียงชิปเดี่ยวๆ แต่ถูกออกแบบมาให้เป็นหน่วยพื้นฐานสำหรับโซลูชันการประมวลผลเชิงอนุมานระดับแร็คแบบครบวงจร ซึ่งเป็นการวางตำแหน่ง Qualcomm ให้แข่งขันโดยตรงกับผู้เล่นรายใหญ่ที่มีอยู่ซึ่งนำเสนอระบบแบบบูรณาการที่คล้ายกัน จุดขายหลักประการหนึ่งคือการใช้พลังงานของระบบ โดยแร็คเต็มขนาดจะใช้พลังงานประมาณ 160 kW ตัวเลขนี้สามารถแข่งขันได้กับโซลูชันสมัยใหม่อย่างแร็ค GB300 ของ NVIDIA ซึ่งบ่งชี้ว่า Qualcomm จริงจังกับการทำให้มีประสิทธิภาพทัดเทียมกันในตลาดเป้าหมายของตน ชิปเหล่านี้ใช้ประโยชน์จาก Hexagon Neural Processing Units (NPUs) ที่เป็นกรรมสิทธิ์ของ Qualcomm ซึ่งมีการพัฒนาต่อเนื่องในแพลตฟอร์มมือถือและพีซีของบริษัท และตอนนี้กำลังถูกขยายขนาดขึ้นเพื่อใช้งานกับเวิร์กโหลดในดาต้าเซ็นเตอร์ NPU เหล่านี้รองรับรูปแบบข้อมูลขั้นสูงและได้รับการปรับแต่งให้เหมาะสมเฉพาะกับรูปแบบการคำนวณของงานอนุมาน แทนที่จะเป็นเวิร์กโหลดการฝึกโมเดลซึ่งมีลักษณะการทำงานที่ทั่วไปกว่า

การประนีประนอมที่คำนวณแล้ว พร้อมกับข้อจำกัดที่มีอยู่

แนวทางใหม่นี้มาพร้อมกับการประนีประนอม โดยการไม่ใช้ HBM โซลูชันของ Qualcomm ต้องเผชิญกับแบนด์วิธหน่วยความจำที่ต่ำกว่าและความหน่วงที่อาจจะสูงกว่า เนื่องจากอินเทอร์เฟซของ LPDDR ที่แคบกว่าเมื่อเทียบกับ HBM ลักษณะพื้นฐานข้อนี้ทำให้แร็ค AI200 และ AI250 เหมาะสมน้อยกว่าสำหรับความต้องการในการคำนวณที่เข้มข้นของการฝึกโมเดล AI จุดแข็งของพวกมันอยู่ที่การรันโมเดลที่ถูกฝึกไว้แล้วอย่างมีประสิทธิภาพ ซึ่งเป็นส่วนที่ Qualcomm เชื่อว่ากำลังพร้อมสำหรับการเติบโตอย่างมหาศาล อีกจุดหนึ่งที่ต้องพิจารณาคือ การใช้หน่วยความจำระดับมือถือในสภาพแวดล้อมที่ต้องการการทำงานสูง 24/7 และมีความร้อนสูงของเซิร์ฟเวอร์ในดาต้าเซ็นเตอร์ ซึ่งเป็นขอบเขตที่ความน่าเชื่อถือในระยะยาวของมันยังได้รับการพิสูจน์น้อยกว่าหน่วยความจำเซิร์ฟเวอร์เฉพาะทาง

การแข่งขันที่เข้มข้นขึ้นในวงการฮาร์ดแวร์ AI

การเข้ามาของ Qualcomm เป็นสัญญาณของการแตกออกเป็นส่วนๆ เพิ่มเติมในตลาดตัวเร่งความเร็ว AI โดยเข้าร่วมกับผู้เล่นรายอื่นๆ เช่น Intel ที่กำลังเปิดตัวโซลูชันการประมวลผลเชิงอนุมานเฉพาะทางเช่นกัน อุตสาหกรรมกำลังตระหนักว่าแนวทางแบบ one-size-fits-all ที่ใช้ GPU ที่ปรับแต่งสำหรับการฝึกฝนมาทำทุกงาน อาจไม่ใช่เส้นทางที่มีประสิทธิภาพสูงสุด ด้วยการมุ่งเน้นไปที่การประมวลผลเชิงอนุมานด้วยสถาปัตยกรรมฮาร์ดแวร์ที่เป็นเอกลักษณ์ Qualcomm กำลังเดิมพันว่าส่วนสำคัญของการประมวลผล AI ในอนาคตจะถูกทุ่มเทให้กับการให้บริการโมเดล (inferencing) มากกว่าการสร้างโมเดล (training) การวางจำหน่ายเชิงพาณิชย์ของ AI200 มีกำหนดในปี 2026 ตามด้วย AI250 ในปี 2027 ซึ่งทำให้ตลาดมีเวลาในการประเมินข้อกล่าวอ้างเกี่ยวกับประสิทธิภาพต่อดอลลาร์ที่เหนือกว่าของผู้ท้าทายรายใหม่นี้