วงการฮาร์ดแวร์ AI ที่ถูกครอบงำมายาวนานโดย NVIDIA และ AMD กำลังมีผู้ท้าทายใหม่ที่กล้าหาญ Qualcomm บริษัทที่เดิมทีเป็นที่รู้จักจากโปรเซสเซอร์สำหรับมือถือ ได้ประกาศเข้าสู่สนามการเร่งความเร็ว AI ระดับแร็คที่มีเดิมพันสูงด้วยชิปรุ่นใหม่ AI200 และ AI250 ในการปรับกลยุทธ์ที่น่าประหลาดใจ บริษัทกำลังหลีกเลี่ยงการใช้ High Bandwidth Memory (HBM) ซึ่งเป็นมาตรฐานในอุตสาหกรรม และหันมาใช้หน่วยความจำ LPDDR ที่พัฒนามาจากมือแทน โดยมีเป้าหมายเพื่อสร้างตำแหน่งที่มั่นคงในตลาดการประมวลผลเชิงอนุมาน (AI Inferencing) ที่กำลังเติบโตอย่างรวดเร็ว ด้วยการมุ่งเน้นที่ประสิทธิภาพการใช้พลังงานและต้นทุน
![]() |
|---|
| แร็กเซิร์ฟเวอร์ดีไซน์ล้ำสมัยของ Qualcomm เน้นย้ำการเข้าสู่ตลาดฮาร์ดแวร์ AI ด้วยชิปนวัตกรรม AI200 และ AI250 |
การปรับเปลี่ยนสถาปัตยกรรมที่กล้าหาญ สู่หน่วยความจำจากมือถือ
การเปลี่ยนแปลงที่สำคัญที่สุดของ Qualcomm จากมาตรฐานเดิมอยู่ที่สถาปัตยกรรมหน่วยความจำ ในขณะที่คู่แข่งอย่าง NVIDIA และ AMD พึ่งพา High Bandwidth Memory (HBM) สำหรับการส่งผ่านข้อมูลปริมาณมหาศาล ชิป AI ใหม่ของ Qualcomm ติดตั้งหน่วยความจำ LPDDR ไว้สูงสุดถึง 768 GB แนวทาง near-memory นี้เป็นการเดิมพันที่คำนวณมาอย่างดีสำหรับความต้องการเฉพาะด้านของการประมวลผลเชิงอนุมานของ AI ซึ่งขนาดโมเดลที่ใหญ่โตและความจุของหน่วยความจำอาจมีความสำคัญมากกว่าความเร็วในการส่งข้อมูลดิบ บริษัทกล่าวอ้างถึงข้อได้เปรียบหลักหลายประการของการออกแบบนี้ รวมถึง ประสิทธิภาพการใช้พลังงานที่ยอดเยี่ยมด้วยการดึงไฟต่อบิตที่ต่ำกว่า โครงสร้างต้นทุนที่ดึงดูดมากขึ้นเมื่อเทียบกับโมดูล HBM ที่มีราคาแพง และความหนาแน่นของหน่วยความจำที่สูงกว่า ซึ่งเหมาะสำหรับการเก็บโมเดล AI ขนาดใหญ่ให้พร้อมสำหรับงานอนุมาน นอกจากนี้ หน่วยความจำ LPDDR ยังสร้างความร้อนน้อยกว่า HBM ซึ่งช่วยให้มีประสิทธิภาพทางความร้อนที่ดีขึ้นภายในพื้นที่อันคับแคบของเซิร์ฟเวอร์แร็ค
ข้อมูลจำเพาะและการเปรียบเทียบตัวเร่ง AI ของ Qualcomm
| Feature | Qualcomm AI200/AI250 | Industry Context |
|---|---|---|
| ประเภทหน่วยความจำ | LPDDR (พัฒนามาจากอุปกรณ์มือถือ) | HBM (เช่น ใน GPU ของ NVIDIA/AMD) |
| หน่วยความจำสูงสุด | สูงสุด 768 GB | ต่ำกว่า 768 GB ในตัวเร่งคู่แข่ง |
| ภาระงานเป้าหมาย | AI Inferencing | AI Training และ Inferencing |
| ข้อได้เปรียบหลัก | ประสิทธิภาพการใช้พลังงาน ต้นทุน ความหนาแน่นของหน่วยความจำสูง | แบนด์วิดท์หน่วยความจำสูง |
| ข้อเสียหลัก | แบนด์วิดท์ต่ำกว่า ยังไม่ได้รับการพิสูจน์ในการใช้งานเซิร์ฟเวอร์แบบ 24/7 | ต้นทุนสูงกว่า การใช้พลังงานมากกว่า |
| การใช้พลังงานต่อแร็ก | ~160 kW | ใกล้เคียงกับแร็ก NVIDIA GB300 |
| ความพร้อมจำหน่าย | AI200: 2026, AI250: 2027 | - |
ตั้งเป้าไปที่ตลาด AI Inferencing ด้วยโซลูชันระดับแร็ค
AI200 และ AI250 ไม่ได้เป็นเพียงชิปเดี่ยวๆ แต่ถูกออกแบบมาให้เป็นหน่วยพื้นฐานสำหรับโซลูชันการประมวลผลเชิงอนุมานระดับแร็คแบบครบวงจร ซึ่งเป็นการวางตำแหน่ง Qualcomm ให้แข่งขันโดยตรงกับผู้เล่นรายใหญ่ที่มีอยู่ซึ่งนำเสนอระบบแบบบูรณาการที่คล้ายกัน จุดขายหลักประการหนึ่งคือการใช้พลังงานของระบบ โดยแร็คเต็มขนาดจะใช้พลังงานประมาณ 160 kW ตัวเลขนี้สามารถแข่งขันได้กับโซลูชันสมัยใหม่อย่างแร็ค GB300 ของ NVIDIA ซึ่งบ่งชี้ว่า Qualcomm จริงจังกับการทำให้มีประสิทธิภาพทัดเทียมกันในตลาดเป้าหมายของตน ชิปเหล่านี้ใช้ประโยชน์จาก Hexagon Neural Processing Units (NPUs) ที่เป็นกรรมสิทธิ์ของ Qualcomm ซึ่งมีการพัฒนาต่อเนื่องในแพลตฟอร์มมือถือและพีซีของบริษัท และตอนนี้กำลังถูกขยายขนาดขึ้นเพื่อใช้งานกับเวิร์กโหลดในดาต้าเซ็นเตอร์ NPU เหล่านี้รองรับรูปแบบข้อมูลขั้นสูงและได้รับการปรับแต่งให้เหมาะสมเฉพาะกับรูปแบบการคำนวณของงานอนุมาน แทนที่จะเป็นเวิร์กโหลดการฝึกโมเดลซึ่งมีลักษณะการทำงานที่ทั่วไปกว่า
การประนีประนอมที่คำนวณแล้ว พร้อมกับข้อจำกัดที่มีอยู่
แนวทางใหม่นี้มาพร้อมกับการประนีประนอม โดยการไม่ใช้ HBM โซลูชันของ Qualcomm ต้องเผชิญกับแบนด์วิธหน่วยความจำที่ต่ำกว่าและความหน่วงที่อาจจะสูงกว่า เนื่องจากอินเทอร์เฟซของ LPDDR ที่แคบกว่าเมื่อเทียบกับ HBM ลักษณะพื้นฐานข้อนี้ทำให้แร็ค AI200 และ AI250 เหมาะสมน้อยกว่าสำหรับความต้องการในการคำนวณที่เข้มข้นของการฝึกโมเดล AI จุดแข็งของพวกมันอยู่ที่การรันโมเดลที่ถูกฝึกไว้แล้วอย่างมีประสิทธิภาพ ซึ่งเป็นส่วนที่ Qualcomm เชื่อว่ากำลังพร้อมสำหรับการเติบโตอย่างมหาศาล อีกจุดหนึ่งที่ต้องพิจารณาคือ การใช้หน่วยความจำระดับมือถือในสภาพแวดล้อมที่ต้องการการทำงานสูง 24/7 และมีความร้อนสูงของเซิร์ฟเวอร์ในดาต้าเซ็นเตอร์ ซึ่งเป็นขอบเขตที่ความน่าเชื่อถือในระยะยาวของมันยังได้รับการพิสูจน์น้อยกว่าหน่วยความจำเซิร์ฟเวอร์เฉพาะทาง
การแข่งขันที่เข้มข้นขึ้นในวงการฮาร์ดแวร์ AI
การเข้ามาของ Qualcomm เป็นสัญญาณของการแตกออกเป็นส่วนๆ เพิ่มเติมในตลาดตัวเร่งความเร็ว AI โดยเข้าร่วมกับผู้เล่นรายอื่นๆ เช่น Intel ที่กำลังเปิดตัวโซลูชันการประมวลผลเชิงอนุมานเฉพาะทางเช่นกัน อุตสาหกรรมกำลังตระหนักว่าแนวทางแบบ one-size-fits-all ที่ใช้ GPU ที่ปรับแต่งสำหรับการฝึกฝนมาทำทุกงาน อาจไม่ใช่เส้นทางที่มีประสิทธิภาพสูงสุด ด้วยการมุ่งเน้นไปที่การประมวลผลเชิงอนุมานด้วยสถาปัตยกรรมฮาร์ดแวร์ที่เป็นเอกลักษณ์ Qualcomm กำลังเดิมพันว่าส่วนสำคัญของการประมวลผล AI ในอนาคตจะถูกทุ่มเทให้กับการให้บริการโมเดล (inferencing) มากกว่าการสร้างโมเดล (training) การวางจำหน่ายเชิงพาณิชย์ของ AI200 มีกำหนดในปี 2026 ตามด้วย AI250 ในปี 2027 ซึ่งทำให้ตลาดมีเวลาในการประเมินข้อกล่าวอ้างเกี่ยวกับประสิทธิภาพต่อดอลลาร์ที่เหนือกว่าของผู้ท้าทายรายใหม่นี้

