JEDEC เปิดตัวสเปค HBM4: เพิ่มความจุมหาศาลและความเร็ว 6.4 GT/s สำหรับ AI รุ่นถัดไป

BigGo Editorial Team
JEDEC เปิดตัวสเปค HBM4: เพิ่มความจุมหาศาลและความเร็ว 6.4 GT/s สำหรับ AI รุ่นถัดไป

JEDEC เปิดเผยข้อมูลเบื้องต้นของ HBM4

สมาคม JEDEC Solid State Technology ได้เปิดเผยข้อมูลจำเพาะเบื้องต้นสำหรับหน่วยความจำแบนด์วิดท์สูง (HBM) รุ่นที่ 4 หรือ HBM4 ซึ่งถือเป็นก้าวสำคัญของเทคโนโลยีหน่วยความจำสำหรับการประมวลผล AI และการคำนวณประสิทธิภาพสูง

จุดเด่นสำคัญของ HBM4:

  • เพิ่มความจุ: รองรับชั้นความจุ 24 Gb และ 32 Gb
  • การกำหนดค่าที่ยืดหยุ่น: สแต็ค TSV แบบ 4 ชั้น, 8 ชั้น, 12 ชั้น และ 16 ชั้น
  • ปรับปรุงความเร็ว: ความเร็วเริ่มต้นสูงสุด 6.4 GT/s
  • อินเตอร์เฟซกว้างขึ้น: อินเตอร์เฟซ 2048 บิตต่อสแต็ค
  • จำนวนช่องสัญญาณเพิ่มขึ้นเป็นสองเท่า: เมื่อเทียบกับ HBM3

ศักยภาพหน่วยความจำขนาดใหญ่

ข้อมูลจำเพาะใหม่นี้ช่วยให้มีความจุหน่วยความจำที่ไม่เคยมีมาก่อน สแต็คแบบ 16 ชั้นที่ใช้ชั้น 32 Gb สามารถให้หน่วยความจำมหาศาลถึง 64 GB ต่อสแต็ค นั่นหมายความว่าโปรเซสเซอร์ที่ติดตั้งโมดูล HBM4 จำนวน 4 ตัวอาจรองรับหน่วยความจำได้สูงถึง 256 GB โดยมีแบนด์วิดท์สูงสุดทางทฤษฎีที่ 6.56 TB/s ด้วยอินเตอร์เฟซ 8,192 บิต

ภาพนี้แสดงให้เห็นถึงการออกแบบที่ซับซ้อนของสถาปัตยกรรม GPU สมัยใหม่ ซึ่งแสดงให้เห็นถึงศักยภาพในการมีความจุหน่วยความจำขนาดใหญ่ด้วยการนำเทคโนโลยี HBM4 มาใช้
ภาพนี้แสดงให้เห็นถึงการออกแบบที่ซับซ้อนของสถาปัตยกรรม GPU สมัยใหม่ ซึ่งแสดงให้เห็นถึงศักยภาพในการมีความจุหน่วยความจำขนาดใหญ่ด้วยการนำเทคโนโลยี HBM4 มาใช้

ความเข้ากันได้และการผลิต

แม้ว่า HBM4 จะต้องการพื้นที่ทางกายภาพที่ใหญ่กว่ารุ่นก่อนหน้า แต่ JEDEC ได้รับรองความเข้ากันได้ในระดับหนึ่งโดยอนุญาตให้ตัวควบคุมเดียวสามารถทำงานได้ทั้งกับ HBM3 และ HBM4 อย่างไรก็ตาม จำเป็นต้องใช้ interposer ที่แตกต่างกันเพื่อรองรับขนาดต่างๆ

TSMC ได้ยืนยันว่าจะใช้เทคโนโลยีกระบวนการผลิต 12FFC+ (ระดับ 12 นาโนเมตร) และ N5 (ระดับ 5 นาโนเมตร) ในการผลิตชิปฐานของ HBM4 โดยเฉพาะกระบวนการ N5 จะช่วยให้สามารถรวมลอจิกและคุณสมบัติที่สำคัญสำหรับการรวมบนชิปได้มากขึ้น

มุ่งเน้นที่ AI และ HPC

HBM4 ถูกออกแบบมาเพื่อตอบสนองความต้องการที่เพิ่มขึ้นของ AI แบบสร้างสรรค์และการคำนวณประสิทธิภาพสูง แอปพลิเคชันเหล่านี้ต้องการการจัดการชุดข้อมูลขนาดใหญ่และการคำนวณที่ซับซ้อนอย่างมีประสิทธิภาพ ดังนั้น จึงไม่น่าเป็นไปได้ที่เราจะเห็น HBM4 ในผลิตภัณฑ์ระดับผู้บริโภค เช่น การ์ดกราฟิกในอนาคตอันใกล้นี้

ความร่วมมือในอุตสาหกรรม

การพัฒนา HBM4 ได้กระตุ้นให้เกิดความร่วมมือในอุตสาหกรรมเซมิคอนดักเตอร์ ความร่วมมือที่น่าสนใจรวมถึง SK hynix และ TSMC ที่ทำงานร่วมกันในการพัฒนาชิปฐานของ HBM4 และมีข่าวลือเกี่ยวกับพันธมิตรสามเส้าระหว่าง SK hynix, TSMC และ NVIDIA สำหรับตัวเร่งความเร็ว AI ในอนาคต

มองไปข้างหน้า

แม้ว่าข้อมูลจำเพาะปัจจุบันจะเป็นเพียงข้อมูลเบื้องต้น แต่การหารือยังคงดำเนินอยู่เกี่ยวกับความเป็นไปได้ในการบรรลุอัตราการถ่ายโอนข้อมูลที่สูงขึ้น อุตสาหกรรมกำลังรอคอยการสรุปมาตรฐาน HBM4 และการเปิดตัวในตลาดอย่างใจจดใจจ่อ ซึ่งสัญญาว่าจะปลดล็อกความเป็นไปได้ใหม่ๆ ในด้าน AI และการคำนวณประสิทธิภาพสูง