มูลค่า 8.1 พันล้านดอลลาร์ของ Cerebras จุดประกายการถ่ายเถียงเรื่องเศรษฐศาสตร์ของชิป AI แบบ Wafer-Scale

ทีมชุมชน BigGo
มูลค่า 8.1 พันล้านดอลลาร์ของ Cerebras จุดประกายการถ่ายเถียงเรื่องเศรษฐศาสตร์ของชิป AI แบบ Wafer-Scale

บริษัท Cerebras Systems เพิ่งปิดรอบการระดมทุน Series G มูลค่า 1.1 พันล้านดอลลาร์สหรัฐ ทำให้มูลค่าบริษัทไปถึง 8.1 พันล้านดอลลาร์สหรัฐ แม้ว่าบริษัทจะอ้างว่า wafer-scale engine ของตนเป็นโซลูชัน AI inference ที่เร็วที่สุดที่มีอยู่ แต่ชุมชนเทคโนโลยีกำลังตั้งคำถามว่าเศรษฐศาสตร์ของมันสมเหตุสมผลกับมูลค่าที่สูงมหาศาลเช่นนี้หรือไม่

รายละเอียดการระดมทุนของ Cerebras:

  • การระดมทุนรอบ Series G: 1.1 พันล้านดอลลาร์สหรัฐ
  • มูลค่าบริษัทหลังการระดมทุน: 8.1 พันล้านดอลลาร์สหรัฐ
  • นักลงทุนหลัก: Fidelity Management & Research Company, Atreides Management
  • ผู้เข้าร่วมอื่นๆ: Tiger Global, Valor Equity Partners, 1789 Capital

การแลกเปลี่ยนระหว่างความเร็วกับต้นทุนครอบงำการอภิปราย

ความกังวลหลักของชุมชนมุ่งเน้นไปที่แนวทางของ Cerebras ในการใช้หน่วยความจำ SRAM เพื่อให้ได้ความเร็วในการ inference ที่รวดเร็วอย่างน่าทึ่ง ผู้ใช้รายงานว่าพบกับเวลาตอบสนองที่เร็วขึ้นอย่างมากเมื่อเปรียบเทียบกับโซลูชันที่ใช้ GPU แบบดั้งเดิม โดยบางคนพบว่าความเร็วนั้นน่าสนใจมากจนพวกเขาชอบมันแม้ว่าจะต้องใช้การทำซ้ำหลายครั้งเพื่อให้งานเสร็จสมบูรณ์ อย่างไรก็ตาม ประสิทธิภาพนี้มาพร้อมกับราคาที่สูงลิ่ว ผู้สังเกตการณ์ในอุตสาหกรรมประเมินว่าการรันโมเดลขนาดใหญ่อย่าง Qwen 3 ที่ขนาด context สูงสุดอาจต้องใช้ชิป Cerebras มูลค่ากว่า 100 ล้านดอลลาร์สหรัฐ เมื่อเปรียบเทียบกับเพียง 1 ล้านดอลลาร์สหรัฐสำหรับฮาร์ดแวร์ Nvidia Blackwell ที่เทียบเท่า แม้ว่าจะมีความเร็วที่ช้ากว่า

SRAM (Static Random Access Memory) เร็วกว่าแต่แพงกว่าหน่วยความจำประเภทอื่น ในขณะที่ขนาด context หมายถึงปริมาณข้อความที่โมเดล AI สามารถประมวลผลได้ในครั้งเดียว

การเปรียบเทียบประสิทธิภาพ:

  • ความเร็วในการประมวลผลของ Cerebras : เร็วกว่า GPU ของ Nvidia 20 เท่า
  • Wafer Scale Engine 3 ( WSE-3 ): ใหญ่กว่า GPU ที่ใหญ่ที่สุด 56 เท่า
  • ประมาณการต้นทุนชิป: 2-3 ล้านดอลลาร์สหรัฐต่อชิป Cerebras หนึ่งตัว
  • การเปรียบเทียบต้นทุน: มากกว่า 100 ล้านดอลลาร์สำหรับ Cerebras เทียบกับ 1 ล้านดอลลาร์สำหรับ Nvidia Blackwell (ปริมาณงานเดียวกัน)

ความท้าทายด้านการขยายขนาดทำให้เกิดคำถามเรื่องความยั่งยืนระยะยาว

ผู้เชี่ยวชาญด้านเทคนิคในชุมชนชี้ไปที่ข้อจำกัดพื้นฐานในแนวทาง wafer-scale ของ Cerebras เทคโนโลยี SRAM ได้หยุดการขยายขนาดตามกระบวนการผลิตที่ใหม่กว่าแล้ว ซึ่งอาจจำกัดการปรับปรุงประสิทธิภาพในอนาคต นอกจากนี้ ชิปเหล่านี้ได้รับการออกแบบมาตั้งแต่เดิมก่อนที่จะมีการระเบิดของโมเดลภาษาขนาดใหญ่ ทำให้มันไม่เหมาะสมสำหรับการฝึกระบบ AI ขนาดใหญ่ในปัจจุบัน สถาปัตยกรรมนี้ทำงานได้ดีสำหรับ inference เมื่อโมเดลทั้งหมดพอดีกับชิป แต่จะมีข้อได้เปรียบน้อยลงเมื่อต้องการการเข้าถึงหน่วยความจำภายนอกสำหรับโมเดลที่ใหญ่กว่า

Wafer-scale integration หมายถึงการสร้างโปรเซสเซอร์ทั่วทั้ง silicon wafer แทนที่จะตัดมันเป็นชิปเล็กๆ แยกกัน

ตำแหน่งในตลาดและประสบการณ์ลูกค้าที่หลากหลาย

แม้จะมีความกังวลด้านเทคนิค Cerebras ก็ได้ดึงดูดลูกค้าที่น่าสนใจรวมถึง AWS , Meta และหน่วยงานรัฐบาลต่างๆ บริษัทให้บริการหลายล้านล้าน token ต่อเดือนและติดอันดับเป็นผู้ให้บริการ inference อันดับหนึ่งบน Hugging Face ด้วยคำขอมากกว่า 5 ล้านครั้งต่อเดือน อย่างไรก็ตาม ประสบการณ์ของลูกค้าแตกต่างกันอย่างมีนัยสำคัญ ในขณะที่ผู้ใช้บางคนชื่นชมความเร็วที่น่าทึ่งสำหรับงานง่ายๆ คนอื่นๆ รายงานปัญหาความน่าเชื่อถือ เวลาตอบสนองของบริการลูกค้าที่แย่ และปัญหากับงานเขียนโค้ดที่ซับซ้อนมากขึ้น

ตั้งแต่การก่อตั้งบริษัท เราได้ทดสอบผู้ให้บริการ AI inference ทุกรายในหลายร้อยโมเดล Cerebras เร็วที่สุดอย่างสม่ำเสมอ

กลยุทธ์การตั้งราคาของบริษัทยังได้รับการวิจารณ์ โดยมีข้อผูกมัดขั้นต่ำรายเดือนตั้งแต่ 1,500 ถึง 10,000 ดอลลาร์สหรัฐ บวกกับค่าใช้จ่ายการใช้งาน ซึ่งอาจจำกัดการนำไปใช้ในหมู่นักพัฒนาและบริษัทขนาดเล็ก

โครงสร้างราคา:

  • แผนบุคคล: $50/เดือน พร้อมข้อจำกัดโทเค็นรายวัน
  • แผนทีมเล็ก: $1,500/เดือน ขั้นต่ำ
  • Enterprise: ราคาตามความต้องการ (ต้องติดต่อสอบถาม)
  • ข้อผูกพันรายเดือนขั้นต่ำ: $1,500-$10,000 USD บวกค่าใช้งาน

แนวโน้มอนาคตยังคงไม่แน่นอน

การถกเถียงของชุมชนสะท้อนคำถามที่กว้างขึ้นเกี่ยวกับแนวทางฮาร์ดแวร์ AI เฉพาะทาง แม้ว่า Cerebras จะได้สร้างช่องทางเฉพาะในการ inference ที่เร็วมาก คู่แข่งอย่าง Nvidia ยังคงก้าวหน้าด้วยโซลูชันที่หลากหลายมากขึ้นที่สร้างสมดุลระหว่างประสิทธิภาพ ต้นทุน และความสามารถในการขยายขนาด ความสำเร็จของโมเดลธุรกิจของ Cerebras น่าจะขึ้นอยู่กับว่าลูกค้าจำนวนเพียงพอจะให้ความสำคัญกับความเร็วมากกว่าความคุ้มค่าหรือไม่ และบริษัทสามารถพัฒนาเทคโนโลยีของตนเพื่อแก้ไขความกังวลด้านการขยายขนาดได้หรือไม่ในขณะที่โมเดล AI ยังคงเติบโตในด้านขนาดและความซับซ้อน

อ้างอิง: Cerebras Systems Raises $1.1 Billion Series G at $8.1 Billion Valuation