บริษัท Cerebras Systems เพิ่งปิดรอบการระดมทุน Series G มูลค่า 1.1 พันล้านดอลลาร์สหรัฐ ทำให้มูลค่าบริษัทไปถึง 8.1 พันล้านดอลลาร์สหรัฐ แม้ว่าบริษัทจะอ้างว่า wafer-scale engine ของตนเป็นโซลูชัน AI inference ที่เร็วที่สุดที่มีอยู่ แต่ชุมชนเทคโนโลยีกำลังตั้งคำถามว่าเศรษฐศาสตร์ของมันสมเหตุสมผลกับมูลค่าที่สูงมหาศาลเช่นนี้หรือไม่
รายละเอียดการระดมทุนของ Cerebras:
- การระดมทุนรอบ Series G: 1.1 พันล้านดอลลาร์สหรัฐ
- มูลค่าบริษัทหลังการระดมทุน: 8.1 พันล้านดอลลาร์สหรัฐ
- นักลงทุนหลัก: Fidelity Management & Research Company, Atreides Management
- ผู้เข้าร่วมอื่นๆ: Tiger Global, Valor Equity Partners, 1789 Capital
การแลกเปลี่ยนระหว่างความเร็วกับต้นทุนครอบงำการอภิปราย
ความกังวลหลักของชุมชนมุ่งเน้นไปที่แนวทางของ Cerebras ในการใช้หน่วยความจำ SRAM เพื่อให้ได้ความเร็วในการ inference ที่รวดเร็วอย่างน่าทึ่ง ผู้ใช้รายงานว่าพบกับเวลาตอบสนองที่เร็วขึ้นอย่างมากเมื่อเปรียบเทียบกับโซลูชันที่ใช้ GPU แบบดั้งเดิม โดยบางคนพบว่าความเร็วนั้นน่าสนใจมากจนพวกเขาชอบมันแม้ว่าจะต้องใช้การทำซ้ำหลายครั้งเพื่อให้งานเสร็จสมบูรณ์ อย่างไรก็ตาม ประสิทธิภาพนี้มาพร้อมกับราคาที่สูงลิ่ว ผู้สังเกตการณ์ในอุตสาหกรรมประเมินว่าการรันโมเดลขนาดใหญ่อย่าง Qwen 3 ที่ขนาด context สูงสุดอาจต้องใช้ชิป Cerebras มูลค่ากว่า 100 ล้านดอลลาร์สหรัฐ เมื่อเปรียบเทียบกับเพียง 1 ล้านดอลลาร์สหรัฐสำหรับฮาร์ดแวร์ Nvidia Blackwell ที่เทียบเท่า แม้ว่าจะมีความเร็วที่ช้ากว่า
SRAM (Static Random Access Memory) เร็วกว่าแต่แพงกว่าหน่วยความจำประเภทอื่น ในขณะที่ขนาด context หมายถึงปริมาณข้อความที่โมเดล AI สามารถประมวลผลได้ในครั้งเดียว
การเปรียบเทียบประสิทธิภาพ:
- ความเร็วในการประมวลผลของ Cerebras : เร็วกว่า GPU ของ Nvidia 20 เท่า
- Wafer Scale Engine 3 ( WSE-3 ): ใหญ่กว่า GPU ที่ใหญ่ที่สุด 56 เท่า
- ประมาณการต้นทุนชิป: 2-3 ล้านดอลลาร์สหรัฐต่อชิป Cerebras หนึ่งตัว
- การเปรียบเทียบต้นทุน: มากกว่า 100 ล้านดอลลาร์สำหรับ Cerebras เทียบกับ 1 ล้านดอลลาร์สำหรับ Nvidia Blackwell (ปริมาณงานเดียวกัน)
ความท้าทายด้านการขยายขนาดทำให้เกิดคำถามเรื่องความยั่งยืนระยะยาว
ผู้เชี่ยวชาญด้านเทคนิคในชุมชนชี้ไปที่ข้อจำกัดพื้นฐานในแนวทาง wafer-scale ของ Cerebras เทคโนโลยี SRAM ได้หยุดการขยายขนาดตามกระบวนการผลิตที่ใหม่กว่าแล้ว ซึ่งอาจจำกัดการปรับปรุงประสิทธิภาพในอนาคต นอกจากนี้ ชิปเหล่านี้ได้รับการออกแบบมาตั้งแต่เดิมก่อนที่จะมีการระเบิดของโมเดลภาษาขนาดใหญ่ ทำให้มันไม่เหมาะสมสำหรับการฝึกระบบ AI ขนาดใหญ่ในปัจจุบัน สถาปัตยกรรมนี้ทำงานได้ดีสำหรับ inference เมื่อโมเดลทั้งหมดพอดีกับชิป แต่จะมีข้อได้เปรียบน้อยลงเมื่อต้องการการเข้าถึงหน่วยความจำภายนอกสำหรับโมเดลที่ใหญ่กว่า
Wafer-scale integration หมายถึงการสร้างโปรเซสเซอร์ทั่วทั้ง silicon wafer แทนที่จะตัดมันเป็นชิปเล็กๆ แยกกัน
ตำแหน่งในตลาดและประสบการณ์ลูกค้าที่หลากหลาย
แม้จะมีความกังวลด้านเทคนิค Cerebras ก็ได้ดึงดูดลูกค้าที่น่าสนใจรวมถึง AWS , Meta และหน่วยงานรัฐบาลต่างๆ บริษัทให้บริการหลายล้านล้าน token ต่อเดือนและติดอันดับเป็นผู้ให้บริการ inference อันดับหนึ่งบน Hugging Face ด้วยคำขอมากกว่า 5 ล้านครั้งต่อเดือน อย่างไรก็ตาม ประสบการณ์ของลูกค้าแตกต่างกันอย่างมีนัยสำคัญ ในขณะที่ผู้ใช้บางคนชื่นชมความเร็วที่น่าทึ่งสำหรับงานง่ายๆ คนอื่นๆ รายงานปัญหาความน่าเชื่อถือ เวลาตอบสนองของบริการลูกค้าที่แย่ และปัญหากับงานเขียนโค้ดที่ซับซ้อนมากขึ้น
ตั้งแต่การก่อตั้งบริษัท เราได้ทดสอบผู้ให้บริการ AI inference ทุกรายในหลายร้อยโมเดล Cerebras เร็วที่สุดอย่างสม่ำเสมอ
กลยุทธ์การตั้งราคาของบริษัทยังได้รับการวิจารณ์ โดยมีข้อผูกมัดขั้นต่ำรายเดือนตั้งแต่ 1,500 ถึง 10,000 ดอลลาร์สหรัฐ บวกกับค่าใช้จ่ายการใช้งาน ซึ่งอาจจำกัดการนำไปใช้ในหมู่นักพัฒนาและบริษัทขนาดเล็ก
โครงสร้างราคา:
- แผนบุคคล: $50/เดือน พร้อมข้อจำกัดโทเค็นรายวัน
- แผนทีมเล็ก: $1,500/เดือน ขั้นต่ำ
- Enterprise: ราคาตามความต้องการ (ต้องติดต่อสอบถาม)
- ข้อผูกพันรายเดือนขั้นต่ำ: $1,500-$10,000 USD บวกค่าใช้งาน
แนวโน้มอนาคตยังคงไม่แน่นอน
การถกเถียงของชุมชนสะท้อนคำถามที่กว้างขึ้นเกี่ยวกับแนวทางฮาร์ดแวร์ AI เฉพาะทาง แม้ว่า Cerebras จะได้สร้างช่องทางเฉพาะในการ inference ที่เร็วมาก คู่แข่งอย่าง Nvidia ยังคงก้าวหน้าด้วยโซลูชันที่หลากหลายมากขึ้นที่สร้างสมดุลระหว่างประสิทธิภาพ ต้นทุน และความสามารถในการขยายขนาด ความสำเร็จของโมเดลธุรกิจของ Cerebras น่าจะขึ้นอยู่กับว่าลูกค้าจำนวนเพียงพอจะให้ความสำคัญกับความเร็วมากกว่าความคุ้มค่าหรือไม่ และบริษัทสามารถพัฒนาเทคโนโลยีของตนเพื่อแก้ไขความกังวลด้านการขยายขนาดได้หรือไม่ในขณะที่โมเดล AI ยังคงเติบโตในด้านขนาดและความซับซ้อน
อ้างอิง: Cerebras Systems Raises $1.1 Billion Series G at $8.1 Billion Valuation