NVIDIA ตกลงซื้อเทคโนโลยี LPU และทีมงานหลักของ Groq ในข้อตกลงมูลค่า 2 หมื่นล้านดอลลาร์สหรัฐฯ เสริมแกร่งความทะเยอทะยานด้าน AI Inference

ทีมบรรณาธิการ BigGo
NVIDIA ตกลงซื้อเทคโนโลยี LPU และทีมงานหลักของ Groq ในข้อตกลงมูลค่า 2 หมื่นล้านดอลลาร์สหรัฐฯ เสริมแกร่งความทะเยอทะยานด้าน AI Inference

ในความเคลื่อนไหวที่สร้างความสั่นสะเทือนให้กับอุตสาหกรรมเทคโนโลยีในวันหยุดคริสต์มาสของสหรัฐอเมริกา NVIDIA ได้บรรลุข้อตกลงสำคัญกับสตาร์ทอัพชิป AI ชื่อ Groq โดยในตอนแรกมีการรายงานว่าเป็นการเข้าซื้อกิจการมูลค่า 2 หมื่นล้านดอลลาร์สหรัฐฯ แต่ต่อมาก็ได้รับการชี้แจงอย่างรวดเร็วว่าเป็นข้อตกลงอนุญาตให้ใช้เทคโนโลยีเชิงกลยุทธ์แบบไม่ผูกขาด พร้อมกับการโอนย้ายผู้นำและทีมวิศวกรหลักของ Groq ไปยัง NVIDIA การเคลื่อนไหวครั้งนี้ซึ่งคล้ายคลึงกับแนวโน้ม "การซื้อเพื่อจ้าง" ล่าสุดในหมู่ยักษ์ใหญ่เทคโนโลยี ช่วยให้ NVIDIA เข้าถึงเทคโนโลยีการอนุมานความหน่วงต่ำเฉพาะทางของ Groq ได้ ในขณะที่จุดสนใจของอุตสาหกรรม AI กำลังเปลี่ยนจากขั้นตอนการฝึกอบรมโมเดลไปสู่การนำไปใช้งานจริงและแอปพลิเคชันแบบเรียลไทม์มากขึ้นเรื่อยๆ

โครงสร้างข้อตกลงและตัวเลขสำคัญ

  • มูลค่าที่รายงาน: 20 พันล้านดอลลาร์สหรัฐ
  • ลักษณะข้อตกลง: ข้อตกลงอนุญาตให้ใช้เทคโนโลยีแบบไม่ผูกขาด + การโอนย้ายบุคลากร ("acqui-hire")
  • บุคลากรหลักที่ย้ายไป NVIDIA: ผู้ก่อตั้ง/ซีอีโอ Jonathan Ross, ประธานบริษัท Sunny Madra และผู้บริหารคนอื่นๆ
  • สถานะของ Groq หลังข้อตกลง: ดำเนินงานต่อในฐานะบริษัทอิสระ; บริการ GroqCloud ยังคงเปิดให้บริการ; มีการแต่งตั้งซีอีโอคนใหม่
  • มูลค่าล่าสุดของ Groq (ก.ย. 2025): ~6.9 พันล้านดอลลาร์สหรัฐ หลังการระดมทุนรอบ 750 ล้านดอลลาร์สหรัฐ
  • เงินสดสำรองของ NVIDIA (ต.ค. 2025): 60.6 พันล้านดอลลาร์สหรัฐ

โครงสร้างของความร่วมมือเชิงกลยุทธ์ ไม่ใช่การเข้าซื้อกิจการ

ในวันที่ 25 ธันวาคม 2025 มีรายงานอ้างว่า NVIDIA กำลังเข้าซื้อกิจการ Groq ด้วยเงินสดมูลค่า 2 หมื่นล้านดอลลาร์สหรัฐฯ ซึ่งเป็นสถิติใหม่ ข่าวดังกล่าวจุดประกายการอภิปรายทันทีเกี่ยวกับการรวมกลุ่มของตลาดและอุปสรรคด้านกฎระเบียบที่อาจเกิดขึ้น อย่างไรก็ตาม ภายในไม่กี่ชั่วโมง ทั้งสองบริษัทได้ออกแถลงการณ์ชี้แจง พวกเขายืนยันว่าเป็น "ข้อตกลงอนุญาตให้ใช้เทคโนโลยีแบบไม่ผูกขาด" ไม่ใช่การเข้าซื้อกิจการโดยตรง Jensen Huang ซีอีโอของ NVIDIA อธิบายเพิ่มเติมในอีเมลภายในว่า บริษัทมีแผนที่จะบูรณาการโปรเซสเซอร์ความหน่วงต่ำของ Groq เข้ากับสถาปัตยกรรม AI factory ของตน แต่ไม่ได้ซื้อ Groq ในฐานะนิติบุคคล โครงสร้างนี้ทำให้ NVIDIA สามารถรักษาสิทธิ์ในทรัพย์สินทางปัญญาที่สำคัญและทีมงานที่อยู่เบื้องหลังมันได้ ซึ่งรวมถึง Jonathan Ross ผู้ก่อตั้ง Groq และอดีตสถาปนิก TPU ของ Google ขณะเดียวกันก็อาจหลีกเลี่ยงการตรวจสอบที่ยาวนานของการควบรวมกิจการอย่างเป็นทางการภายใต้กฎหมายอย่าง Hart-Scott-Rodino

จุดเด่นทางเทคนิคของ Groq LPU (Language Processing Unit)

  • นวัตกรรมหลัก: ออกแบบมาเฉพาะสำหรับงาน AI inference โดยเน้นการสร้างโทเค็นความหน่วงต่ำ (decode)
  • สถาปัตยกรรมหน่วยความจำ: ใช้หน่วยความจำ SRAM (Static RAM) บนชิปเป็นที่เก็บน้ำหนักหลัก
  • ประสิทธิภาพที่อ้างอิง: การอนุมานเร็วขึ้นสูงสุด 10 เท่า และประสิทธิภาพการใช้พลังงานดีขึ้น 10 เท่า เมื่อเทียบกับโซลูชันดั้งเดิม (เช่น GPU ที่ใช้ HBM)
  • ตัวชี้วัดสำคัญ: แบนด์วิดท์หน่วยความจำบนชิปสูงสุดถึง 80 TB/s (จาก SRAM ขนาด 230 MB)
  • โมเดลการประมวลผล: กำหนดตารางเวลาที่คอมไพล์ล่วงหน้าแบบตายตัว เพื่อการประมวลผลแบบไปป์ไลน์ที่คาดการณ์ได้และไร้ความล่าช้า

LPU ของ Groq: เครื่องยนต์อนุมานที่ NVIDIA หมายปอง

สินทรัพย์หลักในข้อตกลงนี้คือเทคโนโลยี Language Processing Unit (LPU) ของ Groq ในขณะที่ภาระงาน AI เปลี่ยนไปสู่การอนุมานมากขึ้น ซึ่งเป็นกระบวนการรันโมเดลที่ฝึกอบรมแล้วเพื่อสร้างผลลัพธ์ ความต้องการก็เปลี่ยนจากความเร็วในการประมวลผลล้วนๆ ไปเป็นความหน่วงต่ำและประสิทธิภาพที่คาดการณ์ได้ LPU ของ Groq จัดการกับสิ่งนี้โดยวางเดิมพันทางสถาปัตยกรรมที่สำคัญสองประการ ประการแรก พวกเขาใช้พูลขนาดใหญ่ของ SRAM (Static RAM) บนดายสำหรับจัดเก็บน้ำหนักหลัก ซึ่งให้แบนด์วิธหน่วยความจำสูงถึง 80 TB/s พร้อมกับความหน่วงและพลังงานที่ต่ำกว่าอย่างมีนัยสำคัญเมื่อเทียบกับ High Bandwidth Memory (HBM) ที่ใช้ใน GPU ประการที่สอง พวกเขาใช้การจัดตารางเวลาที่กำหนดได้ล่วงหน้าในขั้นตอนการคอมไพล์ เพื่อขจัดความล่าช้าในการประมวลผล ทำให้มั่นใจได้ว่าการสร้างโทเค็นในช่วง "ถอดรหัส" ที่สำคัญของการอนุมานจะมีความสม่ำเสมอและรวดเร็ว ความเชี่ยวชาญเฉพาะทางนี้ทำให้ Groq อ้างว่ามีความเร็วในการอนุมานเร็วกว่าวิธีแก้ปัญหาแบบดั้งเดิมถึง 10 เท่า โดยใช้พลังงานเพียงเศษเสี้ยว

บทเรียนชั้นยอดในการเดินเรือท่ามกลางภูมิทัศน์ AI ใหม่

ธุรกรรมนี้เป็นตัวอย่างคลาสสิกของ "การซื้อเพื่อจ้างแบบย้อนกลับ" ซึ่งเป็นกลวิธีที่ยักษ์ใหญ่อย่าง Microsoft และ Amazon เพิ่งนำมาใช้ไม่นานนี้ เป้าหมายคือการดูดซับบุคลากรชั้นนำและเทคโนโลยีเฉพาะจากสตาร์ทอัพที่มีแนวโน้มดีอย่างรวดเร็ว โดยไม่ก่อให้เกิดการทบทวนการผูกขาดเต็มรูปแบบ สำหรับ Groq ซึ่งเพิ่งระดมทุนได้ 750 ล้านดอลลาร์สหรัฐฯ ที่มูลค่าบริษัท 6.9 พันล้านดอลลาร์สหรัฐฯ ในเดือนกันยายน 2025 และตั้งเป้ารายได้ 500 ล้านดอลลาร์สหรัฐฯ ข้อเสนอนี้จึงน่าสนใจ หลังข้อตกลง Groq จะยังคงดำเนินงานอย่างอิสระภายใต้ซีอีโอคนใหม่ รักษาบริการ GroqCloud ของตนไว้ แต่ทีมสมองผู้ก่อตั้งและทรัพย์สินทางปัญญาหลักได้ปรับแนวทางให้สอดคล้องกับ NVIDIA แล้ว สิ่งนี้ทำให้ NVIDIA มีตำแหน่งที่อาจจะโดดเด่นในตลาดอนุมานที่กำลังเติบโต เสริมความแข็งแกร่งของ GPU ด้านการฝึกอบรมด้วยเครื่องยนต์อนุมานเฉพาะทางที่มีความหน่วงต่ำ

บริบท: การซื้อกิจการเพื่อได้ตัวคน (Acqui-hire) ล่าสุดในวงการ AI (2024-2025)

บริษัท (ผู้ซื้อ) สตาร์ทอัพ (บุคลากร/ทรัพย์สินทางปัญญาที่ได้มา) มูลค่าที่รายงาน บุคคลสำคัญ
Microsoft Inflection AI 650 ล้านดอลลาร์สหรัฐ Mustafa Suleyman, Karén Simonyan
Amazon Adept AI ประมาณ 400 ล้านดอลลาร์สหรัฐ David Luan และทีม
Google Character.AI ประมาณ 2.7 พันล้านดอลลาร์สหรัฐ Noam Shazeer (ผู้ร่วมคิดค้น Transformer) และทีมหลัก
Meta Scale AI ประมาณ 15 พันล้านดอลลาร์สหรัฐ Alexandr Wang และวิศวกรหลัก
Google Windsurf ประมาณ 2.4 พันล้านดอลลาร์สหรัฐ Varun Mohan, Douglas Chen และทีม
Apple Prompt AI ไม่เปิดเผย ทีมหลัก (รายงานว่าชนะการประมูล Elon Musk)

ผลกระทบที่กว้างขึ้นต่อระบบนิเวศชิป AI

การเคลื่อนไหวของ NVIDIA ชี้ให้เห็นถึงการแข่งขันที่เข้มข้นและการวางตำแหน่งเชิงกลยุทธ์ที่กำลังเกิดขึ้นในพื้นที่ฮาร์ดแวร์ AI ด้วยเงินสดในงบดุลมากกว่า 6 หมื่นล้านดอลลาร์สหรัฐฯ NVIDIA กำลังใช้พลังทางการเงินของตนเพื่อร่วมมือกับผู้ท้าทายที่มีศักยภาพ Groq พร้อมด้วยบริษัทคู่แข่งอย่าง Cerebras และ SambaNova ปรากฏตัวขึ้นในฐานะผู้ท้าทายอำนาจนำของ GPU การนำทีมงานที่มีประสบการณ์จาก TPU ของ Google และเทคโนโลยี LPU ของ Groq เข้ามาในองค์กร ไม่เพียงแต่ทำให้ NVIDIA เป็นกลางคู่แข่งเท่านั้น แต่ยังเติมเต็มช่องว่างที่รับรู้ได้ในพอร์ตโฟลิโอการอนุมานของตนด้วย มันส่งสัญญาณว่าสนามรบต่อไปสำหรับการเร่งความเร็ว AI จะอยู่ที่จุดนำไปใช้งานจริง ซึ่งประสิทธิภาพ ความเร็ว และต้นทุนต่อโทเค็นเป็นสิ่งสำคัญที่สุด ในขณะที่ยักษ์ใหญ่อื่นๆ อย่าง Intel ถูกรายงานว่ากำลังจับตาข้อตกลงที่คล้ายกัน หน้าต่างโอกาสสำหรับสตาร์ทอัพชิป AI อิสระที่จะท้าทายระเบียบเดิมที่มีอยู่ อาจกำลังปิดลงอย่างรวดเร็ว