ในการปรับกลยุทธ์ครั้งสำคัญ Nvidia ได้ปรับโครงสร้างหน่วยธุรกิจคลาวด์คอมพิวติ้งของตนใหม่ ซึ่งส่งผลให้ลดระดับความทะเยอทะยานในการดำเนินบริการคลาวด์สาธารณะที่เดิมตั้งเป้าจะแข่งขันโดยตรงกับยักษ์ใหญ่อย่าง Amazon Web Services (AWS) และ Microsoft Azure ลง การเคลื่อนไหวครั้งนี้ ซึ่งมีรายงานโดย The Information และได้รับการยืนยันจากการปรับโครงสร้างภายใน นับเป็นการเปลี่ยนทิศทางที่ชัดเจนสำหรับบริการ DGX Cloud ในเวลาไม่ถึงสามปีหลังจากการเปิดตัวครั้งสำคัญ การตัดสินใจนี้เน้นย้ำถึงพลวัตที่ซับซ้อนระหว่างผู้ผลิตฮาร์ดแวร์รายใหญ่กับลูกค้าสำคัญของตน ซึ่งในเวลาเดียวกันก็เป็นคู่แข่งที่มีศักยภาพในตลาดบริการคลาวด์อีกด้วย
Nvidia ปรับทีมคลาวด์ใหม่ รวม DGX Cloud เข้ากับฝ่ายวิศวกรรม
Nvidia ได้ปรับโครงสร้างกลุ่มธุรกิจคลาวด์คอมพิวติ้งอย่างเป็นทางการ โดยรวมธุรกิจ DGX Cloud เข้ากับองค์กรวิศวกรรมหลักของบริษัท หน่วยงานนี้ปัจจุบันอยู่ภายใต้การนำของ Senior Vice President Dwight Diercks ซึ่งดูแลด้านวิศวกรรมซอฟต์แวร์ การปรับโครงสร้างใหม่นี้ ซึ่งเกิดขึ้นในสัปดาห์ก่อนวันหยุดคริสต์มาสในสหรัฐอเมริกา แสดงถึงการลดระดับวิสัยทัศน์เดิมของ Nvidia สำหรับ DGX Cloud อย่างเป็นทางการ จากเดิมที่เป็นแพลตฟอร์มคลาวด์สาธารณะที่มีแบรนด์ของตัวเอง บริษัทได้ส่งสัญญาณการเปลี่ยนทิศทางนี้ไปแล้วในเดือนกันยายน 2025 โดยประกาศว่าจะหยุดพยายามแข่งขันโดยตรงกับ AWS และ Azure การเคลื่อนไหวล่าสุดนี้ทำให้โฟกัสใหม่มีความชัดเจนยิ่งขึ้น โดยเปลี่ยนบทบาทของ DGX Cloud จากผลิตภัณฑ์ที่มุ่งสู่ลูกค้า มาเป็นเครื่องมือภายในสำหรับการวิจัยและพัฒนาของ Nvidia เอง
วิสัยทัศน์ดั้งเดิมและความท้าทายในทางปฏิบัติของ DGX Cloud
DGX Cloud เปิดตัวในต้นปี 2023 โดยถูกวางแนวคิดให้เป็นการก้าวเข้าสู่ตลาดบริการคลาวด์ที่ทะเยอทะยานของ Nvidia บริการนี้มีเป้าหมายที่จะนำซูเปอร์คอมพิวเตอร์ DGX AI อันทรงพลังของบริษัทมาสร้างเป็นบริการจัดการ (managed service) ซึ่งโฮสต์บนโครงสร้างพื้นฐานจากพันธมิตรรวมถึง AWS, Google Cloud, Oracle Cloud และ Microsoft Azure โดยเสนอให้องค์กรธุรกิจใช้งานคลัสเตอร์เฉพาะที่ขับเคลื่อนด้วย GPU H100 ของ Nvidia พร้อมสแต็กซอฟต์แวร์ AI เต็มรูปแบบจาก Nvidia ติดตั้งไว้ล่วงหน้า สัญญาว่าจะเป็นเส้นทางที่ง่ายดายสู่การเข้าถึงคอมพิวเตอร์ประสิทธิภาพสูงสำหรับ AI อย่างไรก็ตาม โมเดลนี้เผชิญกับอุปสรรคสำคัญในทางปฏิบัติ ราคามักจะสูงกว่าตัวอย่างบริการ GPU ที่เทียบเคียงได้จากผู้ให้บริการไฮเปอร์สเกล การบูรณาการกับชุดเครื่องมือคลาวด์ที่มีอยู่เดิมไม่สม่ำเสมอ และโมเดลการสนับสนุนที่แบ่งหน้าที่ระหว่าง Nvidia กับพันธมิตรผู้ให้บริการโฮสติ้งสร้างความซับซ้อนในการดำเนินงานให้กับลูกค้า
DGX Cloud Hosting Partners (โมเดลดั้งเดิม): AWS, Google Cloud, Oracle Cloud, Microsoft Azure.
การหลีกเลี่ยงความขัดแย้งกับลูกค้าไฮเปอร์สเกลเลอร์รายสำคัญ
แรงผลักดันหลักเบื้องหลังการถอยกลยุทธ์ครั้งนี้คือความจำเป็นในการหลีกเลี่ยงความขัดแย้งกับลูกค้าที่สำคัญที่สุดของ Nvidia ผู้ให้บริการคลาวด์อย่าง AWS, Microsoft, Google และ Oracle เป็นตัวแทนของส่วนแบ่งมหาศาลในรายได้จากศูนย์ข้อมูลที่ทำสถิติสูงสุดของ Nvidia การดำเนินบริการคลาวด์ด้วยตัวเอง (first-party) ทำให้ Nvidia เสี่ยงที่จะกลายเป็นคู่แข่งโดยตรงกับบริษัทเหล่านี้ ซึ่งกำลังทุ่มเงินหลายพันล้านดอลลาร์เพื่อซื้อ GPU ของตน ความขัดแย้งนี้ถูกมองว่าไม่ก่อให้เกิดผลดี การปรับโครงสร้างใหม่ทำให้ผลประโยชน์ของ Nvidia สอดคล้องกับพันธมิตรมากขึ้นอย่างชัดเจน โดยวางตำแหน่ง DGX Cloud ให้เป็นแพลตฟอร์มสำหรับการพัฒนาและตรวจสอบความถูกต้อง ซึ่งในท้ายที่สุดจะช่วยให้ผู้ให้บริการไฮเปอร์สเกลสามารถปรับใช้ฮาร์ดแวร์ของ Nvidia ได้มีประสิทธิภาพมากขึ้น แทนที่จะเป็นบริการคู่แข่ง
บทบาทใหม่: แพลตฟอร์มภายในสำหรับการพัฒนา AI และชิป
ภายใต้พันธกิจใหม่นี้ DGX Cloud จะทำหน้าที่เป็นแพลตฟอร์มภายในที่สำคัญสำหรับวิศวกรของ Nvidia หน้าที่หลักในตอนนี้จะรวมถึงการพัฒนาโมเดล AI การตรวจสอบความถูกต้องของซอฟต์แวร์ และการทดสอบก่อนการผลิตชิป (pre-silicon) และหลังการผลิตชิป (post-silicon) สำหรับแพลตฟอร์ม GPU รุ่นใหม่ที่กำลังจะมาถึง เช่น ซีรีส์ Blackwell ที่คาดการณ์กัน กลยุทธ์ "พื้นที่ทดสอบภายใน" นี้ทำให้ Nvidia สามารถจำลองเวิร์กโหลด AI ที่มีความต้องการสูงในระดับใหญ่เพื่อระบุจุดคอขวดของฮาร์ดแวร์และซอฟต์แวร์ ซึ่งจะเร่งวงจรการพัฒนาผลิตภัณฑ์ของตัวเองได้ การเปลี่ยนโฟกัสครั้งนี้ใช้ประโยชน์จากความสามารถของแพลตฟอร์มเพื่อเสริมสร้างความเชี่ยวชาญหลักของ Nvidia ในด้านการออกแบบชิปและระบบโดยตรง โดยเปลี่ยนความพยายามเชิงพาณิชย์ภายนอกให้เป็นเครื่องมือวิจัยและพัฒนาภายในที่มีประสิทธิภาพ
ความเป็นจริงทางเศรษฐกิจและภูมิทัศน์ของชิปไฮเปอร์สเกลเลอร์
การดำเนินแพลตฟอร์มคลาวด์ระดับโลกที่สามารถแข่งขันได้เป็นภารกิจที่ใช้เงินทุนสูง ต้องการการลงทุนอย่างต่อเนื่องมหาศาลในศูนย์ข้อมูล เครือข่าย และการดำเนินงาน ซึ่งเป็นพื้นที่ที่อยู่นอกเหนือความเชี่ยวชาญหลักของ Nvidia ในด้านชิปและซอฟต์แวร์ ยิ่งไปกว่านั้น พันธมิตรผู้ให้บริการไฮเปอร์สเกลที่โฮสต์ DGX Cloud ต่างก็พัฒนาชิป AI แบบกำหนดเองของตัวเองอย่างแข็งขัน เช่น Trainium ของ AWS, TPU ของ Google และชิป Maia ของ Microsoft เพื่อจัดการต้นทุนและความเสี่ยงด้านอุปทาน แม้บริษัทเหล่านี้ยังคงพึ่งพา GPU ของ Nvidia อย่างมากสำหรับ AI ขั้นสูงสุด แต่ภูมิทัศน์การแข่งขันทำให้ความอยู่รอดในระยะยาวของบริการคลาวด์จาก Nvidia โดยตรงมีความไม่แน่นอน การถอยออกจากพื้นที่นี้ทำให้ Nvidia สามารถรวมทรัพยากรของตนเพื่อรักษาความเป็นผู้นำด้านสถาปัตยกรรมต่อไป
รายงานข้อตกลงการเช่าซื้อคืน GPU: Nvidia ได้ทำสัญญาเช่า GPU จำนวน 18,000 หน่วย (มูลค่า: 1.5 พันล้านดอลลาร์สหรัฐ) เป็นระยะเวลา 4 ปี จากพันธมิตรผู้ให้บริการคลาวด์ ซึ่งสะท้อนให้เห็นถึงพลวัตด้านอุปทานที่ซับซ้อน
ผลกระทบต่อกลยุทธ์คลาวด์ในภาพกว้างของ Nvidia
การปรับโครงสร้างใหม่นี้ไม่ได้หมายความถึงความมุ่งมั่นที่ลดลงต่อเทคโนโลยีคลาวด์โดยรวม แต่กลับสะท้อนถึงการปรับกลยุทธ์ให้ละเอียดขึ้น Nvidia จะยังคงลงทุนอย่างหนักและขยายระบบนิเวศซอฟต์แวร์สำคัญอย่างต่อเนื่อง เช่น CUDA, TensorRT และเฟรมเวิร์กสำหรับการอนุมาน (inference) ของตน ซึ่งถูกออกแบบมาให้ทำงานได้ดีที่สุดบนแพลตฟอร์มคลาวด์หลักทั้งหมด DGX Cloud ในรูปแบบใหม่จะทำหน้าที่เป็นพื้นที่ทดสอบสำหรับเทคโนโลยีเหล่านี้ การเคลื่อนไหวครั้งนี้ถูกมองโดยกว้างว่าเป็นการตัดสินใจที่ปฏิบัติได้จริง ซึ่งสร้างความมั่นคงให้กับความร่วมมือที่สำคัญของ Nvidia ยืนยันบทบาทของตนในฐานะผู้ทำให้โครงสร้างพื้นฐาน AI เป็นไปได้ และทำให้สามารถโฟกัสเงินทุนไปที่การวิจัยและพัฒนาที่มีอัตรากำไรสูง เป็นการปิดฉากการทดลองระยะสองปีในการขยับขึ้นไปในสแต็ก (moving up the stack) และได้มาซึ่งเส้นทางข้างหน้าที่ชัดเจนและมีโฟกัสมากขึ้น ในฐานะผู้ให้ "อุปกรณ์พื้นฐาน" ที่ขาดไม่ได้ในยุค AI
