ชุมชนเทคโนโลยีกำลังแบ่งฝั่งอย่างชัดเจนเกี่ยวกับสถานะปัจจุบันของการปฏิวัติ AI ในขณะที่บางส่วนเปรียบเทียบภูมิทัศน์ AI ในปัจจุบันกับยุคอินเทอร์เน็ต dial-up ช่วงทศวรรษ 1990 ซึ่งบ่งชี้ว่าเรากำลังอยู่ที่จุดเริ่มต้นของการเปลี่ยนแปลง ขณะที่อีกฝ่ายเห็นความคล้ายคลึงที่น่าวิตกกับฟองสบู่ทางประวัติศาสตร์ที่จบลงด้วยการพังทลายอย่างspectacular การอภิปรายนี้มุ่งเน้นไปที่ว่าการลงทุนมหาศาลใน AI วันนี้กำลังสร้างโครงสร้างพื้นฐานสำคัญสำหรับอนาคต หรือเพียงแค่เผาเงินผ่านเทคโนโลยีที่กำลังจะล้าสมัยในไม่ช้า
คำถามเรื่องโครงสร้างพื้นฐาน: Fiber เทียบกับ GPU
หนึ่งในข้อโต้แย้งที่น่าสนใจที่สุดในการอภิปรายเรื่อง AI เกี่ยวข้องกับสิ่งที่เหลืออยู่เมื่อความบ้าคลั่งในการลงทุนในปัจจุบันลดลง ในช่วงฟองสบู่ดอต-คอม บริษัทต่างๆ ได้วางสายเคเบิล fiber optic ที่ยังคงให้บริการอินเทอร์เน็ตมาหลายทศวรรษ แม้บริษัทเองจะล้มละลายไปแล้ว โครงสร้างพื้นฐานนี้ก่อให้เกิดกระดูกสันหลังของโลกดิจิทัลสมัยใหม่
สถานการณ์กับ AI ดูเหมือนจะแตกต่างโดยพื้นฐาน AI ในปัจจุบันทำงานบนฮาร์ดแวร์ GPU เฉพาะทางเป็นหลัก ซึ่งมีอายุการใช้งานที่สั้นกว่า得多 ไม่เหมือน fiber optic ที่สามารถอัพเกรดด้วยtransceiver ใหม่ๆ ชุด GPU ในปัจจุบันต้องเผชิญกับการล้าสมัยอย่างรวดเร็ว ดังที่ผู้แสดงความคิดเห็นหนึ่งระบุว่า อาคาร data center อาจอยู่ได้สองสามทศวรรษ แต่คอมพิวเตอร์และ GPU ข้างในจะไม่ และไม่สามารถเพิ่มมูลค่าได้ง่ายเหมือน fiber ในพื้นดิน
หากนี่คือฟองสบู่ และมันแตก เงินทั้งหมดจะถูกใช้ไปกับ Nvidia GPU ที่ค่าเสื่อมราคาเป็น 0 ในระยะเวลา 4 ปี การใช้จ่าย GPU ทั้งหมดนี้จะต้องทำอีกครั้งทุก 4 ปี
วงจรการเสื่อมราคานี้สร้างความท้าทายทางเศรษฐกิจขั้นพื้นฐาน ในขณะที่โครงสร้างพื้นฐาน fiber สร้างคุณค่าในระยะยาว การลงทุนในฮาร์ดแวร์ AI วันนี้อาจให้ผลตอบแทนเพียงช่วงเวลาสั้นๆ ก่อนที่จะต้องเปลี่ยนใหม่ทั้งหมด
การเปรียบเทียบการลงทุนด้าน AI กับฟองสบู่ดอทคอม
- การลงทุนด้าน AI ในปัจจุบันสูงกว่าฟองสบู่ดอทคอมถึง 17 เท่า (ปรับตามสภาวะเศรษฐกิจแล้ว)
- การฝึกโมเดล LLM ใหม่ถูกเปรียบเทียบกับ "การดำเนินโครงการ Manhattan Project" ในแง่ของความซับซ้อนและต้นทุน
- วงจรค่าเสื่อมราคาของ GPU: 3-4 ปี เทียบกับโครงสร้างพื้นฐานใยแก้วนำแสงที่คงทนหลายทศวรรษ
ความคล้ายคลึงกับคอมพิวเตอร์ส่วนบุคคล
หลายคนในชุมชนเห็นความคล้ายคลึงระหว่างโมเดล AI แบบรวมศูนย์ในปัจจุบันกับยุค mainframe ของคอมพิวเตอร์ ในปัจจุบัน ผู้ใช้ส่วนใหญ่เข้าถึง AI ผ่านบริการ cloud จากบริษัทเช่น OpenAI, Google และ Anthropic คล้ายกับวิธีการคำนวณในยุคแรกที่โดดเด่นด้วย mainframe ขนาดใหญ่แบบรวมศูนย์ที่ผู้ใช้เข้าถึงผ่าน terminal
ความหวังในหมู่ผู้เชี่ยวชาญด้านเทคโนโลยีหลายคนคือในที่สุดเราจะเข้าสู่ยุคคอมพิวเตอร์ส่วนบุคคลสำหรับ AI โดยมีโมเดลขนาดเล็กที่มีความสามารถทำงานในท้องถิ่นบนอุปกรณ์ของผู้บริโภค วิสัยทัศน์นี้เผชิญกับความท้าทายสำคัญ รวมถึงข้อกำหนดด้านการคำนวณจำนวนมหาศาลของโมเดลปัจจุบันและความสะดวกของบริการบน cloud อย่างไรก็ตาม ด้วย Apple ที่กำลังรวมคุณลักษณะ AI บนอุปกรณ์และโมเดล open-source ที่เข้าถึงได้ง่ายขึ้น เมล็ดพันธุ์ของการกระจายอำนาจกำลังถูกหว่านไว้
การเปลี่ยนผ่านสู่คอมพิวเตอร์ AI ส่วนบุคคลเผชิญกับอุปสรรคที่ไม่ปกติ: ไม่เหมือนอินเทอร์เน็ตยุคแรกที่การเชื่อมต่อที่ไม่ดีผลักดันให้มีการคำนวณในท้องถิ่น การเชื่อมต่ออินเทอร์เน็ตที่เชื่อถือได้โดยทั่วไปในปัจจุบันลดแรงจูงใจสำหรับโซลูชัน AI ในท้องถิ่นแบบเต็มรูปแบบ อย่างไรก็ตาม ความกังวลเรื่องความเป็นส่วนตัวและความต้องการทำงานแบบออฟไลน์ที่เชื่อถือได้ยังคงขับเคลื่อนความสนใจในโมเดลที่ทำงานในท้องถิ่น
ความเป็นจริงในทางปฏิบัติ: เครื่องมือที่มีประโยชน์หรือสิ่งรบกวนที่ถูกประโคมเกินจริง?
ในหมู่developer และผู้ใช้ทั่วไป ความคิดเห็นแตกต่างกันอย่างมากเกี่ยวกับประโยชน์ของ AI ในปัจจุบัน บางคนรายงานประสบการณ์การเปลี่ยนแปลงที่ AI แก้ปัญหาที่ซับซ้อนซึ่งจะต้องใช้เวลาหลายชั่วโมงหรือหลายวันในการแก้ไขด้วยตนเอง Developer คนหนึ่งแบ่งปันว่า บางครั้งสมองของฉันไม่สามารถเข้าใจปัญหานั้นได้ ฉันโยนมันให้ AI และมันแก้ได้อย่างสมบูรณ์แบบ โดยเฉพาะการกล่าวถึงการดีบัก SQL ที่ซับซ้อนเป็นกรณีการใช้งานทั่วไป
คนอื่นๆ ยังคงสงสัยอย่างลึกซึ้ง อธิบายว่า AI น่าเชื่อถือไม่ได้และ fundamentally ไม่น่าไว้วางใจ ปัญหาที่ยังคงอยู่ของ hallucinations - ที่ AI ให้ข้อมูลที่ไม่ถูกต้องอย่างมั่นใจ - ยังคงเป็นอุปสรรคสำคัญต่อการนำไปใช้ในวงกว้าง ผู้ใช้หลายคนรายงานว่าความจำเป็นต้องตรวจสอบทุกการตอบสนองที่สร้างโดย AI ขจัดข้อได้เปรียบด้านประสิทธิภาพที่สัญญาไว้ไปมาก
ข้อจำกัดในปัจจุบันของเทคโนโลยีนี้เห็นได้ชัดโดยเฉพาะในบริบททางธุรกิจ ในขณะที่การคาดการณ์ในแง่ดีแนะนำว่าความเป็นเจ้าของร้านอาหารอาจจะใช้ AI เพื่อสร้างซอฟต์แวร์ inventory ที่กำหนดเองได้ในไม่ช้า การประเมินที่สมจริงกว่ากล่าวว่าโครงการซอฟต์แวร์ล้มเหลวด้วยเหตุผลที่ไกลเกินกว่าแค่การเขียนโค้ด การรวบรวมความต้องการ การออกแบบประสบการณ์ผู้ใช้ และการบำรุงรักษาอย่างต่อเนื่องนำเสนอความท้าทายที่ AI ในปัจจุบันไม่สามารถแก้ไขได้อย่างเต็มที่
ความเห็นของชุมชนเกี่ยวกับประโยชน์ของ AI
- รายงานเชิงบวก: การแก้ไขข้อผิดพลาดของ SQL ที่ซับซ้อน การช่วยเหลือด้านการวิจัย งานสร้างสรรค์
- รายงานเชิงลบ: ภาพหลอน ผลลัพธ์ที่ไม่น่าเชื่อถือ ต้องการการตรวจสอบอย่างต่อเนื่อง
- แบบผสม: มีประโยชน์สำหรับโค้ดพื้นฐาน แต่มีข้อจำกัดในการแก้ปัญหาที่ต้องใช้ความคิดสร้างสรรค์
การอภิปรายเรื่องฟองสบู่ทางเศรษฐกิจ
ขนาดของการลงทุน AI ในปัจจุบันได้จุดประกายการอภิปรายอย่างเข้มข้นเกี่ยวกับว่าเราอยู่ในภาวะเฟื่องฟูที่ยั่งยืนหรือฟองสบู่ที่อันตราย การวิเคราะห์ในปัจจุบันแสดงให้เห็นว่าการลงทุน AI เกินกว่าฟองสบู่ดอต-คอมด้วยmargin ที่สำคัญ แต่คุณค่าทางเศรษฐกิจที่จับต้องได้ที่สร้างขึ้นยังคงไม่แน่นอน ในขณะที่ LLMs มีประโยชน์อย่างไม่ต้องสงสัย แต่ไม่ว่าจะสามารถพิสูจน์ความถูกต้องของการลงทุนหลายล้านล้านได้หรือไม่ ยังคงเป็นคำถามที่เปิดอยู่
นักวิเคราะห์บางคนชี้ไปที่เมตริกที่น่ากังวล: ค่าฝึกอบรมนั้นสูงลิ่ว โดยการพัฒนาโมเดลใหม่ถูกเปรียบเทียบกับการดำเนินโครงการ Manhattan ผลตอบแทนจากการลงทุนเหล่านี้กำลังลดลงเมื่อแต่ละรุ่นโมเดลใหม่ส่งมอบการปรับปรุงที่เพิ่มขึ้นมากขึ้น ในขณะเดียวกัน สถาปัตยกรรมพื้นฐานของโมเดล based transformer อาจกำลังถึงขีดจำกัดของการ scaling
การอภิปรายเรื่องฟองสบู่ไม่ใช่แค่เกี่ยวกับว่า AI มีประโยชน์หรือไม่ - ส่วนใหญ่เห็นด้วยว่ามี - แต่เกี่ยวกับว่าการลงทุนในระดับปัจจุบันสามารถพิสูจน์ได้ด้วยผลตอบแทนหรือไม่ ดังที่ผู้แสดงความคิดเห็นหนึ่งสรุป ฉันไม่เข้าใจว่าทำไมผู้คนถึงเข้าใจได้ยากว่าเทคโนโลยีสามารถเพิ่มมูลค่าและยังอยู่ในตำแหน่งของการลงทุนเกินขนาดได้
มองไปไกลกว่าสถาปัตยกรรมปัจจุบัน
ผู้เชี่ยวชาญหลายคนเชื่อว่าการปฏิวัติ AI ที่แท้จริงจะต้องก้าวไปไกลกว่าสถาปัตยกรรม transformer และการคำนวณ based GPU ในปัจจุบัน แนวทางปัจจุบันเผชิญกับข้อจำกัดพื้นฐานในด้านประสิทธิภาพการใช้พลังงานและความสามารถในการ scaling สมองมนุษย์ทำงานด้วยพลังงานประมาณ 20 วัตต์ ในขณะที่โมเดล AI ในปัจจุบันต้องการ data center ขนาดใหญ่ที่ใช้พลังงานหลายเมกะวัตต์
การค้นหาฮาร์ดแวร์และอัลกอริทึม AI ที่มีประสิทธิภาพมากขึ้นกำลังดำเนินไป นักวิจัยบางคนกำลังสำรวจ neuromorphic computing และสถาปัตยกรรมอื่นๆ ที่สามารถลดข้อกำหนดพลังงานได้อย่างมาก คนอื่นๆ กำลังทำงานเกี่ยวกับการปรับปรุงอัลกอริทึมที่สามารถทำให้ฮาร์ดแวร์ที่มีอยู่มีประสิทธิภาพมากขึ้น ภูมิทัศน์ที่โดดเด่นด้วย GPU ในปัจจุบันอาจเป็นตัวแทนขั้นตอนกลางมากกว่ารูปแบบสุดท้ายของการคำนวณ AI
มุมมองนี้แนะนำว่าการลงทุน AI ในวันนี้อาจเหมือนกับการสร้างรถม้าที่ได้รับการปรับปรุงให้ดีที่สุดก่อนการปฏิวัติรถยนต์ เทคโนโลยีนี้ใช้งานได้ แต่มันไม่ใช่คำตอบสุดท้าย การก้าวกระโดดที่แท้จริงจะมาจากแนวทางที่แตกต่างโดยพื้นฐานซึ่งยังไม่ถูกประดิษฐ์ขึ้น
ข้อจำกัดของ AI ในปัจจุบันเมื่อเทียบกับความสามารถของมนุษย์
- สมองมนุษย์: ใช้พลังงานประมาณ 20 วัตต์ มีความจุในการจัดเก็บข้อมูลประมาณ 2 เพตาไบต์
- โมเดล AI ในปัจจุบัน: ต้องการศูนย์ข้อมูลที่ใช้พลังงานหลายเมกะวัตต์
- ความท้าทายหลัก: การค้นหาสถาปัตยกรรมที่สามารถบรรลุระดับความฉลาดเทียบเท่ามนุษย์ด้วยประสิทธิภาพที่ใกล้เคียงกัน
บทสรุป
ภูมิทัศน์ AI ในวันนี้คล้ายคลึงกับอินเทอร์เน็ตยุคแรกในแง่ของศักยภาพและความไม่แน่นอน เราสามารถเห็นคำสัญญาของเทคโนโลยีแต่ต่อสู้กับการทำนายอย่างแม่นยำว่ามันจะพัฒนาอย่างไรหรือแอปพลิเคชัน killer อะไรจะเกิดขึ้น ชุมชนยังคงแบ่งระหว่างผู้ที่เห็นการวางรากฐานและผู้ที่เห็นการขยายฟองสบู่ สิ่งที่ชัดเจนคือเราอยู่ในช่วงของการทดลองและการลงทุนอย่างรวดเร็วซึ่งผลลัพธ์สุดท้ายยังคงไม่แน่นอน ยุค dial-up ในที่สุดก็ให้ทางแก่ broadband และข้อจำกัดของ AI ในวันนี้อาจให้ทางแก่ระบบที่มีความสามารถและเข้าถึงได้มากขึ้นเช่นกัน - แต่เส้นทางไปข้างหน้ายังคงมีการถกเถียงกันอย่างร้อนแรง
อ้างอิง: AI’s Dial-Up Era
