ยักษ์ใหญ่เทคโนโลยีเทเงินหลายพันล้านเข้าสู่พลังงานนิวเคลียร์ ขณะที่การถ่ายเทเรื่องพลังงาน AI ทวีความรุนแรง

ทีมชุมชน BigGo
ยักษ์ใหญ่เทคโนโลยีเทเงินหลายพันล้านเข้าสู่พลังงานนิวเคลียร์ ขณะที่การถ่ายเทเรื่องพลังงาน AI ทวีความรุนแรง

การเติบโตของปัญญาประดิษฐ์ได้จุดประกายการถกเถียงอย่างรุนแรงเกี่ยวกับการใช้พลังงาน โดยบริษัทเทคโนโลยีได้ลงทุนในพลังงานนิวเคลียร์อย่างไม่เคยมีมาก่อน ในขณะที่ผู้เชี่ยวชาญโต้เถียงกันว่า AI จะใช้พลังงานไฟฟ้าจากโครงข่ายไฟฟ้าจริงหรือไม่ ในช่วงหลายเดือนที่ผ่านมา บริษัทเทคโนโลยีรายใหญ่ได้ให้คำมั่นลงทุนหลายพันล้านดอลลาร์เพื่อรักษาแหล่งพลังงาน ซึ่งเป็นสัญญาณที่แสดงให้เห็นว่าพวกเขาเชื่อว่า AI จะต้องใช้ไฟฟ้าจำนวนมหาศาล

บริษัทเทคโนโลยีรายใหญ่แข่งขันกันเพื่อรักษาพลังงานนิวเคลียร์

Microsoft , Google และ Amazon ได้ประกาศความร่วมมือที่สำคัญกับบริษัทพลังงานนิวเคลียร์ในช่วงหลายเดือนที่ผ่านมา Microsoft ทำข้อตกลงเพื่อเริ่มใช้งานโรงไฟฟ้านิวเคลียร์ Three Mile Island อีกครั้ง ขณะที่ Google ให้คำมั่นสนับสนุนโครงการนิวเคลียร์ใหม่สามโครงการและร่วมมือกับสตาร์ทอัพ Kairos Power ส่วน Amazon ซื้อหุ้นในบริษัทพัฒนาพลังงานนิวเคลียร์โดยเฉพาะเพื่อจ่ายไฟให้กับศูนย์ข้อมูลของตน การเคลื่อนไหวเหล่านี้แสดงให้เห็นการเปลี่ยนแปลงอย่างมากจากการเติบโตของเทคโนโลยีในอดีต ซึ่งบริษัทต่างๆ ไม่จำเป็นต้องรักษาโรงไฟฟ้าทั้งหมดเพื่อตอบสนองความต้องการด้านการคำนวณ

ขนาดของการลงทุนเหล่านี้แสดงให้เห็นว่าผู้นำในอุตสาหกรรมเชื่อจริงๆ ว่า AI จะใช้ไฟฟ้ามากกว่ารูปแบบการใช้งานในปัจจุบัน OpenAI เพิ่งประกาศความร่วมมือที่วัดเป็นกิกะวัตต์แทนที่จะใช้ตัวชี้วัดแบบเดิมอย่างความสามารถในการคำนวณหรือดอลลาร์ ซึ่งบ่งชี้ว่าการใช้พลังงานได้กลายเป็นความกังวลหลักสำหรับการพัฒนา AI

ข้อผูกพันด้านพลังงานนิวเคลียร์ของบริษัทเทคโนโลยีใหญ่ (2024)

  • Microsoft: ความร่วมมือในการเปิดโรงไฟฟ้านิวเคลียร์ Three Mile Island ใหม่
  • Google: สนับสนุนโครงการนิวเคลียร์ใหม่สามโครงการ + ความร่วมมือกับ Kairos Power
  • Amazon: ซื้อหุ้นในบริษัทพัฒนาพลังงานนิวเคลียร์สำหรับศูนย์ข้อมูล
  • OpenAI / Sam Altman: ความร่วมมือกับ Oklo เพื่อการผลิตพลังงานนิวเคลียร์

ข้อโต้แย้งเรื่องรูปแบบทางประวัติศาสตร์ไม่เพียงพอ

แม้ว่าผู้เชี่ยวชาญบางคนจะชี้ไปที่การคาดการณ์ในอดีตเกี่ยวกับการใช้พลังงานของคอมพิวเตอร์ที่ไม่เป็นจริง แต่สถานการณ์ปัจจุบันดูเหมือนจะแตกต่างไปจากเดิมโดยพื้นฐาน การเปรียบเทียบกับการคาดการณ์ปี 1999 เกี่ยวกับคอมพิวเตอร์ส่วนบุคคลที่จะใช้ไฟฟ้า 50% ของ สหรัฐอเมริกา มองข้ามความแตกต่างที่สำคัญ: บริษัท AI ในปัจจุบันกำลังสนับสนุนการคาดการณ์ของพวกเขาด้วยความมั่นใจทางการเงินที่แท้จริงต่อโครงสร้างพื้นฐานด้านพลังงาน

บริษัทที่กำลังสร้างกำลังการผลิตเชื่ออย่างแน่นอนว่า AI จะใช้พลังงานมากเท่าที่เราได้รับแจ้ง เราได้รับแจ้งเรื่องนี้ไม่ใช่บนพื้นฐานของการคาดเดาเชิงสมมติฐาน แต่บนพื้นฐานของเงินหลายพันล้านดอลลาร์ที่แท้จริงที่ถูกใช้จ่ายไปกับกำลังการผลิตไฟฟ้าที่แท้จริงสำหรับศูนย์ข้อมูลที่แท้จริงโดยคนจริงที่ต้องการเก็บเงินจำนวนดังกล่าวไว้มากกว่า

ผลกระทบย้อนกลับยังทำให้ข้อโต้แย้งเรื่องประสิทธิภาพซับซ้อนขึ้น แม้ว่าการดำเนินงาน AI แต่ละครั้งจะมีประสิทธิภาพมากขึ้น แต่การใช้งานที่เพิ่มขึ้นมักจะมีน้ำหนักมากกว่าผลประโยชน์เหล่านี้ รูปแบบนี้สะท้อนเทคโนโลยีอื่นๆ เช่นเครือข่าย 5G ที่ประสิทธิภาพที่ดีขึ้นต่อการดำเนินงานนำไปสู่การใช้งานโดยรวมและการใช้พลังงานที่สูงขึ้นอย่างมาก

บริบทการใช้พลังงานของ AI

  • การใช้ไฟฟ้าของภาคเทคโนโลยีสารสนเทศในปัจจุบัน: 1-2% ของการใช้ไฟฟ้าทั้งหมดทั่วโลก
  • การขุด Cryptocurrency: 0.5-1% ของการใช้ไฟฟ้าทั่วโลก
  • การผลิตซีเมนต์: ~7% ของการปล่อยก๊าซเรือนกระจกทั่วโลก (เพื่อเปรียบเทียบ)
  • รายได้ของ OpenAI: ประมาณ 3 พันล้านดอลลาร์สหรัฐต่อปี
  • ต้นทุนการพัฒนาของ OpenAI: ประมาณ 7 พันล้านดอลลาร์สหรัฐรวมทั้งหมด

ผลกระทบในท้องถิ่นและความเครียดของโครงสร้างพื้นฐาน

การรวมศูนย์ข้อมูล AI ในพื้นที่ที่มีไฟฟ้าราคาถูกกว่าส่งผลกระทบต่อตลาดพลังงานท้องถิ่นแล้ว บริษัทอย่าง xAI กำลังสร้างสิ่งอำนวยความสะดวกในสถานที่เช่น Tennessee ซึ่งต้นทุนพลังงานต่ำกว่าแต่มักจะพึ่งพาแหล่งพลังงานที่สกปรกกว่า การรวมกลุ่มทางภูมิศาสตร์นี้อาจทำให้ราคาไฟฟ้าในท้องถิ่นสูงขึ้นและสร้างความเครียดให้กับโครงข่ายไฟฟ้าในภูมิภาค โดยเฉพาะเมื่อ สหรัฐอเมริกา เผชิญกับการเปลี่ยนแปลงนโยบายที่อาจเบี่ยงเบนจากการลงทุนพลังงานหมุนเวียน

ความต้องการโครงสร้างพื้นฐานขยายไปเกินกว่าการผลิตไฟฟ้าเท่านั้น ศูนย์ข้อมูล AI สมัยใหม่ต้องการระบบทำความเย็นด้วยน้ำที่ไม่จำเป็นสำหรับภาระงานการคำนวณในอดีต โดยการประมาณการบางส่วนแสดงให้เห็นว่าการสอบถาม AI แต่ละครั้งใช้น้ำดื่มหลายหยดสำหรับการทำความเย็น

การถกเถียงระหว่างประสิทธิภาพกับขนาด

ผู้สนับสนุนข้อโต้แย้งที่ว่า AI จะไม่ใช้พลังงานมากชี้ไปที่การปรับปรุงประสิทธิภาพและศักยภาพของ AI ในการทดแทนกิจกรรมที่ใช้พลังงานมากกว่า พวกเขาโต้แย้งว่า AI สามารถลดการใช้พลังงานโดยการขจัดการเดินทางเพื่อธุรกิจ ลดความต้องการโครงสร้างพื้นฐานทางกายภาพ และเพิ่มประสิทธิภาพกระบวนการต่างๆ

อย่างไรก็ตาม นักวิจารณ์ชี้ให้เห็นว่าการฝึกอบรม AI ทำงานคล้ายกับการขุดสกุลเงินดิจิทัล โดยบริษัทต่างๆ เพิ่มความต้องการด้านการคำนวณอย่างต่อเนื่องเพื่อรักษาความสามารถในการแข่งขัน การแข่งขันเพื่อพัฒนาโมเดลที่ทรงพลังมากขึ้นได้นำไปสู่ความต้องการพลังงานที่เติบโตแบบเลขชี้กำลัง โดยไม่มีเพดานที่ชัดเจน

การถกเถียงมุ่งเน้นไปที่ว่าการเพิ่มประสิทธิภาพสามารถก้าวทันกับการใช้งานที่ขยายตัวอย่างรวดเร็วหรือไม่ แม้ว่าการดำเนินงาน AI แต่ละครั้งอาจมีประสิทธิภาพมากขึ้นเมื่อเวลาผ่านไป แต่การใช้พลังงานทั้งหมดขึ้นอยู่กับความเร็วในการเติบโตของการใช้งานและความต้องการด้านการคำนวณ

หลักฐานปัจจุบันแสดงให้เห็นว่าบริษัทเทคโนโลยีรายใหญ่เชื่อว่าความต้องการพลังงานจะมีความสำคัญเพียงพอที่จะสนับสนุนการลงทุนโครงสร้างพื้นฐานขนาดใหญ่ ว่าการลงทุนเหล่านี้จะพิสูจน์ได้ว่ามีการมองการณ์ไกลหรือมากเกินไปน่าจะชัดเจนภายในไม่กี่ปีข้างหน้าเมื่อรูปแบบการใช้งาน AI มีเสถียรภาพ

อ้างอิง: AI won't use as much electricity as we are told