พนักงาน Google ต่อต้านนโยบายบังคับใช้ AI ขณะที่ผู้บริหารเรียกร้องผลผลิตที่สูงขึ้น

ทีมชุมชน BigGo
พนักงาน Google ต่อต้านนโยบายบังคับใช้ AI ขณะที่ผู้บริหารเรียกร้องผลผลิตที่สูงขึ้น

การผลักดันล่าสุดของ Google ให้พนักงานมีความเชี่ยวชาญด้าน AI มากขึ้นได้จุดประกายการถกเถียงอย่างเข้มข้นในชุมชนเทคโนโลยี โดยหลายคนตั้งคำถามว่ากลยุทธ์การนำ AI มาใช้อย่างก้าวร้าวของบริษัทนั้นสมจริงหรือไม่ หรืออาจเป็นอันตรายต่อคุณภาพของโค้ดและวัฒนธรรมองค์กร

ในการประชุมทั่วทั้งบริษัท CEO Sundar Pichai เน้นย้ำว่า Google ต้องทำสิ่งต่างๆ ให้สำเร็จมากขึ้นโดยใช้ประโยชน์จากการเปลี่ยนแปลงครั้งนี้เพื่อขับเคลื่อนผลผลิตที่สูงขึ้น ในขณะที่บริษัทเผชิญแรงกดดันที่เพิ่มขึ้นจากคู่แข่งและมีแผนจะใช้จ่าย 85 พันล้านดอลลาร์สหรัฐ สำหรับค่าใช้จ่ายด้านทุนในปี 2025 ข้อความนี้ชัดเจน: พนักงานต้องยอมรับเครื่องมือ AI หรือเสี่ยงที่จะตกอยู่ข้างหลังในสภาพแวดล้อมการแข่งขันที่ทวีความรุนแรงขึ้น

ข้อมูลการลงทุนและแรงงานของ Google AI:

  • แผนการใช้จ่ายเงินทุนปี 2025: 85 พันล้าน USD (เพิ่มขึ้นจาก 75 พันล้าน)
  • แรงงานปัจจุบัน: ~187,000 พนักงาน (ลดลงจากจุดสูงสุด 191,000 ในปี 2023)
  • การลดแรงงาน: ~6% ถูกตัดออกในช่วงต้นปี 2023
  • การใช้งานเครื่องมือ Cider AI: อัตราการใช้งาน 50% ต่อสัปดาห์นับตั้งแต่เปิดตัวในเดือนพฤษภาคม 2025

ชุมชนตั้งคำถามเกี่ยวกับความเข้าใจด้าน AI ของผู้บริหาร

ผู้เชี่ยวชาญด้านเทคโนโลยีแสดงความสงสัยเกี่ยวกับความเข้าใจของผู้นำเกี่ยวกับความสามารถของ AI หลายคนชี้ไปที่แนวทางการเปิดตัวผลิตภัณฑ์ AI ของ Google ที่ดูเหมือนเป็นการตอบสนอง โดยชี้ให้เห็นว่าผู้บริหารอาจประเมินเทคโนโลยี AI ปัจจุบันสูงเกินไปในขณะที่ประเมินความซับซ้อนของการพัฒนาซอฟต์แวร์ต่ำเกินไป การวิพากษ์วิจารณ์มุ่งเน้นไปที่ประวัติของ Google กับผลิตภัณฑ์ AI ที่ดูเหมือนจะไม่ตอบสนองความต้องการของผู้ใช้จริงอย่างมีประสิทธิภาพ

สมาชิกชุมชนบางคนใช้แนวทางที่เสียดสีมากขึ้นต่อคำสั่งนี้ โดยแนะนำว่าหาก AI มีความสามารถจริงตามที่ผู้บริหารอ้าง บางทีบทบาทผู้นำควรเป็นสิ่งแรกที่ถูกทำให้เป็นอัตโนมัติ ความรู้สึกนี้สะท้อนความผิดหวังในวงกว้างต่อคำสั่งจากบนลงล่างที่อาจไม่สอดคล้องกับความเป็นจริงทางเทคนิคในพื้นที่

ความกังวลของนักพัฒนาเกี่ยวกับคุณภาพโค้ดและความรับผิดชอบ

ความกังวลสำคัญในหมู่วิศวกรซอฟต์แวร์คือผลกระทบที่อาจเกิดขึ้นต่อคุณภาพโค้ดและความรับผิดชอบ หลายคนกังวลว่าการรีบใช้โค้ดที่สร้างโดย AI อาจนำไปสู่สิ่งที่บางคนเรียกว่า AI slop - โค้ดคุณภาพต่ำที่อาจไม่ปลอดภัยและต้องการการตรวจสอบและแก้ไขข้อบกพร่องอย่างละเอียด

การที่พวกเขาผลักดัน AI อย่างหนักนั้นไร้ความรับผิดชอบอย่างยิ่ง มันไม่สามารถทดแทนวิศวกรหรือเร่งความเร็วให้พวกเขาได้อย่างมากหากพวกเขาต้องตรวจสอบผลลัพธ์ทั้งหมดของมัน

ความกลัวคือในขณะที่เครื่องมือ AI อาจสร้างโค้ดได้อย่างรวดเร็ว เวลาที่ประหยัดได้ในการพัฒนาเริ่มต้นอาจสูญเสียไปในการตรวจสอบ ทดสอบ และแก้ไขปัญหา สิ่งนี้สร้างภาระเพิ่มเติมให้กับนักพัฒนาอาวุโสและผู้ตรวจสอบโค้ดที่ต้องรับรองว่ามาตรฐานคุณภาพได้รับการรักษาไว้

นโยบาย AI บังคับของบริษัทเทคโนโลยีใหญ่:

  • Amazon: คาดว่าพนักงานในองค์กรจะลดลงเมื่อมีการนำเครื่องมือ AI มาใช้
  • Microsoft: "การใช้ AI ไม่ใช่ตัวเลือกอีกต่อไป" สำหรับเครื่องมือนักพัฒนา
  • Shopify: "ความคาดหวังพื้นฐาน" ที่พนักงานต้องใช้ AI ทุกวัน
  • Google: พนักงานต้อง "เชี่ยวชาญ AI มากขึ้น" เพื่อเพิ่มประสิทธิภาพการทำงาน

ผลลัพธ์ที่หลากหลายจากการนำเครื่องมือ AI มาใช้ในระยะแรก

แม้จะมีความกังวล นักพัฒนาบางคนรายงานประสบการณ์เชิงบวกกับเครื่องมือเขียนโค้ด AI เครื่องมือภายในของ Google ชื่อ Cider มีผู้ใช้ 50% ที่ใช้งานรายสัปดาห์นับตั้งแต่เปิดตัวในเดือนพฤษภาคม ซึ่งชี้ให้เห็นว่าเมื่อนำมาใช้อย่างเหมาะสม การช่วยเหลือของ AI สามารถมีคุณค่าสำหรับงานพัฒนาบางอย่าง

นักพัฒนาที่มีประสบการณ์สังเกตว่าเครื่องมือ AI ทำงานได้ดีที่สุดสำหรับการสร้างต้นแบบเริ่มต้นและจัดการโค้ดแบบแผน มากกว่าการทดแทนการตัดสินใจของมนุษย์ในการแก้ปัญหาที่ซับซ้อน กุญแจสำคัญดูเหมือนจะเป็นการเข้าใจว่าเมื่อไหร่และอย่างไรที่จะใช้ AI อย่างมีประสิทธิภาพ มากกว่าการใช้มันแบบสากล

การถกเถียงสะท้อนความตึงเครียดในวงกว้างในอุตสาหกรรมเทคโนโลยีระหว่างคำมั่นสัญญาของการเพิ่มผลผลิตด้วย AI และความท้าทายในทางปฏิบัติของการรักษาคุณภาพในขณะที่ลดการดูแลของมนุษย์ ขณะที่ Google และยักษ์ใหญ่ด้านเทคโนโลジีอื่นๆ ยังคงผลักดันการนำ AI มาใช้ ความสำเร็จของความคิดริเริ่มเหล่านี้อาจขึ้นอยู่กับการหาสมดุลที่เหมาะสมระหว่างระบบอัตโนมัติและความเชี่ยวชาญของมนุษย์ในที่สุด

อ้างอิง: Google execs say employees have to 'be more Al-savvy' as competition ramps up