การผลักดันอย่างหนักของ Microsoft ในการเฝ้าติดตามการใช้งาน Copilot AI ผ่านเครื่องมือ Viva Insights กำลังก่อให้เกิดปฏิกิริยาตอบรับในทางลบอย่างกว้างขวางจากผู้ใช้ ซึ่งตั้งคำถามถึงคุณค่าที่แท้จริงของเครื่องมือและกำลังหาวิธีสร้างสรรค์เพื่อหลีกเลี่ยงการถูกเฝ้าดู ในขณะที่บริษัทต่างๆ ต้องเผชิญกับแรงกดดันในการแสดงให้เห็นความคุ้มค่าของการสมัครใช้บริการ AI ราคาแพง พนักงานกำลังตอบสนองด้วยทุกอย่างตั้งแต่การใช้สคริปต์อัตโนมัติไปจนถึงการต่อต้านโดยตรง ซึ่งเผยให้เห็นช่องว่างที่เพิ่มขึ้นระหว่างความทะเยอทะยานด้าน AI ของ Microsoft กับความเป็นจริงในที่ทำงาน
ปัญหาการเฝ้าติดตาม
การผนวกเกณฑ์มาตรฐานการยอมรับ Copilot เข้าไปใน Viva Insights ของ Microsoft แสดงถึงการยกระดับความพยายามของบริษัทในการขับเคลื่อนการใช้งาน AI เครื่องมือนี้ช่วยให้ผู้จัดการสามารถติดตามความถี่ที่พนักงานใช้ Copilot ทั่วทั้งระบบนิเวศของ Microsoft โดยเปรียบเทียบทีมงานกับเกณฑ์มาตรฐานภายในและแม้แต่ข้อมูลที่ไม่ระบุชื่อจากองค์กรอื่นๆ สิ่งนี้สร้างสิ่งที่ผู้แสดงความคิดเห็นรายหนึ่งอธิบายไว้ว่าเทียบเท่ากับเกมกระดานผู้นำสำหรับการยอมรับ AI ซึ่งเปลี่ยนการใช้งานเครื่องมือให้กลายเป็นตัวชี้วัดประสิทธิภาพ แทนที่จะมุ่งเน้นที่การเพิ่มผลผลิตที่แท้จริง
ปฏิกิริยาตอบรับจากชุมชนเป็นไปในทางลบอย่างท่วมท้น โดยหลายคนตั้งคำถามต่อสมมติฐานพื้นฐานที่ว่าการใช้ Copilot ที่เพิ่มขึ้นจะแปลเป็นผลงานที่ดีขึ้นโดยอัตโนมัติ ดังที่ผู้แสดงความคิดเห็นหนึ่งระบุไว้ว่า มีสมมติฐานที่ฝังแน่นแต่มีข้อบกพร่องว่าเครื่องมือเหล่านั้นดีต่อผลผลิต ความรู้สึกนี้สะท้อนไปทั่วทั้งการอภิปราย โดยผู้ใช้ชี้ให้เห็นว่างานที่มีความหมายมักเกิดขึ้นนอกแอปพลิเคชันที่ถูกเฝ้าติดตาม
ฉันรอคอยสิ่งที่เทียบเท่ากับเครื่องเขย่าเมาส์สำหรับ Copilot
ขอบเขตการติดตามของ Viva Insights
- ติดตามการใช้งาน Copilot ใน: Teams, Outlook, Word, Excel, PowerPoint, OneNote, Loop
- เปรียบเทียบกับ: ทีมภายในองค์กร, องค์กรอื่นๆ (แบบไม่ระบุตัวตน)
- เมตริกต่างๆ ประกอบด้วย: เปอร์เซ็นต์ของผู้ใช้งานที่ Active, การนำไปใช้แยกตามแอปพลิเคชัน
การต่อต้านอย่างสร้างสรรค์และการปฏิบัติตามอย่างไม่เต็มใจ
เมื่อต้องเผชิญกับตัวชี้วัดการยอมรับที่บังคับ ผู้ใช้กำลังวางแผนมาตรการตอบโต้อยู่แล้ว การอภิปรายเผยให้เห็นกลยุทธ์มากมายในการเล่นกับระบบ รวมถึงการเขียนสคริปต์เพื่อสร้างคำถามไปยัง Copilot โดยอัตโนมัติ การใช้ฟังก์ชัน COPILOT() ใหม่ใน Excel เพื่อสร้างกิจกรรมเทียม หรือเพียงแค่ขอให้ AI เล่นเกมเช่นหมากรุกหรือโอเอกซ์ในพื้นหลัง แนวทางการปฏิบัติตามอย่างไม่เต็มใจนี้เน้นย้ำถึงความไร้สาระของการวัดการใช้งานเครื่องมือแทนที่ผลลัพธ์ของการทำงาน
ชุมชนได้ระบุสิ่งที่พวกเขาเรียกว่า วงจรขยะ AI — ที่ซึ่งพนักงานสร้างการโต้ตอบกับ AI ที่ไม่มีความหมายเพื่อให้เป็นไปตามตัวชี้วัด ในขณะที่ยังคงทำงานจริงของพวกเขาผ่านวิธีการแบบดั้งเดิม บางคนเสนอว่าสิ่งนี้อาจนำไปสู่ความกังวลด้านสิ่งแวดล้อม เนื่องจากบริษัทต่างๆ สูญเสียทรัพยากรคอมพิวเตอร์ไปกับกิจกรรมเทียมที่ออกแบบมาเพียงเพื่อให้ระบบการเฝ้าติดตามพึงพอใจ
กลยุทธ์การต่อต้านของผู้ใช้
- สคริปต์อัตโนมัติที่สร้างกิจกรรม Copilot ปลอม
- ใช้ฟังก์ชัน COPILOT() ใน Excel เพื่อสร้างการใช้งานเทียม
- การโต้ตอบกับ AI ในพื้นหลัง (เกม งานซ้ำๆ)
- "การปฏิบัติตามอย่างประชดประชัน" ด้วยการใช้งานขั้นต่ำที่กำหนด
ปัญหาคุณภาพและราคา
ในราคา 28.10 ยูโร ต่อผู้ใช้ ต่อเดือน Microsoft 365 Copilot มีราคาสูงกว่าสิทธิ์การใช้งาน Microsoft 365 Business Standard มาตรฐาน (11.70 ยูโร) ถึงกว่าเท่าตัว ความแตกต่างของราคาที่มากนี้กำลังก่อให้เกิดความตกใจกับราคาอย่างมีนัยสำคัญในหมู่ผู้ดูแลระบบ โดยเฉพาะอย่างยิ่งเมื่อพิจารณาจากข้อจำกัดที่รับรู้ได้ของเครื่องมือเมื่อเทียบกับทางเลือกอื่นๆ เช่น ChatGPT Enterprise ผู้แสดงความคิดเห็นจำนวนมากตั้งคำถามว่า Copilot ให้คุณค่าคุ้มกับราคาสูงที่เรียกเก็บหรือไม่
ความกังวลเกี่ยวกับคุณภาพก็เร่งด่วนไม่แพ้กัน ผู้ใช้หลายรายรายงานว่า Copilot รู้สึกว่าถูกจำกัดอย่างรุนแรงเมื่อเทียบกับ ChatGPT แม้ว่าจะถูกกล่าวอ้างว่าทำงานบนเทคโนโลยีที่คล้ายกัน บางคนระบุปัญหาที่เฉพาะเจาะจงเกี่ยวกับความช่วยเหลือในการเขียนโค้ด ซึ่งโค้ดที่สร้างโดย AI มักต้องการการตรวจสอบและแก้ไขอย่างละเอียด และบางครั้งก็สร้างงานมากขึ้นกว่าที่ประหยัดได้ ดังที่นักพัฒนารายหนึ่งสังเกตว่า เวลาที่พวกเขาประหยัดได้นั้น ถูกนำมาจากเวลาของฉันที่ต้องอธิบายปัญหาทั้งหมดในโค้ดของพวกเขา
การเปรียบเทียบราคา Microsoft 365 Copilot
- Microsoft 365 Copilot: €28.10 ต่อผู้ใช้/เดือน
- Microsoft 365 Business Standard: €11.70 ต่อผู้ใช้/เดือน
- ส่วนต่างของราคา: เพิ่มขึ้น 140% สำหรับ Copilot
ผลกระทบที่กว้างขึ้นต่อการยอมรับ AI
การต่อต้านการบังคับใช้ Copilot สะท้อนให้เห็นถึงความกังวลที่ใหญ่กว่าเกี่ยวกับวิธีการที่เครื่องมือ AI กำลังถูกบูรณาการเข้าไปในที่ทำงาน ผู้แสดงความคิดเห็นวาดเส้นขนานไปยังการผลักดันด้านเทคโนโลยีในอดีตที่ล้มเหลวในการส่งมอบประโยชน์ตามที่สัญญาไว้ โดยมีผู้หนึ่งระบุว่านี่รู้สึกเหมือน Microsoft ทำลายตัวเอง การอภิปรายชี้ให้เห็นว่าการยอมรับ AI ที่ประสบความสำเร็จจำเป็นต้องแก้ปัญหาที่แท้จริงของผู้ใช้ แทนที่จะเป็นการเปลี่ยนแบรนด์ของฟังก์ชันการทำงานที่มีอยู่ภายใต้ฉลาก AI
ฉันทามติของชุมชนบ่งชี้ว่าแนวทางการเฝ้าติดตามของ Microsoft อาจให้ผลลัพธ์ตรงกันข้ามในท้ายที่สุด แทนที่จะแสดงให้เห็นถึงคุณค่าของ Copilot เครื่องมือเฝ้าติดตามอาจเผยให้เห็นว่าพนักงานต้องการผู้ช่วย AI นี้น้อยเพียงใดสำหรับงานประจำวันของพวกเขา ดังที่ผู้แสดงความคิดเห็นหนึ่งกล่าวไว้อย่างรวบรัดว่า คุณไม่จำเป็นต้องทำแบบนี้กับเครื่องมือที่มีประโยชน์
สถานการณ์นี้เป็นบททดสอบที่สำคัญสำหรับการยอมรับ AI ในองค์กร หาก Microsoft ไม่สามารถโน้มน้าวให้ผู้ใช้เห็นคุณค่าของ Copilot ผ่านประโยชน์ใช้สอยที่แท้จริงได้ การบังคับให้ยอมรับผ่านการเฝ้าติดตามอาจเพียงแต่เร่งให้เกิดความสงสัยและการต่อต้าน ทางเลี่ยงที่สร้างสรรค์ซึ่งกำลังถูกอภิปรายอยู่ชี้ให้เห็นว่าพนักงานจะหาวิธีเพื่อรักษาผลผลิตของพวกเขาในขณะที่ทำให้เป็นไปตามตัวชี้วัดที่กำหนดโดยพลการเสมอ — ซึ่งเป็นบทเรียนที่ขยายไปไกลกว่าเครื่องมือ AI ไปสู่วิธีการที่เราวัดงานที่มีความหมายในยุคดิจิทัล
อ้างอิง: Microsoft lets bosses spot teams that are dodging Copilot