Microsoft ได้เปิดตัวนโยบายใหม่ที่ก่อให้เกิดความขัดแย้ง โดยอนุญาตให้พนักงานใช้การสมัครสมาชิก Copilot ส่วนบุคคลของตนเองกับเอกสารงาน แม้ว่าบริษัทของพวกเขาจะยังไม่อนุมัติเครื่องมือ AI ก็ตาม การเคลื่อนไหวครั้งนี้ได้จุดประกายการอภิปรายอย่างเข้มข้นในชุมชนเทคโนโลยี โดยหลายคนมองว่า Microsoft ก้าวล่วงขอบเขตและทำลายอำนาจของแผนก IT
นโยบายนี้ช่วยให้พนักงานที่มีแผน Personal, Family หรือ Premium Copilot สามารถเข้าถึงคุณสมบัติ AI ผ่านบัญชี Microsoft 365 ส่วนบุคคลของตนขณะทำงานกับเอกสารธุรกิจ Microsoft กำหนดกรอบนี้เป็นทางเลือกที่ปลอดภัยกว่าที่ช่วยปกป้องข้อมูลองค์กร แต่ชุมชนเทคโนโลยีมองเห็นในแง่ที่แตกต่าง
แผน Microsoft Copilot ส่วนบุคคลที่มีสิทธิ์ใช้งานเพื่อการทำงาน:
- Personal Plan
- Family Plan
- Premium Plan
ผู้เชี่ยวชาญ IT รู้สึกถูกทรยศจากแนวทางของ Microsoft
การวิพากษ์วิจารณ์ที่รุนแรงที่สุดมาจากผู้ดูแลระบบ IT ที่รู้สึกว่า Microsoft ได้ข้ามอำนาจของพวกเขาโดยเจตนา ผู้เชี่ยวชาญหลายคนชี้ให้เห็นว่า Microsoft เปิดใช้งานคุณสมบัติใหม่โดยค่าเริ่มต้น บังคับให้ทีม IT ต้องปิดการใช้งานอย่างแข็งขันแทนที่จะเลือกเข้าร่วม รูปแบบนี้ได้สร้างความหงุดหงิดที่เพิ่มขึ้นในหมู่ผู้ที่รับผิดชอบด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบในที่ทำงาน
ชุมชนเน้นย้ำว่า Microsoft ทำการตลาดโดยตรงกับผู้ใช้ปลายทาง โดยหวังว่าพวกเขาจะกดดันฝ่ายจัดการให้เอาชนะการตัดสินใจของ IT กลยุทธ์นี้ทำให้แผนก IT ตกอยู่ในสถานการณ์ที่ยาก เนื่องจากพวกเขาต้องอนุญาตให้ใช้ซอฟต์แวร์ที่อาจเสี่ยงหรือเผชิญกับการต่อต้านจากภายในจากพนักงานที่ต้องการเข้าถึงเครื่องมือใหม่
คุณสมบัติการควบคุม IT ที่มีให้:
- การควบคุมนโยบายคลาวด์เพื่อปิดใช้งาน Copilot ส่วนบุคคล
- ความสามารถในการตรวจสอบการโต้ตอบ Copilot ส่วนบุคคล
- การควบคุมข้อมูลประจำตัวและสิทธิ์ขององค์กร
- การบังคับใช้นโยบายการปฏิบัติตามข้อกำหนด
ชื่อผลิตภัณฑ์ที่สับสนและข้อกังวลเรื่องราคา
ผู้ใช้แสดงความสับสนอย่างมากเกี่ยวกับการสร้างแบรนด์ Copilot ของ Microsoft ซึ่งปัจจุบันครอบคลุมการรวม AI ของ Office, ผู้ช่วยเขียนโค้ดของ GitHub และคุณสมบัติของแล็ปท็อป ความสับสนในการตั้งชื่อนี้ทำให้ทั้งผู้เชี่ยวชาญ IT และผู้ใช้ทั่วไปเข้าใจได้ยากว่าพวกเขากำลังซื้อหรือใช้อะไรจริงๆ
สมาชิกชุมชนหลายคนรายงานปัญหาการเรียกเก็บเงินที่น่าแปลกใจ โดยผู้ใช้คนหนึ่งค้นพบว่าพวกเขาถูกกำหนดให้จ่าย 100 ดอลลาร์สหรัฐฯ ต่อปีสำหรับคุณสมบัติ AI ที่พวกเขาไม่เคยขอ ความเห็นพ้องกันชี้ให้เห็นว่าแผนที่มีค่าที่สุดของ Microsoft มักจะเป็นแผนที่ถูกที่สุดที่ไม่มีส่วนเสริม AI
Microsoft เป็นผู้เชี่ยวชาญในโปรแกรมที่สับสน การตั้งชื่อและแผนที่สับสน เกือบทุกสิ่งที่พวกเขาผลิตมีความไม่ชัดเจนในการตั้งชื่ออย่างสิ้นเชิง
ผลกระทบด้านความปลอดภัยและความน่าเชื่อถือ
นโยบายนี้ทำให้เกิดคำถามร้ายแรงเกี่ยวกับความน่าเชื่อถือของ Microsoft โดยเฉพาะสำหรับองค์กรที่มีข้อกำหนดด้านความเป็นส่วนตัวที่เข้มงวด แม้ว่า Microsoft จะอ้างว่าข้อมูลองค์กรยังคงได้รับการปกป้องผ่านสิทธิ์บัญชีงาน สภาพแวดล้อมการทำงานหลายแห่งก็ลังเลเกี่ยวกับเครื่องมือ AI เนื่องจากข้อกังวลด้านความไวของข้อมูล
ชุมชนสังเกตว่าคำสั่งและการตอบสนองของพนักงานจะถูกบันทึกโดยนายจ้าง ซึ่งสร้างปัญหาความเป็นส่วนตัวที่อาจเกิดขึ้นสำหรับพนักงานที่อาจไม่เข้าใจผลกระทบของการตรวจสอบอย่างเต็มที่
ข้อจำกัด:
- ผู้เช่าภาครัฐ ( GCC/DoD ) ไม่รองรับความสามารถนี้
- การเข้าถึงของผู้ใช้ถูกควบคุมโดยสิทธิ์ของบัญชีที่ทำงานเท่านั้น
- คำสั่งและการตอบสนองของพนักงานถูกบันทึกโดยนายจ้าง
มองไปข้างหน้า: การผลักดันการนำ AI มาใช้
แม้จะมีความขัดแย้ง เสียงบางเสียงในชุมชนก็ยอมรับว่าการเข้าถึง AI อาจจะกลายเป็นสิ่งจำเป็นเหมือนกับการเข้าถึงอินเทอร์เน็ตสำหรับประสิทธิภาพการทำงานในเร็วๆ นี้ อย่างไรก็ตาม แนวทางปัจจุบันของการบังคับให้นำมาใช้ผ่านการตั้งค่าเริ่มต้นและการข้ามกระบวนการอนุมัติ IT ได้สร้างความเสียหายต่อความสัมพันธ์ของ Microsoft กับผู้เชี่ยวชาญที่รับผิดชอบการตัดสินใจเทคโนโลยีองค์กร
การอภิปรายสะท้อนความตึงเครียดที่กว้างขึ้นระหว่างการนำ AI มาใช้อย่างรวดเร็วและการกำกับดูแลด้านความปลอดภัยที่เหมาะสม โดย Microsoft ดูเหมือนจะให้ความสำคัญกับสถิติการใช้งานมากกว่าความไว้วางใจของลูกค้าและกระบวนการ IT ที่ได้รับการยอมรับ
อ้างอิง: Microsoft declares bring your Copilot to work day, usurping IT authority