นโยบาย Personal Copilot ที่ทำงานของ Microsoft จุดประกายการต่อต้านจากแผนก IT

ทีมชุมชน BigGo
นโยบาย Personal Copilot ที่ทำงานของ Microsoft จุดประกายการต่อต้านจากแผนก IT

Microsoft ได้เปิดตัวนโยบายใหม่ที่ก่อให้เกิดความขัดแย้ง โดยอนุญาตให้พนักงานใช้การสมัครสมาชิก Copilot ส่วนบุคคลของตนเองกับเอกสารงาน แม้ว่าบริษัทของพวกเขาจะยังไม่อนุมัติเครื่องมือ AI ก็ตาม การเคลื่อนไหวครั้งนี้ได้จุดประกายการอภิปรายอย่างเข้มข้นในชุมชนเทคโนโลยี โดยหลายคนมองว่า Microsoft ก้าวล่วงขอบเขตและทำลายอำนาจของแผนก IT

นโยบายนี้ช่วยให้พนักงานที่มีแผน Personal, Family หรือ Premium Copilot สามารถเข้าถึงคุณสมบัติ AI ผ่านบัญชี Microsoft 365 ส่วนบุคคลของตนขณะทำงานกับเอกสารธุรกิจ Microsoft กำหนดกรอบนี้เป็นทางเลือกที่ปลอดภัยกว่าที่ช่วยปกป้องข้อมูลองค์กร แต่ชุมชนเทคโนโลยีมองเห็นในแง่ที่แตกต่าง

แผน Microsoft Copilot ส่วนบุคคลที่มีสิทธิ์ใช้งานเพื่อการทำงาน:

  • Personal Plan
  • Family Plan
  • Premium Plan

ผู้เชี่ยวชาญ IT รู้สึกถูกทรยศจากแนวทางของ Microsoft

การวิพากษ์วิจารณ์ที่รุนแรงที่สุดมาจากผู้ดูแลระบบ IT ที่รู้สึกว่า Microsoft ได้ข้ามอำนาจของพวกเขาโดยเจตนา ผู้เชี่ยวชาญหลายคนชี้ให้เห็นว่า Microsoft เปิดใช้งานคุณสมบัติใหม่โดยค่าเริ่มต้น บังคับให้ทีม IT ต้องปิดการใช้งานอย่างแข็งขันแทนที่จะเลือกเข้าร่วม รูปแบบนี้ได้สร้างความหงุดหงิดที่เพิ่มขึ้นในหมู่ผู้ที่รับผิดชอบด้านความปลอดภัยและการปฏิบัติตามกฎระเบียบในที่ทำงาน

ชุมชนเน้นย้ำว่า Microsoft ทำการตลาดโดยตรงกับผู้ใช้ปลายทาง โดยหวังว่าพวกเขาจะกดดันฝ่ายจัดการให้เอาชนะการตัดสินใจของ IT กลยุทธ์นี้ทำให้แผนก IT ตกอยู่ในสถานการณ์ที่ยาก เนื่องจากพวกเขาต้องอนุญาตให้ใช้ซอฟต์แวร์ที่อาจเสี่ยงหรือเผชิญกับการต่อต้านจากภายในจากพนักงานที่ต้องการเข้าถึงเครื่องมือใหม่

คุณสมบัติการควบคุม IT ที่มีให้:

  • การควบคุมนโยบายคลาวด์เพื่อปิดใช้งาน Copilot ส่วนบุคคล
  • ความสามารถในการตรวจสอบการโต้ตอบ Copilot ส่วนบุคคล
  • การควบคุมข้อมูลประจำตัวและสิทธิ์ขององค์กร
  • การบังคับใช้นโยบายการปฏิบัติตามข้อกำหนด

ชื่อผลิตภัณฑ์ที่สับสนและข้อกังวลเรื่องราคา

ผู้ใช้แสดงความสับสนอย่างมากเกี่ยวกับการสร้างแบรนด์ Copilot ของ Microsoft ซึ่งปัจจุบันครอบคลุมการรวม AI ของ Office, ผู้ช่วยเขียนโค้ดของ GitHub และคุณสมบัติของแล็ปท็อป ความสับสนในการตั้งชื่อนี้ทำให้ทั้งผู้เชี่ยวชาญ IT และผู้ใช้ทั่วไปเข้าใจได้ยากว่าพวกเขากำลังซื้อหรือใช้อะไรจริงๆ

สมาชิกชุมชนหลายคนรายงานปัญหาการเรียกเก็บเงินที่น่าแปลกใจ โดยผู้ใช้คนหนึ่งค้นพบว่าพวกเขาถูกกำหนดให้จ่าย 100 ดอลลาร์สหรัฐฯ ต่อปีสำหรับคุณสมบัติ AI ที่พวกเขาไม่เคยขอ ความเห็นพ้องกันชี้ให้เห็นว่าแผนที่มีค่าที่สุดของ Microsoft มักจะเป็นแผนที่ถูกที่สุดที่ไม่มีส่วนเสริม AI

Microsoft เป็นผู้เชี่ยวชาญในโปรแกรมที่สับสน การตั้งชื่อและแผนที่สับสน เกือบทุกสิ่งที่พวกเขาผลิตมีความไม่ชัดเจนในการตั้งชื่ออย่างสิ้นเชิง

ผลกระทบด้านความปลอดภัยและความน่าเชื่อถือ

นโยบายนี้ทำให้เกิดคำถามร้ายแรงเกี่ยวกับความน่าเชื่อถือของ Microsoft โดยเฉพาะสำหรับองค์กรที่มีข้อกำหนดด้านความเป็นส่วนตัวที่เข้มงวด แม้ว่า Microsoft จะอ้างว่าข้อมูลองค์กรยังคงได้รับการปกป้องผ่านสิทธิ์บัญชีงาน สภาพแวดล้อมการทำงานหลายแห่งก็ลังเลเกี่ยวกับเครื่องมือ AI เนื่องจากข้อกังวลด้านความไวของข้อมูล

ชุมชนสังเกตว่าคำสั่งและการตอบสนองของพนักงานจะถูกบันทึกโดยนายจ้าง ซึ่งสร้างปัญหาความเป็นส่วนตัวที่อาจเกิดขึ้นสำหรับพนักงานที่อาจไม่เข้าใจผลกระทบของการตรวจสอบอย่างเต็มที่

ข้อจำกัด:

  • ผู้เช่าภาครัฐ ( GCC/DoD ) ไม่รองรับความสามารถนี้
  • การเข้าถึงของผู้ใช้ถูกควบคุมโดยสิทธิ์ของบัญชีที่ทำงานเท่านั้น
  • คำสั่งและการตอบสนองของพนักงานถูกบันทึกโดยนายจ้าง

มองไปข้างหน้า: การผลักดันการนำ AI มาใช้

แม้จะมีความขัดแย้ง เสียงบางเสียงในชุมชนก็ยอมรับว่าการเข้าถึง AI อาจจะกลายเป็นสิ่งจำเป็นเหมือนกับการเข้าถึงอินเทอร์เน็ตสำหรับประสิทธิภาพการทำงานในเร็วๆ นี้ อย่างไรก็ตาม แนวทางปัจจุบันของการบังคับให้นำมาใช้ผ่านการตั้งค่าเริ่มต้นและการข้ามกระบวนการอนุมัติ IT ได้สร้างความเสียหายต่อความสัมพันธ์ของ Microsoft กับผู้เชี่ยวชาญที่รับผิดชอบการตัดสินใจเทคโนโลยีองค์กร

การอภิปรายสะท้อนความตึงเครียดที่กว้างขึ้นระหว่างการนำ AI มาใช้อย่างรวดเร็วและการกำกับดูแลด้านความปลอดภัยที่เหมาะสม โดย Microsoft ดูเหมือนจะให้ความสำคัญกับสถิติการใช้งานมากกว่าความไว้วางใจของลูกค้าและกระบวนการ IT ที่ได้รับการยอมรับ

อ้างอิง: Microsoft declares bring your Copilot to work day, usurping IT authority