พนักงานหลีกเลี่ยงนโยบาย AI ของบริษัท สร้างช่องโหว่ความปลอดภัยข้อมูลขนาดใหญ่

ทีมชุมชน BigGo
พนักงานหลีกเลี่ยงนโยบาย AI ของบริษัท สร้างช่องโหว่ความปลอดภัยข้อมูลขนาดใหญ่

รูปแบบที่น่าวิตกได้เกิดขึ้นในสภาพแวดล้อมขององค์กร ที่พนักงานกำลังหลีกเลี่ยงนโยบาย AI อย่างเป็นทางการและสร้างช่องโหว่ด้านความปลอดภัยที่สำคัญโดยไม่ตั้งใจ แม้จะมีข้อจำกัดขององค์กร แต่คนงานยังคงใช้บัญชีส่วนตัวสำหรับเครื่องมือ AI ต่อไป ส่งผลให้เกิดการเปิดเผยข้อมูลอย่างแพร่หลายที่บริษัทไม่สามารถตรวจสอบหรือควบคุมได้

สстатิสติการใช้เครื่องมือ AI:

  • พนักงานองค์กร 45% ใช้เครื่องมือ AI แบบ generative
  • ผู้ใช้ AI 77% คัดลอกและวางข้อมูลลงในแชทบอท
  • การคัดลอกและวาง 22% ประกอบด้วยข้อมูล PII/PCI
  • การวางข้อมูล 82% มาจากบัญชีส่วนตัวที่ไม่ได้รับการจัดการ
  • การอัปโหลดไฟล์ไปยังเว็บไซต์ AI 40% มีข้อมูล PII/PCI

ปัญหา Shadow IT ขยายไปไกลกว่าเครื่องมือ AI

ปัญหานี้ขยายไปไกลกว่าแอปพลิเคชันปัญญาประดิษฐ์ การอภิปรายในชุมชนเผยให้เห็นว่าพนักงานใช้บัญชีส่วนตัวในแพลตฟอร์มที่สำคัญต่อธุรกิจหลายแพลตฟอร์มอย่างสม่ำเสมอ โดยการใช้งาน shadow IT มีถึง 87% สำหรับแอปส่งข้อความ 77% สำหรับ Salesforce และ 68% สำหรับบริการ Microsoft Online การปฏิบัติที่แพร่หลายนี้ชี้ให้เห็นว่าปัญหาการรั่วไหลของข้อมูล AI เป็นเพียงอาการหนึ่งของความท้าทายขององค์กรที่ใหญ่กว่ามาก

ผู้สังเกตการณ์คนหนึ่งได้ชี้ให้เห็นปัญหาพื้นฐานที่เกิดขึ้น: พนักงานจะยอมรับและแบ่งปันข้อมูลกับเครื่องมือใดก็ตามที่สัญญาว่าจะปรับปรุงประสิทธิภาพการทำงานของพวกเขาได้อย่างง่ายดาย โดยไม่คำนึงถึงผลกระทบด้านความปลอดภัย

การใช้งาน Shadow IT ในแอปพลิเคชันทางธุรกิจ:

  • Chat/Messaging: 87%
  • Salesforce: 77%
  • Microsoft Online: 68%
  • Generative AI: 67%
  • Zoom: 64%
  • Online Meetings: 60%

การครอบงำของ ChatGPT แม้จะมีทางเลือกขององค์กร

สิ่งที่โดดเด่นที่สุดคือการที่พนักงานชอบ ChatGPT มากกว่าทางเลือกที่องค์กรอนุมัติอย่างท่วมท้น แม้ว่าองค์กรจะจัดหาเครื่องมือ AI ที่ได้รับใบอนุญาตอย่าง Microsoft Copilot แต่คนงานก็ยังคงโน้มเอียงไปยังแพลตฟอร์มของ OpenAI การชอบนี้ยังคงอยู่แม้ว่า Copilot จะมีการผสานรวมกับสภาพแวดล้อม Microsoft 365 ที่มีอยู่ซึ่งองค์กรส่วนใหญ่ใช้อยู่แล้ว

ชุมชนได้แสดงความกังวลเกี่ยวกับการใช้ข้อมูลทางธุรกิจนี้ในทางที่ผิด โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการเปลี่ยนแปลงผู้นำล่าสุดที่ OpenAI และความสามารถด้านธุรกิจอัจฉริยะที่ขยายตัวของบริษัท บางคนกังวลว่าข้อมูลองค์กรที่ละเอียด - ตั้งแต่การเปิดตัวฟีเจอร์ไปจนถึงข้อมูลการวัดผล - อาจถูกนำไปใช้เพื่อประโยชน์ในการแข่งขัน

การยอมรับใช้งาน ChatGPT เทียบกับคู่แข่งในองค์กร:

  • ChatGPT: พนักงานมากกว่า 90% เข้าถึงได้
  • Google Gemini: 15%
  • Claude: 5%
  • Microsoft Copilot: 2-3%
  • ผู้ใช้ 83.5% ยึดติดกับเครื่องมือ AI เพียงตัวเดียว

โซลูชันที่ปฏิบัติได้เกิดขึ้นจากชุมชนเทคนิค

องค์กรที่มีความคิดก้าวหน้ากำลังสำรวจทางเลือกที่โฮสต์เองเพื่อแก้ไขข้อกังวลด้านความปลอดภัยเหล่านี้ ผู้เชี่ยวชาญด้านเทคนิคแนะนำให้ปรับใช้โมเดล AI ขั้นสูงเช่น Sonnet 4.5, Qwen3 235B หรือ Deepseek R1 บนโครงสร้างพื้นฐานคลาวด์ส่วนตัวเช่น AWS Bedrock วิธีการนี้ช่วยให้พนักงานเข้าถึงความสามารถ AI ที่ล้ำสมัยในขณะที่ให้ความมั่นใจว่าข้อมูลที่ละเอียดอ่อนจะไม่ออกจากสภาพแวดล้อมขององค์กร

อย่างไรก็ตาม ความท้าทายในการดำเนินการยังคงอยู่ แพลตฟอร์มบางแห่งกำหนดข้อจำกัดขนาดอินพุตที่อาจจำกัดความสามารถเต็มรูปแบบของโมเดลพื้นฐาน ซึ่งอาจทำให้ผู้ใช้ที่คุ้นเคยกับทางเลือกสาธารณะที่ยืดหยุ่นมากกว่ารู้สึกหงุดหงิด

การทำให้การสอดแนมองค์กรเป็นอัตโนมัติ

สถานการณ์นี้ได้สร้างภูมิทัศน์ความปลอดภัยที่แทบจะไร้สาระ ที่กลยุทธ์การสอดแนมองค์กรแบบดั้งเดิมไม่จำเป็นอีกต่อไป แทนที่จะใช้วิธีการแทรกซึมที่ซับซ้อน ข้อมูลองค์กรที่ละเอียดอ่อนไหลเวียนอย่างอิสระผ่านการดำเนินการคัดลอกและวางของพนักงานเข้าสู่ระบบ AI สาธารณะ

ใครต้องการการสอดแนมองค์กรเมื่อพนักงานกำลัง Ctrl+C, Ctrl+V ความลับของบริษัทเข้าไปในแชทบอทที่เข้าถึงได้สาธารณะอย่างแท้จริง? เราได้ทำให้การละเมิดข้อมูลเป็นอัตโนมัติแล้ว

สมาชิกชุมชนบางคนได้เสนอโซลูชันทางเทคนิคที่สร้างสรรค์ รวมถึงบัญชี AI ขององค์กรที่มีการป้องกันการสูญเสียข้อมูลในตัวที่สามารถตรวจจับและบล็อกการอัปโหลดข้อมูลที่ละเอียดอ่อนโดยอัตโนมัติ หรือแม้แต่การผสานรวมกับระบบ HR เพื่อการบังคับใช้นโยบายอัตโนมัติ

บทสรุป

การปฏิบัติที่แพร่หลายในการใช้บัญชี AI ส่วนตัวเพื่อวัตถุประสงค์ทางธุรกิจนี้แสดงถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่ความปลอดภัยข้อมูลขององค์กรต้องได้รับการจัดการ องค์กรไม่สามารถพึ่งพาการจำกัดนโยบายเพียงอย่างเดียวอีกต่อไป และต้องมุ่งเน้นไปที่การจัดหาทางเลือกที่ปลอดภัยและใช้งานง่ายที่ตรงกับความสะดวกและความสามารถที่พนักงานคาดหวังจากเครื่องมือ AI สำหรับผู้บริโภค ความท้าทายไม่ได้อยู่ที่การดำเนินการโซลูชันทางเทคนิคเท่านั้น แต่ยังรวมถึงการเข้าใจและแก้ไขความชอบของผู้ใช้พื้นฐานที่ขับเคลื่อนพฤติกรรมที่เสี่ยงเหล่านี้

อ้างอิง: Employees regularly paste company secrets into ChatGPT