รูปแบบที่น่าวิตกได้เกิดขึ้นในสภาพแวดล้อมขององค์กร ที่พนักงานกำลังหลีกเลี่ยงนโยบาย AI อย่างเป็นทางการและสร้างช่องโหว่ด้านความปลอดภัยที่สำคัญโดยไม่ตั้งใจ แม้จะมีข้อจำกัดขององค์กร แต่คนงานยังคงใช้บัญชีส่วนตัวสำหรับเครื่องมือ AI ต่อไป ส่งผลให้เกิดการเปิดเผยข้อมูลอย่างแพร่หลายที่บริษัทไม่สามารถตรวจสอบหรือควบคุมได้
สстатิสติการใช้เครื่องมือ AI:
- พนักงานองค์กร 45% ใช้เครื่องมือ AI แบบ generative
- ผู้ใช้ AI 77% คัดลอกและวางข้อมูลลงในแชทบอท
- การคัดลอกและวาง 22% ประกอบด้วยข้อมูล PII/PCI
- การวางข้อมูล 82% มาจากบัญชีส่วนตัวที่ไม่ได้รับการจัดการ
- การอัปโหลดไฟล์ไปยังเว็บไซต์ AI 40% มีข้อมูล PII/PCI
ปัญหา Shadow IT ขยายไปไกลกว่าเครื่องมือ AI
ปัญหานี้ขยายไปไกลกว่าแอปพลิเคชันปัญญาประดิษฐ์ การอภิปรายในชุมชนเผยให้เห็นว่าพนักงานใช้บัญชีส่วนตัวในแพลตฟอร์มที่สำคัญต่อธุรกิจหลายแพลตฟอร์มอย่างสม่ำเสมอ โดยการใช้งาน shadow IT มีถึง 87% สำหรับแอปส่งข้อความ 77% สำหรับ Salesforce และ 68% สำหรับบริการ Microsoft Online การปฏิบัติที่แพร่หลายนี้ชี้ให้เห็นว่าปัญหาการรั่วไหลของข้อมูล AI เป็นเพียงอาการหนึ่งของความท้าทายขององค์กรที่ใหญ่กว่ามาก
ผู้สังเกตการณ์คนหนึ่งได้ชี้ให้เห็นปัญหาพื้นฐานที่เกิดขึ้น: พนักงานจะยอมรับและแบ่งปันข้อมูลกับเครื่องมือใดก็ตามที่สัญญาว่าจะปรับปรุงประสิทธิภาพการทำงานของพวกเขาได้อย่างง่ายดาย โดยไม่คำนึงถึงผลกระทบด้านความปลอดภัย
การใช้งาน Shadow IT ในแอปพลิเคชันทางธุรกิจ:
- Chat/Messaging: 87%
- Salesforce: 77%
- Microsoft Online: 68%
- Generative AI: 67%
- Zoom: 64%
- Online Meetings: 60%
การครอบงำของ ChatGPT แม้จะมีทางเลือกขององค์กร
สิ่งที่โดดเด่นที่สุดคือการที่พนักงานชอบ ChatGPT มากกว่าทางเลือกที่องค์กรอนุมัติอย่างท่วมท้น แม้ว่าองค์กรจะจัดหาเครื่องมือ AI ที่ได้รับใบอนุญาตอย่าง Microsoft Copilot แต่คนงานก็ยังคงโน้มเอียงไปยังแพลตฟอร์มของ OpenAI การชอบนี้ยังคงอยู่แม้ว่า Copilot จะมีการผสานรวมกับสภาพแวดล้อม Microsoft 365 ที่มีอยู่ซึ่งองค์กรส่วนใหญ่ใช้อยู่แล้ว
ชุมชนได้แสดงความกังวลเกี่ยวกับการใช้ข้อมูลทางธุรกิจนี้ในทางที่ผิด โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงการเปลี่ยนแปลงผู้นำล่าสุดที่ OpenAI และความสามารถด้านธุรกิจอัจฉริยะที่ขยายตัวของบริษัท บางคนกังวลว่าข้อมูลองค์กรที่ละเอียด - ตั้งแต่การเปิดตัวฟีเจอร์ไปจนถึงข้อมูลการวัดผล - อาจถูกนำไปใช้เพื่อประโยชน์ในการแข่งขัน
การยอมรับใช้งาน ChatGPT เทียบกับคู่แข่งในองค์กร:
- ChatGPT: พนักงานมากกว่า 90% เข้าถึงได้
- Google Gemini: 15%
- Claude: 5%
- Microsoft Copilot: 2-3%
- ผู้ใช้ 83.5% ยึดติดกับเครื่องมือ AI เพียงตัวเดียว
โซลูชันที่ปฏิบัติได้เกิดขึ้นจากชุมชนเทคนิค
องค์กรที่มีความคิดก้าวหน้ากำลังสำรวจทางเลือกที่โฮสต์เองเพื่อแก้ไขข้อกังวลด้านความปลอดภัยเหล่านี้ ผู้เชี่ยวชาญด้านเทคนิคแนะนำให้ปรับใช้โมเดล AI ขั้นสูงเช่น Sonnet 4.5, Qwen3 235B หรือ Deepseek R1 บนโครงสร้างพื้นฐานคลาวด์ส่วนตัวเช่น AWS Bedrock วิธีการนี้ช่วยให้พนักงานเข้าถึงความสามารถ AI ที่ล้ำสมัยในขณะที่ให้ความมั่นใจว่าข้อมูลที่ละเอียดอ่อนจะไม่ออกจากสภาพแวดล้อมขององค์กร
อย่างไรก็ตาม ความท้าทายในการดำเนินการยังคงอยู่ แพลตฟอร์มบางแห่งกำหนดข้อจำกัดขนาดอินพุตที่อาจจำกัดความสามารถเต็มรูปแบบของโมเดลพื้นฐาน ซึ่งอาจทำให้ผู้ใช้ที่คุ้นเคยกับทางเลือกสาธารณะที่ยืดหยุ่นมากกว่ารู้สึกหงุดหงิด
การทำให้การสอดแนมองค์กรเป็นอัตโนมัติ
สถานการณ์นี้ได้สร้างภูมิทัศน์ความปลอดภัยที่แทบจะไร้สาระ ที่กลยุทธ์การสอดแนมองค์กรแบบดั้งเดิมไม่จำเป็นอีกต่อไป แทนที่จะใช้วิธีการแทรกซึมที่ซับซ้อน ข้อมูลองค์กรที่ละเอียดอ่อนไหลเวียนอย่างอิสระผ่านการดำเนินการคัดลอกและวางของพนักงานเข้าสู่ระบบ AI สาธารณะ
ใครต้องการการสอดแนมองค์กรเมื่อพนักงานกำลัง Ctrl+C, Ctrl+V ความลับของบริษัทเข้าไปในแชทบอทที่เข้าถึงได้สาธารณะอย่างแท้จริง? เราได้ทำให้การละเมิดข้อมูลเป็นอัตโนมัติแล้ว
สมาชิกชุมชนบางคนได้เสนอโซลูชันทางเทคนิคที่สร้างสรรค์ รวมถึงบัญชี AI ขององค์กรที่มีการป้องกันการสูญเสียข้อมูลในตัวที่สามารถตรวจจับและบล็อกการอัปโหลดข้อมูลที่ละเอียดอ่อนโดยอัตโนมัติ หรือแม้แต่การผสานรวมกับระบบ HR เพื่อการบังคับใช้นโยบายอัตโนมัติ
บทสรุป
การปฏิบัติที่แพร่หลายในการใช้บัญชี AI ส่วนตัวเพื่อวัตถุประสงค์ทางธุรกิจนี้แสดงถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่ความปลอดภัยข้อมูลขององค์กรต้องได้รับการจัดการ องค์กรไม่สามารถพึ่งพาการจำกัดนโยบายเพียงอย่างเดียวอีกต่อไป และต้องมุ่งเน้นไปที่การจัดหาทางเลือกที่ปลอดภัยและใช้งานง่ายที่ตรงกับความสะดวกและความสามารถที่พนักงานคาดหวังจากเครื่องมือ AI สำหรับผู้บริโภค ความท้าทายไม่ได้อยู่ที่การดำเนินการโซลูชันทางเทคนิคเท่านั้น แต่ยังรวมถึงการเข้าใจและแก้ไขความชอบของผู้ใช้พื้นฐานที่ขับเคลื่อนพฤติกรรมที่เสี่ยงเหล่านี้
อ้างอิง: Employees regularly paste company secrets into ChatGPT