ช่องโหว่ในระบบ Audit Log ของ Microsoft Copilot เปิดเผยการเข้าถึงข้อมูลองค์กรโดยไม่มีร่องรอย

ทีมชุมชน BigGo
ช่องโหว่ในระบบ Audit Log ของ Microsoft Copilot เปิดเผยการเข้าถึงข้อมูลองค์กรโดยไม่มีร่องรอย

นักวิจัยด้านความปลอดภัยได้เปิดเผยช่องโหว่ที่น่าเป็นห่วงใน M365 Copilot ของ Microsoft ที่ทำให้ผู้ใช้สามารถเข้าถึงไฟล์ที่มีความอ่อนไหวได้โดยไม่ทิ้งร่องรอยใดๆ ในบันทึกการตรวจสอบ ปัญหานี้ถูกค้นพบในเดือนกรกฎาคม 2024 และได้รับการแก้ไขอย่างเงียบๆ โดย Microsoft ในเดือนสิงหาคม ซึ่งได้จุดประกายการถกเถียงอย่างเข้มข้นเกี่ยวกับความโปร่งใสขององค์กรและความเสี่ยงด้านการปฏิบัติตามกฎระเบียบ

ช่องโหว่นี้ใช้ประโยชน์ได้ง่ายอย่างน่าประหลาด ผู้ใช้สามารถขอให้ Copilot สรุปไฟล์โดยไม่ต้องให้ลิงก์ ซึ่งจะข้ามกระบวนการบันทึกการตรวจสอบปกติได้ทั้งหมด นั่นหมายความว่าใครบางคนสามารถเข้าถึงเอกสารลับ บันทึกทางการแพทย์ หรือข้อมูลที่อ่อนไหวอื่นๆ ได้โดยไม่มีบันทึกใดๆ ปรากฏในบันทึกความปลอดภัยของบริษัท

ไทม์ไลน์ของช่องโหว่:

  • 4 กรกฎาคม 2024: ค้นพบช่องโหว่และรายงานให้ Microsoft
  • 7 กรกฎาคม 2024: Microsoft เปลี่ยนสถานะเป็น "กำลังทำซ้ำ"
  • 10 กรกฎาคม 2024: ฟังก์ชันการทำงานเปลี่ยนแปลงในขณะที่ยังคงอยู่ในสถานะกำลังทำซ้ำ
  • 2 สิงหาคม 2024: Microsoft ประกาศว่าจะปล่อยการแก้ไขในวันที่ 17 สิงหาคม
  • 17 สิงหาคม 2024: การแก้ไขแบบเต็มรูปแบบถูกติดตั้งโดยอัตโนมัติใน Copilot
  • 18 สิงหาคม 2024: นักวิจัยได้รับอนุญาตให้เปิดเผยต่อสาธารณะ

การปฏิบัติตามกฎระเบียบขององค์กรเสี่ยงภัย

ชุมชนได้แสดงความกังวลอย่างจริงจังเกี่ยวกับผลกระทบด้านการปฏิบัติตามกฎระเบียบของข้อบกพร่องนี้ องค์กรที่อยู่ภายใต้กฎระเบียบ HIPAA พึ่งพาบันทึกการตรวจสอบอย่างมากในการติดตามว่าใครเข้าถึงข้อมูลผู้ป่วยและเมื่อไหร่ ในทำนองเดียวกัน บริษัทที่จัดการกับบันทึกทางการเงินหรือความลับทางการค้าต้องการร่องรอยการตรวจสอบที่สมบูรณ์เพื่อวัตถุประสงค์ทางกฎหมายและกฎระเบียบ

บริษัทต่างๆ จะไม่ใช้ซอฟต์แวร์โอเพนซอร์สเพราะความกังวลเรื่องลิขสิทธิ์ แต่หากคุณฟอกมันผ่าน LLM มันก็ไม่เป็นไร

สถาปัตยกรรมทางเทคนิคเบื้องหลังช่องโหว่นี้ดูเหมือนจะเกิดจากวิธีที่ Copilot เข้าถึงข้อมูล แทนที่จะอ่านไฟล์โดยตรง ระบบใช้เนื้อหาที่จัดทำดัชนีไว้ล่วงหน้าจากระบบที่คล้ายกับเครื่องมือค้นหา เมื่อผู้ใช้ขอสรุปโดยไม่มีลิงก์ ระบบตรวจสอบล้มเหลวในการบันทึกการโต้ตอบเหล่านี้อย่างถูกต้อง

ระบบที่ได้รับผลกระทบและการปฏิบัติตามกฎระเบียบ:

  • ผู้ใช้ M365 Copilot ก่อนวันที่ 18 สิงหาคม 2024
  • องค์กรที่อยู่ภายใต้ข้อกำหนดการป้องกันทางเทคนิคของ HIPAA
  • บริษัทที่พึ่งพา audit logs สำหรับการปฏิบัติตามกฎหมาย
  • หน่วยงานที่อยู่ภายใต้กฎระเบียบใดๆ ที่ต้องการเอกสารการเข้าถึงที่สมบูรณ์

การตอบสนองแบบเงียบๆ ของ Microsoft

สิ่งที่ทำให้ชุมชนด้านความปลอดภัยหงุดหงิดที่สุดคือการจัดการการเปิดเผยของ Microsoft แม้ว่าบริษัทจะจัดประเภทปัญหานี้ว่าสำคัญ แต่บริษัทตัดสินใจไม่ออกหมายเลข CVE (Common Vulnerabilities and Exposures) หรือแจ้งลูกค้าเกี่ยวกับปัญหานี้อย่างเป็นทางการ เหตุผลของพวกเขาคือเนื่องจากการแก้ไขถูกนำไปใช้กับ Copilot โดยอัตโนมัติ จึงไม่จำเป็นต้องให้ลูกค้าดำเนินการด้วยตนเอง

แนวทางนี้ได้รับการวิพากษ์วิจารณ์จากผู้เชี่ยวชาญด้านความปลอดภัยที่โต้แย้งว่าองค์กรมีสิทธิที่จะทราบเมื่อบันทึกการตรวจสอบของพวกเขาอาจไม่สมบูรณ์ นักวิจัยที่ค้นพบข้อบกพร่องต้องนำทางผ่านกระบวนการเปิดเผยที่สับสนซึ่งแนวทางของ Microsoft เองไม่ได้รับการปฏิบัติตาม และการอัปเดตสถานะดูเหมือนจะไม่เชื่อมต่อกับความเป็นจริง

ความขัดแย้งในนโยบาย CVE ของ Microsoft:

  • Microsoft แถลงว่า CVE จะออกเฉพาะเมื่อลูกค้าจำเป็นต้องดำเนินการด้วยตนเอง
  • เอกสารนโยบายของบริษัทเองระบุว่า CVE ควรออกสำหรับช่องโหว่ที่มีความ "สำคัญ"
  • บริษัทจัดประเภทช่องโหว่นี้ว่า "สำคัญ" แต่ยังคงปฏิเสธที่จะออก CVE
  • ไม่มีการแจ้งเตือนสาธารณะให้กับลูกค้าที่ได้รับผลกระทบ

ความกังวลด้านความปลอดภัย AI ในวงกว้าง

เหตุการณ์นี้ได้เน้นย้ำความกังวลในวงกว้างเกี่ยวกับการรีบเร่งนำเครื่องมือ AI เข้าสู่สภาพแวดล้อมองค์กร หลายคนในชุมชนเทคโนโลยีมองว่าการผลักดันในปัจจุบันเพื่อรวม AI ทุกที่เป็นการกระทำที่เร็วเกินไป โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงลักษณะที่ไม่สามารถกำหนดได้ของโมเดลภาษาขนาดใหญ่และการขาดกรอบความปลอดภัยที่เหมาะสม

ช่องโหว่นี้ทำให้เกิดคำถามเกี่ยวกับวิธีที่ระบบ AI ควรจัดการกับการดำเนินการที่มีสิทธิพิเศษ และว่าโมเดลความปลอดภัยแบบดั้งเดิมเพียงพอสำหรับเทคโนโลยีใหม่เหล่านี้หรือไม่ ผู้เชี่ยวชาญบางคนแนะนำว่าการโต้ตอบ AI ใดๆ กับเนื้อหาที่อ่อนไหวควรถูกแยกผ่าน middleware ที่สามารถตรวจสอบความพยายามในการเข้าถึงทั้งหมดได้อย่างเหมาะสม

มองไปข้างหน้า

ในขณะที่ Microsoft ได้แก้ไขปัญหาเฉพาะนี้แล้ว เหตุการณ์นี้ทำหน้าที่เป็นคำเตือนเกี่ยวกับความท้าทายด้านความปลอดภัยของการรวม AI องค์กรที่ใช้ Copilot ก่อนวันที่ 18 สิงหาคม 2024 อาจต้องสมมติว่าบันทึกการตรวจสอบของพวกเขาจากช่วงเวลานั้นอาจไม่สมบูรณ์

การถกเถียงยังคงดำเนินต่อไปว่า Microsoft ควรโปร่งใสมากขึ้นเกี่ยวกับการแก้ไขหรือไม่ โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงความมุ่งมั่นล่าสุดของบริษัทในการให้ความสำคัญกับความปลอดภัยหลังจากได้รับการวิพากษ์วิจารณ์จากหน่วยงานด้านความปลอดภัยไซเบอร์ ในตอนนี้ เหตุการณ์นี้ยืนหยัดเป็นเครื่องเตือนใจว่าการนำเครื่องมือ AI มาใช้อย่างรวดเร็วสามารถสร้างช่องว่างด้านความปลอดภัยที่ไม่คาดคิดซึ่งอาจไม่สามารถมองเห็นได้ทันทีสำหรับผู้ใช้

อ้างอิง: Copilot Broke Your Audit Log, but Microsoft Won't Tell You