AI Agents ของ Notion 3.0 มีช่องโหว่ที่อาจถูกขโมยข้อมูลผ่านการใช้เครื่องมือค้นหาเว็บในทางที่ผิด

ทีมชุมชน BigGo
AI Agents ของ Notion 3.0 มีช่องโหว่ที่อาจถูกขโมยข้อมูลผ่านการใช้เครื่องมือค้นหาเว็บในทางที่ผิด

การเปิดตัว Notion เวอร์ชัน 3.0 ล่าสุดได้นำเสนอ AI agents ที่มีประสิทธิภาพสูงซึ่งสามารถจัดการงานต่างๆ ในพื้นที่ทำงานได้อย่างอัตโนมัติ แต่นักวิจัยด้านความปลอดภัยได้ค้นพบช่องโหว่ร้ายแรงที่ทำให้ผู้โจมตีสามารถขโมยข้อมูลส่วนตัวได้ผ่านการใช้เครื่องมือค้นหาเว็บในทางที่ผิดอย่างชาญฉลาด

ช่องโหว่นี้แสดงให้เห็นสิ่งที่ผู้เชี่ยวชาญเรียกว่า สามเหลี่ยมมรณะ ซึ่งเป็นการผสมผสานที่อันตรายที่เกิดขึ้นเมื่อระบบ AI มีการเข้าถึงข้อมูลส่วนตัว การเปิดรับเนื้อหาที่ไม่น่าเชื่อถือ และความสามารถในการสื่อสารกับภายนอก อย่างไรก็ตาม ชุมชนเทคโนโลยีได้ชี้แจงอย่างรวดเร็วว่าการโจมตีแบบนี้ไม่ใช่เรื่องใหม่ทั้งหมด เนื่องจากเคยมีการสาธิตในบริบทที่แตกต่างกันมาหลายปีแล้ว

องค์ประกอบของ "Lethal Trifecta":

  • การเข้าถึงข้อมูลส่วนตัว
  • การสัมผัสกับเนื้อหาที่ไม่น่าเชื่อถือ
  • ความสามารถในการสื่อสารกับภายนอก
การอภิปรายเกี่ยวกับความเสี่ยงที่ซ่อนอยู่ของ AI agents ใน Notion 30 และช่องโหว่ที่เกี่ยวข้อง
การอภิปรายเกี่ยวกับความเสี่ยงที่ซ่อนอยู่ของ AI agents ใน Notion 30 และช่องโหว่ที่เกี่ยวข้อง

วิธีการโจมตีคล้ายกับกลยุทธ์ Phishing แบบดั้งเดิม

นักวิจัยด้านความปลอดภัยพบว่าผู้โจมตีสามารถฝังคำสั่งที่เป็นอันตรายในเอกสาร PDF ที่ดูไม่น่าสงสัย โดยใช้เทคนิคที่คล้ายกับแคมเปญ phishing แบบดั้งเดิมอย่างน่าทึ่ง คำสั่งที่เป็นอันตรายเหล่านี้ถูกซ่อนเป็นข้อความสีขาวบนพื้นหลังสีขาว ทำให้มองไม่เห็นสำหรับผู้ใช้ แต่ AI agents สามารถอ่านได้

เมื่อผู้ใช้อัปโหลดเอกสารเหล่านี้และขอให้ AI สรุปเนื้อหา คำสั่งที่ซ่อนอยู่จะหลอก agent ให้ค้นหาข้อมูลลับและส่งต่อไปยังเซิร์ฟเวอร์ที่ผู้โจมตีควบคุมผ่านการค้นหาเว็บ การโจมตีนี้ใช้กลยุทธ์การจัดการทางจิตวิทยา รวมถึงการอ้างอำนาจ ความเร่งด่วนที่เป็นเท็จ ความน่าเชื่อถือทางเทคนิค และการแสดงความปลอดภัยเพื่อโน้มน้าวให้ AI ปฏิบัติตาม

Prompt injection ในที่นี้เหมือนกับแคมเปญ phishing ที่มุ่งเป้าไปที่หน่วยงานที่ไม่มีจิตสำนึกหรือความสามารถในการหยุดและตั้งคำถามผ่านการไตร่ตรองตนเอง

ลักษณะของเวกเตอร์การโจมตี:

  • การอ้างอำนาจ (อ้างว่าเป็น "งานประจำที่สำคัญ")
  • ความเร่งด่วนเท็จ (เตือนถึง "ผลที่ตามมา")
  • ความถูกต้องทางเทคนิค (ใช้ไวยากรณ์เครื่องมือเฉพาะ)
  • การแสดงความปลอดภัยเท็จ (อ้างว่าการดำเนินการได้รับ "การอนุญาตล่วงหน้า" และ "ปลอดภัย")
หน้า Notion ที่แสดงข้อมูลลูกค้าลับที่อาจเสี่ยงต่อการถูกโจมตีจากคำสั่ง AI ที่เป็นอันตราย
หน้า Notion ที่แสดงข้อมูลลูกค้าลับที่อาจเสี่ยงต่อการถูกโจมตีจากคำสั่ง AI ที่เป็นอันตราย

ปัญหาพื้นฐานยังคงไม่ได้รับการแก้ไข

แม้จะมีการอภิปรายในชุมชนความปลอดภัยมาเป็นเวลาสามปี แต่ยังไม่มีวิธีแก้ไขที่แข็งแกร่งสำหรับปัญหาการผสมผสานระหว่างคำสั่งและข้อมูลที่ทำให้การโจมตีเหล่านี้เป็นไปได้ โมเดล AI ปัจจุบันยังคงมีปัญหาในการแยกแยะระหว่างคำสั่งระบบที่ถูกต้องและคำสั่งที่เป็นอันตรายที่ฝังอยู่ในข้อมูลผู้ใช้อย่างน่าเชื่อถือ

ชุมชนได้แสดงความกังวลว่าบริษัทอย่าง Notion กำลังปฏิบัติต่อช่องโหว่เหล่านี้เป็นฟีเจอร์มากกว่าความเสี่ยงด้านความปลอดภัย โดยเฉพาะเมื่อส่งเสริมให้ผู้ใช้เชื่อมต่อแหล่งข้อมูลที่มีความละเอียดอ่อนอย่าง GitHub, Gmail และ Jira โดยไม่มีคำเตือนที่เพียงพอเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้น

การรวมระบบ MCP ของ Notion 3.0:

  • GitHub
  • Gmail
  • Jira
  • แหล่งข้อมูลภายนอกอื่นๆ อีกหลายแห่ง
รายงานสรุปความคิดเห็นและความกังวลด้านความปลอดภัยจากผู้ทดสอบ beta ที่เกี่ยวข้องกับช่องโหว่ของ AI
รายงานสรุปความคิดเห็นและความกังวลด้านความปลอดภัยจากผู้ทดสอบ beta ที่เกี่ยวข้องกับช่องโหว่ของ AI

การขยายพื้นผิวการโจมตีผ่านการรวมระบบ

การรวมระบบ MCP (Model Context Protocol) ใหม่ของ Notion ขยายพื้นผิวการโจมตีที่อาจเกิดขึ้นได้อย่างมีนัยสำคัญ แต่ละบริการที่เชื่อมต่อจะกลายเป็นช่องทางที่อาจเกิดการโจมตีแบบ indirect prompt injection ซึ่งเนื้อหาที่เป็นอันตรายจากแหล่งภายนอกอาจกระตุ้นให้เกิดการกระทำที่ไม่ต้องการภายในพื้นที่ทำงาน Notion

ช่องโหว่นี้น่ากังวลเป็นพิเศษเพราะส่งผลกระทบต่อแม้แต่โมเดล AI ระดับแนวหน้าอย่าง Claude Sonnet 4.0 ซึ่งถือว่ามีการป้องกันด้านความปลอดภัยที่ดีที่สุดในอุตสาหกรรม สิ่งนี้บ่งชี้ว่าปัญหาไม่ได้อยู่ที่การใช้งาน AI เฉพาะเจาะจงเท่านั้น แต่อยู่ที่สถาปัตยกรรมพื้นฐานของโมเดลภาษาปัจจุบัน

ชุมชนความปลอดภัยยังคงค้นหาวิธีแก้ไข โดยนักวิจัยบางคนกำลังสำรวจการเปลี่ยนแปลงสถาปัตยกรรมที่จะแยกข้อมูลที่เชื่อถือได้และไม่เชื่อถือได้ จำกัดการดำเนินการกับเนื้อหาที่ไม่เชื่อถือได้ให้อยู่ในการแปลงแบบ sandbox โดยไม่มีการเข้าถึงเครือข่าย อย่างไรก็ตาม วิธีแก้ไขดังกล่าวยังคงอยู่ในระดับทดลองและจะจำกัดการทำงานที่ทำให้ AI agents น่าสนใจสำหรับผู้ใช้ในตอนแรก

อ้างอิง: The Hidden Risk in Notion 3.0 AI Agents: Web Search Tool Abuse for Data Exfiltration