Google Gemini AI เสี่ยงต่อการโจมตีฟิชชิ่งผ่านการจัดการข้อความอีเมลที่ซ่อนอยู่

ทีมบรรณาธิการ BigGo
Google Gemini AI เสี่ยงต่อการโจมตีฟิชชิ่งผ่านการจัดการข้อความอีเมลที่ซ่อนอยู่

ช่องโหว่ด้านความปลอดภัยที่สำคัญใน Google Gemini AI ได้ถูกค้นพบ ซึ่งช่วยให้อาชญากรไซเบอร์สามารถจัดการสรุปอีเมลและหลอกผู้ใช้ให้ตกเป็นเหยื่อของการหลอกลวงฟิชชิ่งที่ซับซ้อนได้ ช่องโหว่นี้ใช้ประโยชน์จากฟีเจอร์การสรุปอีเมลของ Gemini ใน Gmail Workspace ซึ่งอาจทำให้ผู้ใช้หลายล้านคนเสี่ยงต่อการถูกขโมยข้อมูลประจำตัวและการโจมตีทางสังคมวิทยา

วิธีการโจมตี

นักวิจัยด้านความปลอดภัย Marco Figueroa ได้ค้นพบช่องโหว่นี้ ซึ่งใช้เทคนิคที่เรียกว่า prompt injection ผู้โจมตีสร้างอีเมลที่มีข้อความที่มองไม่เห็นโดยใช้การจัดการ HTML และ CSS กำหนดขนาดฟอนต์เป็นศูนย์และสีเป็นสีขาว แม้ว่าผู้รับจะไม่สามารถเห็นเนื้อหาที่ซ่อนอยู่นี้ได้ แต่ AI ของ Gemini จะประมวลผลเมื่อสร้างสรุปอีเมล ข้อความที่เป็นอันตรายนี้มีคำสั่งที่ทำให้ Gemini แสดงคำเตือนด้านความปลอดภัยปลอมหรือการแจ้งเตือนเร่งด่วนภายในผลลัพธ์ของการสรุป

การโจมตีนี้หลีกเลี่ยงตัวกรองสแปมแบบดั้งเดิมได้เพราะไม่ต้องพึ่งพาลิงก์หรือไฟล์แนบที่น่าสงสัย แต่จัดการกับการประมวลผลภาษาธรรมชาติของ AI เพื่อสร้างคำเตือนที่ดูเหมือนถูกต้อง ในตัวอย่างที่มีการบันทึกไว้ คำสั่งที่ซ่อนอยู่สั่งให้ Gemini เตือนผู้ใช้ว่ารหัสผ่าน Gmail ของพวกเขาถูกบุกรุกและให้หมายเลขโทรศัพท์ปลอมสำหรับการสนับสนุน

รายละเอียดวิธีการโจมตี:

  • เทคนิค: การฉีด prompt โดยใช้ข้อความ HTML/CSS ที่มองไม่เห็น
  • เป้าหมาย: ผู้ใช้ Gmail Workspace ที่ใช้งานการสรุปของ Gemini AI
  • วิธีการหลบหลีก: หลีกเลี่ยงตัวกรองสแปมโดยไม่ใช้ลิงก์หรือไฟล์แนบ
  • การมองเห็น: ข้อความที่ซ่อนใช้ขนาดฟอนต์เป็นศูนย์และสีขาว
  • การค้นพบ: นักวิจัยด้านความปลอดภัย Marco Figueroa

การหลอกลวงดูถูกต้อง

ช่องโหว่นี้อันตรายเป็นพิเศษเพราะคำเตือนปลอมดูเหมือนมาจากระบบ AI ของ Google โดยตรง ผู้ใช้ที่เชื่อใจการสรุปของ Gemini อาจไม่ตั้งคำถามกับการแจ้งเตือนที่ดูเหมือนมาจากบริการอย่างเป็นทางการของ Google การหลอกลวงนี้ใช้ประโยชน์จากการพึ่งพาเนื้อหาที่สร้างโดย AI ที่เพิ่มขึ้นและสมมติฐานของผู้ใช้ว่าการสรุปเหล่านี้ปลอดภัยและน่าเชื่อถือ

เทคนิคข้อความที่มองไม่เห็นนี้ซับซ้อนพอที่เหยื่อจะไม่เห็นสิ่งที่น่าสงสัยในอีเมลต้นฉบับ พวกเขาจะพบเนื้อหาที่เป็นอันตรายเมื่อขอสรุปจาก AI เท่านั้น ทำให้เวกเตอร์การโจมตีนี้แทบจะตรวจไม่พบหากไม่มีความรู้ทางเทคนิค

การตอบสนองของ Google และสถานะปัจจุบัน

Google ยอมรับความกังวลด้านความปลอดภัยเมื่อได้รับการติดต่อจากนักวิจัย แต่ระบุว่าพวกเขายังไม่พบหลักฐานว่าช่องโหว่นี้ถูกใช้ประโยชน์ในโลกจริง บริษัทอ้างอิงถึงการป้องกันที่มีอยู่ต่อการโจมตี prompt injection และเน้นย้ำถึงความพยายามในการเสริมความปลอดภัยอย่างต่อเนื่อง ตัวแทนของ Google กล่าวถึงมาตรการป้องกันเพิ่มเติมที่กำลังถูกนำมาใช้ แม้ว่าจะไม่ได้ให้รายละเอียดเฉพาะเจาะจง

ยักษ์ใหญ่ด้านเทคโนโลยีเน้นย้ำถึงการฝึกซ้อม red-teaming ที่ออกแบบมาเพื่อฝึกโมเดล AI ให้ต่อต้านการโจมตีที่เป็นปฏิปักษ์ อย่างไรก็ตาม การค้นพบนี้บ่งชี้ว่าการป้องกันปัจจุบันอาจไม่เพียงพอที่จะป้องกันการจัดการ prompt ทุกรูปแบบ

กลยุทธ์การป้องกันและการตระหนักรู้ของผู้ใช้

ผู้เชี่ยวชาญด้านความปลอดภัยแนะนำมาตรการป้องกันหลายประการสำหรับองค์กรที่ใช้ Gemini ในสภาพแวดล้อม Workspace ระบบอีเมลควรกรองหรือทำให้เนื้อหาข้อความที่ซ่อนอยู่เป็นกลางก่อนที่ AI จะประมวลผล นอกจากนี้ ตัวกรองหลังการประมวลผลสามารถสแกนผลลัพธ์ของ AI เพื่อหาองค์ประกอบที่น่าสงสัย เช่น หมายเลขโทรศัพท์ที่ไม่คาดคิด คำเตือนเร่งด่วน หรือการแจ้งเตือนด้านความปลอดภัยที่ไม่เกี่ยวข้องกับเนื้อหาที่มองเห็นได้ของอีเมล

สำหรับผู้ใช้แต่ละคน ความสงสัยยังคงเป็นการป้องกันที่ดีที่สุด คำเตือนด้านความปลอดภัยเร่งด่วนใดๆ ที่ปรากฏในการสรุปของ AI ควรได้รับการตรวจสอบอย่างระมัดระวัง โดยเฉพาะอย่างยิ่งหากดูเหมือนไม่เกี่ยวข้องกับวัตถุประสงค์ที่ชัดเจนของอีเมล ผู้ใช้ควรระวังสัญญาณของการฟิชชิ่ง เช่น การสะกดผิดอย่าง GMail แทน Gmail หรือคำขอให้โทรหาหมายเลขโทรศัพท์เพื่อรับการสนับสนุนจาก Google

มาตรการป้องกันที่แนะนำ:

  • ลบหรือทำลายเนื้อหาข้อความที่ซ่อนอยู่ก่อนการประมวลผลด้วย AI
  • ใช้ตัวกรองหลังการประมวลผลสำหรับผลลัพธ์ที่น่าสงสัย
  • สแกนหา URL ที่ไม่คาดคิด หมายเลขโทรศัพท์ หรือคำเตือนด้านความปลอดภัย
  • การให้ความรู้แก่พนักงานเกี่ยวกับข้อจำกัดของการสรุปด้วย AI
  • รักษาความระแวดระวังต่อการแจ้งเตือนเร่งด่วนที่สร้างขึ้นโดย AI

ผลกระทบที่กว้างขึ้นสำหรับความปลอดภัยของ AI

ช่องโหว่นี้เน้นย้ำถึงความท้าทายด้านความปลอดภัยที่เพิ่มขึ้นเมื่อเครื่องมือ AI กลายเป็นส่วนหนึ่งของขั้นตอนการทำงานประจำวันมากขึ้น เหตุการณ์นี้แสดงให้เห็นว่าผู้โจมตีกำลังปรับเทคนิคฟิชชิ่งแบบดั้งเดิมเพื่อใช้ประโยชน์จากฟีเจอร์ใหม่ที่ขับเคลื่อนโดย AI เมื่อองค์กรพึ่งพา AI มากขึ้นสำหรับการเพิ่มผลผลิตและการตัดสินใจ การทำให้มั่นใจว่าระบบเหล่านี้ไม่สามารถถูกจัดการได้จึงกลายเป็นสิ่งสำคัญสำหรับการรักษาความปลอดภัยทางไซเบอร์

การค้นพบนี้เป็นเครื่องเตือนใจว่าการสรุปของ AI แม้จะสะดวก แต่ไม่ควรแทนที่การตรวจสอบอย่างระมัดระวังของการสื่อสารที่สำคัญ ผู้ใช้ต้องสร้างสมดุลระหว่างการเพิ่มประสิทธิภาพจากความช่วยเหลือของ AI กับความระมัดระวังและการปฏิบัติการตรวจสอบที่เหมาะสม