ในความรุนแรงที่เพิ่มขึ้นของภัยคุกคามทางไซเบอร์ Google ได้ระบุมัลแวร์รุ่นใหม่ที่ใช้ปัญญาประดิษฐ์ในการเปลี่ยนแปลงโค้ดและพฤติกรรมของตัวเองแบบไดนามิกระหว่างการทำงานอย่างจริงจัง การพัฒนานี้หมายถึงการเปลี่ยนผ่านจากผู้โจมตีที่ใช้ AI เพื่อเพิ่มผลผลิต ไปสู่การใช้งานเครื่องมือที่เป็นอันตรายที่ปรับตัวได้และใช้ AI ในการปฏิบัติการจริง สร้างสิ่งที่นักวิจัยด้านความปลอดภัยเรียกว่า ยุคใหม่ของการละเมิดใช้ AI
การเกิดขึ้นของมัลแวร์ AI ที่ปรับตัวได้
Google Threat Intelligence Group เปิดเผยในเอกสารไวท์เปเปอร์วันที่ 5 พฤศจิกายน ว่าคู่ต่อสู้ได้ก้าวข้ามการใช้งาน AI เพื่อเพิ่มผลผลิตแบบง่ายๆ แล้ว และตอนนี้กำลังใช้งาน "มัลแวร์ใหม่ที่ใช้ AI ในการปฏิบัติการจริง" งานวิจัยนี้เน้นย้ำถึงมัลแวร์ตระกูลอย่างน้อยสองตระกูล—PromptFlux และ PromptSteal—ที่ใช้ large language model อย่าง Gemini ระหว่างการติดตั้งเพื่อสร้างสคริปต์ที่เป็นอันตรายและปิดบังโค้ดของพวกมัน สิ่งนี้แสดงถึงการเปลี่ยนแปลงพื้นฐานสู่สิ่งที่ Google อธิบายว่าเป็น "มัลแวร์ที่ปรับตัวได้และทำงานอัตโนมัติ" ซึ่งสามารถเปลี่ยนลักษณะของมันเพื่อหลีกเลี่ยงการตรวจจับโดยซอฟต์แวร์แอนตี้ไวรัสแบบดั้งเดิม
วิธีการทำงานและวิวัฒนาการของ PromptFlux
ภัยคุกคามที่ซับซ้อนที่สุดในบรรดาเหล่านี้คือ PromptFlux ซึ่งทำหน้าที่เป็น VBScript dropper เชิงทดลองที่สอบถาม Google Gemini AI เป็นระยะเพื่อสร้างตัวแปรโค้ดใหม่ที่ถูกปิดบัง จากการวิเคราะห์ของ Google มัลแวร์นี้มีโมดูล "Thinking Robot" ที่ออกแบบมาโดยเฉพาะเพื่อรับโค้ดใหม่จาก Gemini ซึ่งช่วยให้มันหลบเลี่ยงการตรวจจับของแอนตี้ไวรัส ความสามารถนี้ทำให้มัลแวร์สามารถสร้างสิ่งที่นักวิจัยอธิบายว่าเป็น "เมตาโมฟิคสคริปต์" ที่สามารถวิวัฒนาการไปตามกาลเวลาได้ แม้ว่า Google จะระบุว่าตัวเวอร์ชันปัจจุบันยังคงอยู่ในขั้นตอนการพัฒนาเริ่มต้นและยังไม่สามารถสร้างความเสียหายได้อย่างมีนัยสำคัญ
ภัยคุกคามที่เสริมด้วย AI เพิ่มเติมที่ถูกระบุ
นอกเหนือจาก PromptFlux แล้ว การสอบสวนของ Google ยังพบมัลแวร์ตระกูลอื่นที่ใช้ AI อีกหลายตระกูลซึ่งแสดงความสามารถที่น่ากังวล FruitShell สร้างการเชื่อมต่อรีโมตคอมมานด์แอนด์คอนโทรล ในขณะที่ออกแบบมาโดยเฉพาะเพื่อเลี่ยงระบบความปลอดภัยที่ใช้ LLM PromptLock สามารถสร้างและดำเนินการสคริปต์ที่เป็นอันตรายเพื่อแยกและเข้ารหัสข้อมูลข้ามอุปกรณ์ Windows, macOS และ Linux QuietVault มุ่งเน้นไปที่การขโมยข้อมูลประจำตัวโดยใช้ AI เพื่อค้นหาข้อมูลสำคัญในระบบที่ติดเชื้อ ในขณะที่ PromptSteal ใช้ API queries ไปยัง LLMs สำหรับการสร้างคำสั่งที่ขุดข้อมูลและขโมยเอกสาร
การละเมิดโมเดล Gemini และมาตรการตอบโต้
ภัยคุกคามนี้ขยายไปไกลกว่าการติดตั้งมัลแวร์ ไปสู่การละเมิดโมเดล AI โดยตรง Google รายงานกรณีที่ผู้ไม่ประสงค์ดีแอบอ้างเป็นนักวิจัยหรือนักเรียนในสถานการณ์ "capture-the-flag" เพื่อหลอกลวง Gemini ให้ให้ข้อมูลที่ควรถูกปิดกั้น บริษัทระบุภัยคุกคามจากกลุ่มจีน อิหร่าน และเกาหลีเหนือที่ใช้ Gemini สำหรับแคมเปญฟิชชิ่ง การขุดข้อมูล การขโมยคริปโตเคอร์เรนซี และการสร้างดีพเฟก ในการตอบสนอง Google ได้ปิดบัญชีที่เป็นอันตรายที่เกี่ยวข้อง เสริมความแข็งแกร่งให้กับการป้องกันโมเดล และใช้ข้อมูลเชิงลึกจากการโจมตีเหล่านี้เพื่อปรับปรุงทั้งตัวแยกประเภทและตัวโมเดล AI เอง
การป้องกันภัยคุกคาม AI ที่วิวัฒนาการ
ในขณะที่ภัยคุกคามที่ใช้ AI กำลังก้าวหน้าขึ้น ผู้ใช้จำเป็นต้องนำแนวปฏิบัติด้านความปลอดภัยใหม่มาใช้ ผู้เชี่ยวชาญด้านความปลอดภัยแนะนำให้ปฏิบัติต่อพฤติกรรมที่ไม่คาดคิดในโมเดล AI เป็นสัญญาณเตือนภัย—หาก LLM เริ่มตอบคำถามอย่างแปลกๆ เปิดเผยความรู้เกี่ยวกับระบบภายใน หรือพยายามดำเนินการที่ไม่ได้รับอนุญาต ผู้ใช้ควรยุติเซสชันทันที นอกจากนี้ การจำกัดการเข้าถึง AI ไปยังบัญชีที่สำคัญ เช่น บัญชีธนาคาร อีเมล หรือเอกสารลับ กำลังมีความสำคัญมากขึ้น เนื่องจาก AI ที่ถูกบุกรุกอาจใช้ประโยชน์จากการเข้าถึงนี้ การรักษาซอฟต์แวร์แอนตี้ไวรัสและแอปพลิเคชัน AI ให้ทันสมัยอยู่เสมอจะช่วยรับประกันการป้องกันจากช่องโหว่ที่รู้จัก ในขณะที่ภูมิทัศน์ความปลอดภัยทางไซเบอร์กำลังวิวัฒนาการไปอย่างรวดเร็ว
การเกิดขึ้นของมัลแวร์ที่เขียนตัวเองใหม่นี้แสดงถึงจุดสำคัญที่สำคัญในภัยคุกคามทางไซเบอร์ โดยทำให้เส้นแบ่งระหว่างการโจมตีที่ดำเนินการโดยมนุษย์และซอฟต์แวร์ที่เป็นอันตรายที่ทำงานอัตโนมัติอย่างสมบูรณ์เบลอ ในขณะที่ Google และผู้ให้บริการด้านความปลอดภัยรายอื่นๆ ทำงานเพื่อเสริมสร้างการป้องกัน การต่อสู้ระหว่างความปลอดภัยที่ใช้ AI และภัยคุกคามที่เสริมด้วย AI ดูเหมือนว่าจะถูกกำหนดให้เป็นบทต่อไปของความปลอดภัยทางไซเบอร์
