แชทบอทปัญญาประดิษฐ์กำลังกลายเป็นสนามล่าใหม่สำหรับอาชญากรไซเบอร์ เนื่องจากการวิจัยเผยให้เห็นว่าเครื่องมือเหล่านี้มักให้ที่อยู่เว็บไซต์ที่ไม่ถูกต้องเมื่อผู้ใช้สอบถามหาหน้าเข้าสู่ระบบของบริษัท ช่องโหว่ที่เกิดขึ้นใหม่นี้กำลังเปลี่ยนแปลงวิธีที่นักต้มตุ๋นเข้าหาเหยื่อในโลกที่ขับเคลื่อนด้วย AI
ขนาดของข้อผิดพลาด URL ใน AI
การทดสอบล่าสุดของโมเดล GPT-4.1 แสดงให้เห็นรูปแบบที่น่ากังวลเมื่อผู้ใช้ขอที่อยู่เว็บไซต์ของบริษัทใหญ่ๆ ระบบ AI ให้ URL ที่ถูกต้องเพียง 66% ของเวลาเท่านั้น ทำให้มากกว่าหนึ่งในสามของการตอบกลับมีปัญหาได้ ในบรรดาการตอบกลับที่ไม่ถูกต้อง 29% ชี้ไปยังเว็บไซต์ที่ตายหรือถูกระงับ ขณะที่ 5% นำผู้ใช้ไปยังไซต์ที่ถูกต้องตามกฎหมายแต่เป็นไซต์ที่ผิด
อัตราข้อผิดพลาดนี้เกิดจากวิธีที่โมเดล AI ประมวลผลข้อมูล ต่างจากเครื่องมือค้นหาแบบดั้งเดิมที่ประเมินชื่อเสียงและความน่าเชื่อถือของเว็บไซต์ แชทบอท AI มุ่งเน้นไปที่รูปแบบและความเชื่อมโยงของคำโดยไม่เข้าใจความน่าเชื่อถือของแหล่งข้อมูลที่อ้างอิง
สstatisticsความแม่นยำของ URL จาก AI :
- URL ที่ถูกต้อง: 66% ของเวลาทั้งหมด
- เว็บไซต์ที่ตายแล้ว/ถูกระงับ: 29% ของการตอบกลับ
- เว็บไซต์ที่ผิดแต่เป็นเว็บไซต์ที่ถูกต้อง: 5% ของการตอบกลับ
- อัตราข้อผิดพลาดรวม: 34% ของคำขอ URL ทั้งหมด
นักต้มตุ๋นใช้ประโยชน์จากจุดอ่อนของ AI
อาชญากรไซเบอร์ได้ปรับตัวเข้ากับภูมิทัศน์ใหม่นี้อย่างรวดเร็ว โดยพัฒนากลยุทธ์ที่ออกแบบมาเฉพาะเพื่อทำลายผลลัพธ์ที่ AI สร้างขึ้น เมื่อแชทบอทแนะนำชื่อโดเมนที่ยังไม่ได้ลงทะเบียน นักต้มตุ๋นสามารถซื้อโดเมนเหล่านี้และตั้งไซต์ฟิชชิ่งที่น่าเชื่อถือซึ่งดูถูกต้องตามกฎหมายสำหรับผู้ใช้ที่ไม่สงสัย
ภัยคุกคามขยายไปเกินกว่าความผิดพลาดของ URL ธรรมดา อาชญากรตอนนี้กำลังสร้างระบบนิเวศปลอมที่ซับซ้อนเพื่อหลอกระบบ AI ในกรณีที่มีการบันทึกไว้เกี่ยวกับบล็อกเชน Solana นักต้มตุ๋นสร้างพื้นที่เก็บข้อมูล GitHub ปลอมหลายสิบแห่ง บทช่วยสอน และบัญชีโซเชียลมีเดียทั้งหมดที่ออกแบบมาเพื่อทำให้ API ที่เป็นอันตรายของพวกเขาดูถูกต้องตามกฎหมายสำหรับโมเดล AI
กลยุทธ์ของมิจฉาชีพในการทำลาย AI:
- ติดตามคำแนะนำ URL ของแชทบอท AI สำหรับโดเมนที่ยังไม่ได้จดทะเบียน
- ซื้อโดเมนที่ถูกแนะนำเพื่อสร้างเว็บไซต์ฟิชชิ่ง
- สร้างที่เก็บข้อมูล GitHub และเอกสารปลอม
- สร้างระบบนิเวศที่ซับซ้อนของบัญชีโซเชียลมีเดียปลอม
- กำหนดเป้าหมายไปที่ API บล็อกเชนและเครื่องมือพัฒนา
ปัญหา Nofollow กลับมาอีกครั้ง
การเพิ่มขึ้นของการค้นหาที่ขับเคลื่อนด้วย AI ได้นำปัญหาเก่ากลับมาในรูปแบบใหม่ ผู้ดำเนินการเว็บไซต์เคยใช้แท็ก nofollow เพื่อป้องกันสแปมการเพิ่มประสิทธิภาพเครื่องมือค้นหา แต่มาตรการป้องกันเหล่านี้พิสูจน์แล้วว่าไม่มีประสิทธิภาพต่อบอทขูดเนื้อหา AI ดังที่ผู้สังเกตการณ์ชุมชนคนหนึ่งกล่าวไว้:
ผู้ดำเนินการไซต์สามารถแท็กลิงก์ที่ผู้ใช้ส่งทั้งหมดเป็น nofollow ทำให้ไซต์ของพวกเขาไร้ประโยชน์สำหรับสแปม SEO แต่สแปมเมอร์ได้เรียนรู้ว่าบอทขูดเนื้อหา LLM ส่วนใหญ่ไม่สนใจ nofollow ดังนั้นพวกเขาจึงกลับมาสแปมทุกที่
ข้อจำกัดทางเทคนิคนี้หมายความว่ามาตรการรักษาความปลอดภัยเว็บแบบดั้งเดิมที่ออกแบบมาสำหรับเครื่องมือค้นหาไม่สามารถแปลงไปสู่ยุค AI ได้ดี ทำให้เว็บไซต์เสี่ยงต่อการถูกจัดการมากขึ้น
โซลูชันทางเลือกเกิดขึ้น
ในขณะที่แชทบอท AI หลักๆ ต่อสู้กับความแม่นยำของ URL เครื่องมือค้นหาเฉพาะทางบางตัวกำลังแก้ไขข้อกังวลเหล่านี้ แพลตฟอร์มทางเลือกเช่น Phind ดูเหมือนจะมีอัตราความสำเร็จที่ดีกว่าในการให้ลิงก์ที่แม่นยำ แม้ว่าระบบนิเวศที่กว้างขึ้นจะยังคงเผชิญกับความท้าทายที่สำคัญ
สถานการณ์นี้เน้นให้เห็นการเปลี่ยนแปลงพื้นฐานในวิธีที่ผู้คนค้นหาข้อมูลออนไลน์ เมื่อผู้ใช้หันไปใช้แชทบอท AI มากขึ้นแทนเครื่องมือค้นหาแบบดั้งเดิม พวกเขามักไม่ทราบถึงศักยภาพของข้อผิดพลาดที่ AI สร้างขึ้น ทำให้พวกเขาเสี่ยงต่อความพยายามฟิชชิ่งที่ซับซ้อนมากขึ้น
ชุมชนความปลอดภัยไซเบอร์ยังคงพัฒนาการป้องกันใหม่ๆ ต่อการโจมตีที่มุ่งเป้าไปที่ AI เหล่านี้ แต่เกมแมวจับหนูระหว่างอาชญากรและผู้เชี่ยวชาญด้านความปลอดภัยได้เข้าสู่ขั้นตอนใหม่อย่างชัดเจนที่ปัญญาประดิษฐ์ทำหน้าที่เป็นทั้งเครื่องมือและเป้าหมาย
อ้างอิง: ChatGPT creates phisher's paradise by recommending the wrong URLs for major companies