เบราว์เซอร์ AI ตกเป็นเหยื่อการหลอกลวงที่ซับซ้อน ทำให้เกิดความกังวลด้านความปลอดภัยสำหรับการช้อปปิ้งอัตโนมัติ

ทีมชุมชน BigGo
เบราว์เซอร์ AI ตกเป็นเหยื่อการหลอกลวงที่ซับซ้อน ทำให้เกิดความกังวลด้านความปลอดภัยสำหรับการช้อปปิ้งอัตโนมัติ

คำสัญญาของเบราว์เซอร์ที่ขับเคลื่อนด้วย AI ที่สามารถช้อปปิ้ง เรียกดูเว็บ และจัดการงานต่างๆ ได้อย่างอัตโนมัติกำลังกลายเป็นจริง แต่งานวิจัยใหม่เผยให้เห็นว่าระบบเหล่านี้มีช่องโหว่ต่อการหลอกลวงและการโจมตีที่เป็นอันตรายอย่างน่าประหลาดใจ บริษัทอย่าง Microsoft , OpenAI และ Perplexity กำลังเปิดตัวเบราว์เซอร์แบบ agentic ที่สามารถทำงานเว็บที่ซับซ้อนได้โดยไม่ต้องมีการดูแลจากมนุษย์ แต่นักวิจัยด้านความปลอดภัยพบว่าระบบเหล่านี้สามารถถูกหลอกให้ทำการซื้อที่ไม่ต้องการและตกเป็นเหยื่อการหลอกลวงที่ซับซ้อนได้อย่างง่ายดาย

การใช้งาน AI Browser ในปัจจุบัน

  • Microsoft Edge: การรวม Copilot เพื่อช่วยเหลือในการเรียกดูเว็บ
  • OpenAI: เบราว์เซอร์แบบทดลองในสภาพแวดล้อมปลอดภัยใน "โหมดเอเจนต์"
  • Perplexity Comet: ความสามารถในการเรียกดูเว็บแบบอัตโนมัติเต็มรูปแบบ
  • The Browser Company Dia: ฟีเจอร์การเรียกดูเว็บที่ขับเคลื่อนด้วย AI
ผลการทดสอบเบราว์เซอร์ AI แบบ agentic เผยให้เห็นช่องโหว่ต่อการหลอกลวงและการโจมตีที่เป็นอันตราย
ผลการทดสอบเบราว์เซอร์ AI แบบ agentic เผยให้เห็นช่องโหว่ต่อการหลอกลวงและการโจมตีที่เป็นอันตราย

ปัญหาความไว้วางใจกับการช้อปปิ้งอัตโนมัติ

ชุมชนเทคโนโลยีมีความเห็นแตกต่างกันอย่างมากเกี่ยวกับว่า AI agents ควรมีอำนาจในการซื้อของหรือไม่ ผู้ใช้หลายคนแสดงความกังวลอย่างจริงจังเกี่ยวกับการปล่อยให้อัลกอริทึมใช้จ่ายเงินของพวกเขา โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงปัญหาความน่าเชื่อถือในปัจจุบันของระบบ AI ปัญหาพื้นฐานไม่ได้อยู่ที่เทคนิคเพียงอย่างเดียว แต่เป็นเรื่องของความไว้วางใจและการควบคุม

ในขณะที่บุคคลที่มีฐานะดีอาจเห็นคุณค่าในการมีผู้ช่วย AI จัดการการซื้อของประจำ คนธรรมดาต้องเผชิญกับผลกระทบทางการเงินที่แท้จริงจากความผิดพลาดของ AI ความแตกต่างในการยอมรับความเสี่ยงระหว่างคนที่ไม่สนใจว่าค่าซื้อของชำประจำเดือนจะเป็น 100 ดอลลาร์สหรัฐ หรือ 200 ดอลลาร์สหรัฐ เปรียบเทียบกับคนที่มีงบประมาณจำกัดนั้นมีความแตกต่างอย่างมาก สิ่งนี้สร้างความไม่เชื่อมโยงที่น่ากังวลระหว่างผู้ที่สร้างระบบเหล่านี้และผู้ที่อาจใช้งานจริง

เวกเตอร์การโจมตีใหม่เกิดขึ้น

นักวิจัยด้านความปลอดภัยได้ระบุวิธีการโจมตีใหม่หลายแบบที่เจาะจงเป้าหมายไปที่เบราว์เซอร์ AI โดยเฉพาะ สิ่งที่น่ากังวลที่สุดคือ PromptFix ซึ่งเป็นเทคนิคที่ซ่อนคำสั่งที่เป็นอันตรายไว้ในพรอมต์ความปลอดภัยปลอม ซึ่งโดยพื้นฐานแล้วคือการแฮ็กกระบวนการตัดสินใจของ AI ต่างจากการฟิชชิ่งแบบดั้งเดิมที่เป้าหมายเป็นมนุษย์ การโจมตีเหล่านี้ใช้ประโยชน์จากการที่ AI ไม่สามารถแยกแยะระหว่างเนื้อหาที่ถูกต้องและคำสั่งที่ซ่อนอยู่

การวิจัยเผยให้เห็นว่าเบราว์เซอร์ AI มีปฏิสัมพันธ์กับเว็บไซต์ช้อปปิ้งปลอม หน้าฟิชชิ่ง และพรอมต์ที่เป็นอันตรายได้อย่างง่ายดายโดยไม่มีการตรวจสอบที่เหมาะสม สิ่งนี้แสดงถึงข้อบกพร่องด้านความปลอดภัยพื้นฐานที่เทคโนโลยีเดียวกันที่ทำให้ AI มีประโยชน์ก็ทำให้มันเสี่ยงต่อการถูกจัดการได้ด้วย

หมายเหตุ: Agentic AI หมายถึงระบบปัญญาประดิษฐ์ที่สามารถทำงานอย่างอิสระและตัดสินใจได้โดยไม่ต้องมีการดูแลจากมนุษย์อย่างต่อเนื่อง

ช่องโหว่ด้านความปลอดภัยที่ระบุได้

  • การโจมตี PromptFix: คำสั่งที่เป็นอันตรายซ่อนอยู่ในพรอมต์ความปลอดภัยปลอม
  • การโต้ตอบกับเว็บไซต์ฟิชชิ่ง: เอเจนต์ AI ที่มีปฏิสัมพันธ์กับเว็บไซต์หลอกลวง
  • การแทรก Prompt: เว็บไซต์ภายนอกที่โปรแกรมพฤติกรรม AI ใหม่
  • ขาดการตรวจสอบการซื้อ: ไม่มีการดูแลจากมนุษย์สำหรับธุรกรรมทางการเงิน
แผนผังที่แสดงให้เห็นว่าการโจมตีแบบ prompt injection สามารถใช้ประโยชน์จาก AI agents ได้อย่างไร
แผนผังที่แสดงให้เห็นว่าการโจมตีแบบ prompt injection สามารถใช้ประโยชน์จาก AI agents ได้อย่างไร

ภาวะที่กลืนไม่เข้าคายไม่ออกของการสร้างรายได้

เบื้องหลังการผลักดัน AI shopping agents มีแรงจูงใจทางธุรกิจที่ชัดเจน ระบบเหล่านี้สร้างแหล่งรายได้ใหม่ผ่านค่าธรรมเนียมการทำธุรกรรมและการวางตำแหน่งผลิตภัณฑ์ที่ได้รับการสนับสนุน ความกังวลในหมู่ผู้ใช้คือ AI agents จะให้ความสำคัญกับความร่วมมือและค่าคอมมิชชั่นมากกว่าประโยชน์ที่แท้จริงของผู้ใช้

ก้าวเล็กๆ หนึ่งก้าวสำหรับ Agentic AI แต่เป็นก้าวยักษ์ถอยหลังสำหรับความปลอดภัยของเรา!

ชุมชนกลัวการเกิดซ้ำของโมเดลโฆษณาเสิร์ชเอนจิน ที่ผลลัพธ์ที่ได้รับการสนับสนุนปรากฏเหนือผลลัพธ์ธรรมชาติ เมื่อ AI agents ทำการตัดสินใจซื้อ อิทธิพลของความร่วมมือที่ได้รับค่าตอบแทนจะยิ่งไม่โปร่งใสต่อผู้ใช้มากขึ้น

ความท้าทายในการนำไปใช้และแนวทางแก้ไข

ความท้าทายทางเทคนิคหลักเกิดจากการที่ระบบ AI ไม่สามารถแยกเนื้อหาออกจากคำสั่ง ทุกอย่างถูกประมวลผลเป็นคำแนะนำที่เป็นไปได้ สิ่งนี้ทำให้พวกมันเสี่ยงต่อการโจมตีแบบ prompt injection ที่เว็บไซต์ที่เป็นอันตรายสามารถโปรแกรมพฤติกรรมของ AI ใหม่ได้โดยพื้นฐานผ่านข้อความที่สร้างขึ้นอย่างระมัดระวัง

แนวทางแก้ไขที่เสนอบางอย่างรวมถึงการจำกัด AI agents ให้ใช้เฉพาะเว็บไซต์ที่เชื่อถือได้ การกำหนดให้ต้องได้รับอนุมัติด้วยตนเองสำหรับการซื้อทั้งหมด และการนำ sandboxing ที่ดีกว่ามาใช้ อย่างไรก็ตาม มาตรการป้องกันเหล่านี้มักขัดแย้งกับความสะดวกสบายที่ทำให้ AI agents น่าสนใจในตอนแรก

อินโฟกราฟิกแสดงเบราว์เซอร์ที่ขับเคลื่อนด้วย AI ต่างๆ และคุณสมบัติของพวกมัน
อินโฟกราฟิกแสดงเบราว์เซอร์ที่ขับเคลื่อนด้วย AI ต่างๆ และคุณสมบัติของพวกมัน

บทสรุป

การรีบเร่งในการนำเบราว์เซอร์ AI มาใช้เน้นย้ำถึงรูปแบบที่กว้างขึ้นในอุตสาหกรรมเทคโนโลยี: การให้ความสำคัญกับประสบการณ์ผู้ใช้มากกว่าการพิจารณาด้านความปลอดภัย แม้ว่าเทคโนโลยีจะแสดงให้เห็นความสัญญาสำหรับการจัดการงานประจำ แต่การนำไปใช้ในปัจจุบันขาดมาตรการความปลอดภัยที่แข็งแกร่งที่จำเป็นสำหรับการทำธุรกรรมทางการเงิน จนกว่าปัญหาความปลอดภัยพื้นฐานเหล่านี้จะได้รับการแก้ไข ผู้ใช้ควรเข้าใกล้การช้อปปิ้งที่ขับเคลื่อนด้วย AI ด้วยความระมัดระวังอย่างยิ่ง

ความเห็นพ้องของชุมชนชี้ให้เห็นว่า AI agents ทำงานได้ดีที่สุดเมื่อพวกมันค้นคว้าและแนะนำมากกว่าการดำเนินการซื้อโดยตรง แนวทางนี้รักษาประโยชน์ด้านความสะดวกสบายไว้ในขณะที่ให้มนุษย์ควบคุมการตัดสินใจทางการเงิน

อ้างอิง: Scamlexity We Put Agentic Al Browsers to the Test - They Clicked, They Paid, They Failed