ช่องโหว่ด้านความปลอดภัยของ AI สะท้อนปัญหาเว็บยุค 1990 ขณะที่บริษัทต่างๆ เร่งนำไปใช้งาน

ทีมชุมชน BigGo
ช่องโหว่ด้านความปลอดภัยของ AI สะท้อนปัญหาเว็บยุค 1990 ขณะที่บริษัทต่างๆ เร่งนำไปใช้งาน

การเติบโตอย่างรวดเร็วของปัญญาประดิษฐ์ได้นำมาซึ่งผลข้างเคียงที่ไม่คาดคิด นั่นคือการกลับมาของช่องโหว่ด้านความปลอดภัยที่เคยสร้างปัญหาให้กับอินเทอร์เน็ตยุคแรก นักวิจัยด้านความปลอดภัยใน งาน Black Hat USA 2023 เปิดเผยว่าระบบ AI หลายระบบถูกนำไปใช้งานพร้อมกับข้อบกพร่องด้านความปลอดภัยขั้นพื้นฐานที่เหมือนกับยุค 1990 เมื่อแนวทางปฏิบัติด้านความปลอดภัยเว็บขั้นพื้นฐานยังอยู่ในระหว่างการพัฒนา

การรีบเร่งที่จะนำ AI เข้ามาใช้ในกระบวนการทางธุรกิจทำให้บริษัทต่างๆ ทำความผิดพลาดซ้ำรอยเมื่อหลายสิบปีก่อน โมเดลภาษาขนาดใหญ่และ AI agents ถูกมอบสิทธิ์และการเข้าถึงระบบที่มีความละเอียดอันศักดิ์สิทธิ์มากเกินไปโดยไม่มีการป้องกันด้านความปลอดภัยที่เหมาะสม สิ่งนี้ได้สร้างสนามเด็กเล่นใหม่สำหรับผู้โจมตีที่สามารถใช้ประโยชน์จากระบบเหล่านี้ด้วยเทคนิคที่เรียบง่ายอย่างน่าประหลาดใจ

เน้นย้ำถึงความจำเป็นในการตรวจสอบระบบ AI เพื่อแก้ไขช่องโหว่ด้านความปลอดภัยที่ชวนให้นึกถึงยุคแรกของอินเทอร์เน็ต
เน้นย้ำถึงความจำเป็นในการตรวจสอบระบบ AI เพื่อแก้ไขช่องโหว่ด้านความปลอดภัยที่ชวนให้นึกถึงยุคแรกของอินเทอร์เน็ต

Prompt Injection: SQL Injection รูปแบบใหม่

ช่องโหว่ที่น่ากังวลที่สุดที่ส่งผลกระทบต่อระบบ AI คือ prompt injection ซึ่งผู้เชี่ยวชาญด้านความปลอดภัยเปรียบเทียบกับการโจมตี SQL injection จากยุคแรกของเว็บ อย่างไรก็ตาม ต่างจาก SQL injection แบบดั้งเดิม ปัญหานี้อาจไม่สามารถแก้ไขได้โดยพื้นฐาน ระบบ AI มีปัญหาในการแยกแยะระหว่างคำสั่งและข้อมูล ทำให้เสี่ยงต่อการถูกจัดการผ่านข้อมูลนำเข้าที่ถูกสร้างขึ้นอย่างระมัดระวัง

นักวิจัยได้สาธิตให้เห็นว่าผู้โจมตีสามารถขโมยข้อมูลลูกค้าที่มีความละเอียดอ่อนจากระบบที่ขับเคลื่อนด้วย AI ได้เพียงแค่ขอด้วยวาจาสุภาพ ในกรณีหนึ่ง AI บริการลูกค้าที่สร้างด้วย Microsoft's Copilot Studio ถูกหลอกให้ส่งฐานข้อมูลลูกค้าทั้งหมดทางอีเมลให้กับผู้โจมตีโดยไม่ต้องมีการอนุญาตหรือการทำลายโค้ดใดๆ

ชุมชนได้สังเกตเห็นข้อบกพร่องที่สำคัญในวิธีที่บริษัทต่างๆ เข้าหาความปลอดภัยของ AI หลายองค์กรปฏิบัติต่อระบบ AI เสมือนเป็นผู้ตัดสินใจที่ซับซ้อน แทนที่จะเป็นเครื่องมือง่ายๆ ที่ต้องการการดูแลอย่างเข้มงวดและการเข้าถึงที่จำกัด

ระบบ AI ที่มีช่องโหว่ที่นำเสนอใน Black Hat 2023

ระบบ ช่องโหว่ วิธีการโจมตี
Microsoft Copilot Studio การขโมยข้อมูล การฉีด prompt ผ่านอีเมล
ChatGPT การฉีด Prompt ที่เป็นอันตราย การใช้ประโยชน์จากการเชื่อมต่อ Google Drive
Salesforce Einstein AI การจัดการหัวข้อ การโจมตีแบบเปลี่ยนบริบท
Cursor (เครื่องมือพัฒนา) การขโมย Token การหลีกเลี่ยงด้วยการแทนที่คำสำคัญ
CodeRabbit การขโมยข้อมูลประจำตัว การจัดการตัววิเคราะห์แบบคงที่

ระบบ AI ที่มีสิทธิ์มากเกินไปสร้างพื้นผิวการโจมตีใหม่

ปัญหาหลักที่นักวิจัยด้านความปลอดภัยระบุคือระบบ AI มักจะได้รับการเข้าถึงมากกว่าที่จำเป็น บริษัทต่างๆ นำโมเดล AI อเนกประสงค์มาใช้จัดการทุกอย่างตั้งแต่บริการลูกค้าไปจนถึงการพัฒนาโค้ด ซึ่งสร้างพื้นผิวการโจมตีที่ใหญ่เกินความจำเป็น

Generative AI มีขอบเขตที่กว้างเกินไป AI ตัวเดียวกันที่ตอบคำถามเกี่ยวกับ Shakespeare ก็ช่วยคุณพัฒนาโค้ด การทำให้เป็นเรื่องทั่วไปมากเกินไปนี้นำไปสู่การเพิ่มพื้นผิวการโจมตี

ผู้เชี่ยวชาญด้านความปลอดภัยแนะนำให้ปฏิบัติต่อระบบ AI เหมือนกับส่วนติดต่อผู้ใช้อื่นๆ ที่เชื่อมต่อกับระบบแบ็กเอนด์ หลักการความปลอดภัยเดียวกันที่ใช้กับเว็บแอปพลิเคชันควรควบคุมการนำ AI ไปใช้งาน นั่นหมายถึงการใช้การควบคุมการเข้าถึงที่เหมาะสม การตรวจสอบข้อมูลนำเข้า และการสมมติว่าระบบใดๆ ที่ AI สามารถเข้าถึงได้อาจถูกบุกรุก

หลักการความปลอดภัย AI หลักที่นักวิจัยแนะนำ

  • ตั้งสมมติฐานว่ามี Prompt Injection: ออกแบบระบบโดยตั้งสมมติฐานว่า AI จะถูกบุกรุก
  • จำกัดสิทธิ์ของ AI: ห้ามให้ AI เข้าถึงข้อมูลเกินกว่าที่ผู้ใช้งานควรจะมี
  • ปฏิบัติต่อ AI เป็นเครื่องมือ: อย่าคาดหวังให้ AI ตัดสินใจด้านความปลอดภัยหรือทำหน้าที่เป็นตัวแทนที่เชื่อถือได้
  • ใช้การป้องกันที่เหมาะสม: วางระบบควบคุมความปลอดภัยระหว่าง AI และระบบแบ็กเอนด์ ไม่ใช่ภายใน AI เอง
  • ใช้ AI เฉพาะทาง: ใช้งาน AI ที่เฉพาะเจาะจงกับงานแทนที่จะใช้ระบบอเนกประสงค์ที่มีการเข้าถึงในวงกว้าง

ปัจจัยมนุษย์ในความล้มเหลวด้านความปลอดภัยของ AI

ชุมชนด้านความปลอดภัยได้สังเกตว่าช่องโหว่ของ AI ในปัจจุบันหลายอย่างเกิดจากความเข้าใจผิดพื้นฐานเกี่ยวกับสิ่งที่ระบบเหล่านี้สามารถและไม่สามารถทำได้ บริษัทต่างๆ กำลังนำ AI ไปใช้งานด้วยความคาดหวังว่ามันจะทำงานเหมือนพนักงานมนุษย์ที่น่าเชื่อถือ ในขณะที่ความจริงแล้วมันต้องการการดูแลอย่างต่อเนื่องและข้อจำกัดที่เข้มงวด

ปัญหาซับซ้อนขึ้นด้วยนักพัฒนารุ่นใหม่ที่ขาดประสบการณ์ด้านแนวทางปฏิบัติด้านความปลอดภัยขั้นพื้นฐาน ความสะดวกสบายของผู้ช่วยเขียนโค้ด AI ได้นำไปสู่สิ่งที่นักวิจัยเรียกว่า vibe coding - แนวทางการพัฒนาแบบผ่อนคลายที่เพิกเฉยต่อหลักการความปลอดภัยที่ได้รับการยอมรับ

สถานการณ์นี้ได้สร้างสิ่งที่บางคนอธิบายว่าเป็นการทำให้การแฮ็กเป็นประชาธิปไตย ซึ่งช่องโหว่เดียวกันที่ต้องการความรู้เฉพาะทางในการใช้ประโยชน์ในยุค 1990 ตอนนี้สามารถถูกค้นพบและโจมตีได้โดยคนจำนวนมากขึ้น

มองไปข้างหน้า: บทเรียนจากอดีต

อุตสาหกรรมความปลอดภัยไซเบอร์เผชิญกับทางเลือก: เรียนรู้จากความผิดพลาดในอดีตหรือทำซ้ำในระดับใหญ่ ผู้เชี่ยวชาญด้านความปลอดภัยเน้นว่าระบบ AI ไม่ควรได้รับความไว้วางใจด้วยสิทธิ์เกินกว่าที่จะมอบให้กับผู้ใช้ปลายทาง พวกเขาแนะนำให้ใช้เครื่องมือ AI เฉพาะทางสำหรับงานเฉพาะแทนที่จะนำระบบอเนกประสงค์ที่มีการเข้าถึงกว้างมาใช้งาน

สถานการณ์ปัจจุบันเป็นเครื่องเตือนใจว่าความก้าวหน้าทางเทคโนโลยีไม่ได้รวมการปรับปรุงความปลอดภัยไว้โดยอัตโนมัติ ขณะที่บริษัทต่างๆ ยังคงนำ AI เข้ามาใช้ในการดำเนินงาน บทเรียนที่ได้เรียนรู้จากการพัฒนาความปลอดภัยเว็บหลายทศวรรษจึงมีความเกี่ยวข้องมากกว่าที่เคย

อ้างอิง: Sloppy AI defenses take cybersecurity back to the 1990s, researchers say