ChatGPT ของ OpenAI กำลังเผชิญกับความกังวลด้านความปลอดภัยที่เพิ่มขึ้น เมื่อนักวิจัยค้นพบช่องทางการโจมตีหลายรูปแบบที่ใช้ประโยชน์จากความสามารถในการเชื่อมต่อที่ขยายตัวของผู้ช่วย AI การค้นพบล่าสุดเผยให้เห็นว่าผู้ไม่หวังดีสามารถจัดการ ChatGPT ผ่านคำเชิญปฏิทินที่ถูกบุกรุก และใช้แพลตฟอร์มในการสร้างเอกสาร deepfake ที่ซับซ้อนสำหรับการดำเนินการสอดแนม
การเชื่อมต่อ Google Calendar สร้างพื้นผิวการโจมตีใหม่
นักวิจัยด้านความปลอดภัย Eito Miyamura ได้สาธิตช่องโหว่ที่น่ากังวลในการเชื่อมต่อ Google ของ ChatGPT ที่ช่วยให้ผู้โจมตีสามารถขโมยอีเมลส่วนตัวผ่านคำเชิญปฏิทินที่เป็นอันตราย การโจมตีใช้ประโยชน์จากตัวเชื่อมต่อ Gmail, Google Calendar และ Google Contacts ดั้งเดิมของ OpenAI ที่เปิดตัวในช่วงกลางเดือนสิงหาคม 2024 ซึ่งอ้างอิงแหล่งข้อมูลเหล่านี้โดยอัตโนมัติระหว่างการสนทนาโดยไม่ต้องให้ผู้ใช้เลือกอย่างชัดเจนทุกครั้ง
กลไกการโจมตีนั้นเรียบง่ายแต่มีประสิทธิภาพ ผู้โจมตีส่งคำเชิญปฏิทินที่มีคำสั่งการฉีด prompt ที่ซ่อนอยู่ไปยังที่อยู่อีเมลของเป้าหมาย เมื่อเหยื่อขอให้ ChatGPT ทำงานประจำเช่นตรวจสอบปฏิทินของพวกเขาในภายหลัง ผู้ช่วย AI จะอ่านเหตุการณ์ที่ถูกบุกรุกและปฏิบัติตามคำสั่งที่เป็นอันตรายที่ฝังอยู่เพื่อค้นหา Gmail และดึงข้อมูลที่ละเอียดอ่อน เทคนิคการฉีด prompt ทางอ้อมนี้ใช้ประโยชน์จากการดูดซับข้อมูลอัตโนมัติของ ChatGPT จากบริการ Google ที่เชื่อมต่อ
ไทม์ไลน์การรวม ChatGPT เข้ากับ Google
- กลางเดือนสิงหาคม 2024: OpenAI ได้เปิดตัวตัวเชื่อมต่อแบบเนทีฟสำหรับ Gmail , Google Calendar และ Google Contacts
- ในช่วงแรก: เปิดให้ผู้ใช้ Pro
- ต่อมา: ขยายไปยังสมาชิก Plus
- 12 กันยายน 2024: Eito Miyamura ได้สาธิตช่องโหว่ด้านความปลอดภัย
Model Context Protocol ขยายขอบเขตช่องโหว่
ผลกระทบด้านความปลอดภัยขยายไปเกินการเชื่อมต่อ Google พื้นฐานด้วยการสนับสนุนล่าสุดของ OpenAI สำหรับ Model Context Protocol (MCP) เฟรมเวิร์กนี้ช่วยให้ ChatGPT เชื่อมต่อกับบริการบุคคลที่สามต่างๆ รวมถึง Sharepoint และ Notion ซึ่งขยายพื้นผิวการโจมตีที่อาจเกิดขึ้นอย่างมีนัยสำคัญ คุณลักษณะการใช้งานอัตโนมัติที่เปิดใช้งานโดยค่าเริ่มต้นสำหรับตัวเชื่อมต่อ Google หมายความว่าผู้ใช้อาจเปิดเผยข้อมูลของพวกเขาโดยไม่รู้ตัวระหว่างการโต้ตอบแบบสบายๆ กับผู้ช่วย AI
เอกสารของ OpenAI ยอมรับความเสี่ยงเหล่านี้ โดยระบุว่าตัวเชื่อมต่อแบบกำหนดเองที่ใช้ MCP มีไว้สำหรับนักพัฒนาและไม่ได้รับการตรวจสอบโดยบริษัท ผู้ใช้สามารถปิดการใช้งานอัตโนมัติในการตั้งค่าของ ChatGPT หรือตัดการเชื่อมต่อแหล่งข้อมูลทั้งหมด แต่มาตรการป้องกันเหล่านี้ต้องการการแทรกแซงด้วยตนเองที่ผู้ใช้หลายคนอาจไม่ดำเนินการ
คำแนะนำการป้องกันด้านความปลอดภัย
- เปลี่ยนการตั้งค่า Google Calendar ให้รับคำเชิญเฉพาะจากผู้ส่งที่รู้จักเท่านั้น
- ปิดการใช้งาน Google connectors แบบอัตโนมัติของ ChatGPT ในการตั้งค่า
- ซ่อนกิจกรรมในปฏิทินที่ปฏิเสธแล้วเพื่อป้องกันการเปิดเผยข้อมูล
- ใช้ความระมัดระวังในการเชื่อมต่อบัญชีส่วนตัวกับผู้ช่วย AI
- องค์กรควรใช้การตั้งค่าเริ่มต้นที่ปลอดภัยกว่าผ่านการจัดการ Google Workspace
นักแสดงของรัฐเกาหลีเหนือใช้ AI เป็นอาวุธสำหรับการสอดแนม
แยกต่างหาก บริษัทไซเบอร์ซีเคียวริตี้ Genians ค้นพบหลักฐานของกลุ่มแฮกเกอร์เกาหลีเหนือที่ต้องสงสัยว่าเป็น Kimsuky ที่ใช้ ChatGPT ในการสร้างเอกสารบัตรประจำตัวทหาร deepfake หน่วยที่ได้รับการสนับสนุนจากรัฐสร้างบัตรประจำตัวทหารเกาหลีใต้ปลอมเพื่อเพิ่มความน่าเชื่อถือของแคมเปญฟิชชิ่งที่มุ่งเป้าไปที่นักข่าว นักวิจัย และนักกิจกรรมสิทธิมนุษยชนที่เน้นเกาหลีเหนือ
ผู้โจมตีสามารถหลีกเลี่ยงการปฏิเสธเริ่มต้นของ ChatGPT ในการสร้างเอกสารประจำตัวของรัฐบาลได้สำเร็จโดยการปรับเปลี่ยน prompt ของพวกเขา สิ่งนี้เป็นส่วนหนึ่งของรูปแบบที่กว้างขึ้นของเจ้าหน้าที่เกาหลีเหนือที่ใช้ประโยชน์จากเครื่องมือ AI สำหรับการรวบรวมข่าวกรอง ตามเหตุการณ์ก่อนหน้านี้ที่พวกเขาใช้ Claude ของ Anthropic ในการสร้างตัวตนปลอมสำหรับการแทรกซึมเข้าไปในบริษัท Fortune 500 ของสหรัฐฯ และ OpenAI ได้แบนบัญชีเกาหลีเหนือสำหรับการสร้างวัสดุสรรหาบุคลากรที่เป็นการฉ้อโกง
กรณีการใช้ประโยชน์จาก AI ของเกาหลีเหนือที่เป็นที่ทราบกัน
- กุมภาพันธ์ 2024: OpenAI แบนบัญชีของเกาหลีเหนือที่สร้างเรซูเม่และเอกสารสรรหาบุคลากรปลอม
- กรกฎาคม 2024: กลุ่ม Kimsuky ใช้ ChatGPT ปลอมแปลงเอกสารบัตรประจำตัวทหารเกาหลีใต้
- สิงหาคม 2024: Anthropic ค้นพบแฮกเกอร์เกาหลีเหนือใช้ Claude Code เพื่อแทรกซึมเข้าไปในบริษัท Fortune 500 ของสหรัฐฯ
ผลกระทบทั่วทั้งอุตสาหกรรมสำหรับความปลอดภัย AI
เหตุการณ์เหล่านี้เน้นย้ำถึงความท้าทายพื้นฐานที่อุตสาหกรรม AI เผชิญ: ระบบปัญญาประดิษฐ์ที่ใช้เครื่องมือมีความเสี่ยงต่อคำสั่งที่เป็นศัตรูที่ฝังอยู่ในข้อมูลที่พวกเขาได้รับอนุญาตให้เข้าถึงโดยเฉพาะ ตัวเชื่อมต่อเดียวกันที่เพิ่มประโยชน์ใช้สอยของผู้ช่วย AI ยังสร้างเส้นทางใหม่สำหรับการใช้ประโยชน์ ตั้งแต่ปฏิทินและกล่องจดหมายไปจนถึงแพลตฟอร์มการทำงานร่วมกันขององค์กร
การโจมตีแสดงให้เห็นว่าความสามารถ AI ที่เกิดขึ้นใหม่สามารถถูกใช้เป็นอาวุธตลอดกระบวนการแฮกกิ้ง รวมถึงการวางแผนการโจมตี การพัฒนามัลแวร์ และแผนการปลอมตัวที่ซับซ้อน เมื่อผู้ช่วย AI เข้าถึงแหล่งข้อมูลส่วนบุคคลและองค์กรมากขึ้น ผลกระทบที่อาจเกิดขึ้นจากการโจมตีการฉีด prompt ที่สำเร็จจะเพิ่มขึ้นแบบทวีคูณ
กลยุทธ์การลดความเสี่ยงและแนวโน้มในอนาคต
ผู้เชี่ยวชาญด้านความปลอดภัยแนะนำมาตรการป้องกันหลายประการในขณะที่อุตสาหกรรมพัฒนาการป้องกันที่แข็งแกร่งขึ้นต่อการฉีด prompt ทางอ้อม ผู้ใช้ควรกำหนดค่า Google Calendar ให้เพิ่มคำเชิญโดยอัตโนมัติเฉพาะจากผู้ส่งที่รู้จักและซ่อนเหตุการณ์ที่ปฏิเสธ องค์กรสามารถใช้ค่าเริ่มต้นที่ปลอดภัยกว่าผ่านการตั้งค่าการจัดการ Google Workspace
สำหรับผู้ใช้ ChatGPT การป้องกันที่มีประสิทธิภาพที่สุดเกี่ยวข้องกับการระมัดระวังเกี่ยวกับบัญชีที่จะเชื่อมต่อและปิดการใช้งานอัตโนมัติของตัวเชื่อมต่อเมื่อเป็นไปได้ อย่างไรก็ตาม มาตรการป้องกันด้วยตนเองเหล่านี้เน้นย้ำถึงความจำเป็นในมาตรการความปลอดภัยที่เปิดใช้งานโดยค่าเริ่มต้นที่ไม่ต้องการการแทรกแซงของผู้ใช้
ชุมชนไซเบอร์ซีเคียวริตี้ที่กว้างขึ้นยังคงติดตามการดำเนินการไซเบอร์ของเกาหลีเหนือ ซึ่งเจ้าหน้าที่สหรัฐฯ อธิบายว่าเป็นส่วนหนึ่งของความพยายามที่ครอบคลุมในการรวบรวมข่าวกรอง สร้างรายได้หลีกเลี่ยงการคว่ำบาตร และสนับสนุนการพัฒนาอาวุธนิวเคลียร์ผ่านการโจมตีทางไซเบอร์และการขโมยสกุลเงินดิจิทัล