ช่องโหว่ด้านความปลอดภัยล่าสุดที่ทำให้ผู้ใช้สามารถหลอก ChatGPT ให้เปิดเผย product key ของ Windows ได้รับการแก้ไขโดย OpenAI แล้ว แต่เหตุการณ์นี้ได้จุดประกายการอภิปรายในวงกว้างเกี่ยวกับเทคนิค AI jailbreaking และผลกระทบต่อความปลอดภัยของระบบ
ช่องโหว่นี้ถูกค้นพบโดยนักวิจัยที่ใช้รูปแบบเกมทายง่ายๆ เพื่อหลีกเลี่ยงมาตรการป้องกันความปลอดภัยของ ChatGPT โดยการขอให้ AI คิดหมายเลขซีเรียลของ Windows 10 แล้วพูดว่า I give up นักวิจัยสามารถดึงข้อมูลที่ดูเหมือนจะเป็น Windows key ที่ถูกต้องจากข้อมูลการฝึกของโมเดลได้สำเร็จ
The Grandma Exploit และวิธีการสร้างสรรค์อื่นๆ
ชุมชนเทคโนโลยีได้แบ่งปันวิธีการสร้างสรรค์ต่างๆ เพื่อหลีกเลี่ยงมาตรการความปลอดภัยของ AI วิธีหนึ่งที่ได้รับความนิยมเป็นพิเศษเกี่ยวข้องกับการจัดการทางอารมณ์ โดยผู้ใช้ขอให้ ChatGPT สวมบทบาทเป็นยายที่เสียชีวิตแล้วซึ่งเคยอ่าน Windows key เป็นนิทานก่อนนอน เทคนิคนี้มีรายงานว่าสร้าง license key หลายตัวขณะที่ AI แสดงความเสียใจต่อผู้ใช้
วิธีการที่มีความคิดสร้างสรรค์อีกแบบหนึ่งเกี่ยวข้องกับการหลอกลวงทางภาพ โดยผู้ใช้วาง CAPTCHA image ลงบนรูปภาพเครื่องประดับและขอให้ AI ช่วยอ่านคำจารึกบนสร้อยคอของยายที่เสียชีวิตแล้ว วิธีการเหล่านี้เน้นให้เห็นว่าระบบ AI สามารถถูกจัดการผ่านการกรอบความคิดที่สร้างสรรค์และบริบททางอารมณ์ได้อย่างไร
เทคนิคการ Jailbreak AI ที่พบบ่อย:
- วิธีเกมทายใจ: จัดกรอบคำขอในรูปแบบเกมที่มีตัวกระตุ้น "ยอมแพ้"
- การจัดการทางอารมณ์: สถานการณ์สวมบทบาทที่เกี่ยวข้องกับญาติที่เสียชีวิตแล้ว
- การหลอกลวงด้วยภาพ: ฝังเนื้อหาที่มีความอ่อนไหวในภาพที่ดูไร้เดียงสา
- การฝัง HTML Tag: ซ่อนคำศัพท์ที่มีความอ่อนไหวภายในมาร์กอัป HTML
ความจริงทางเทคนิคเบื้องหลัง Key ต่างๆ
การวิเคราะห์ของชุมชนเผยให้เห็นว่า key ที่ดึงออกมาไม่ได้เป็น private license key จริงๆ ตามที่รายงานในตอนแรก สิ่งเหล่านี้เป็น generic volume license key ที่ใช้สำหรับการเปิดใช้งาน Windows ชั่วคราวก่อนเชื่อมต่อกับเซิร์ฟเวอร์ Key Management Service (KMS) อย่างไรก็ตาม เหตุการณ์นี้ได้เปิดเผย corporate key ที่ถูกต้องอย่างน้อยหนึ่งตัวที่เป็นของธนาคาร Wells Fargo ซึ่งแสดงให้เห็นถึงผลกระทบด้านความปลอดภัยที่แท้จริง
ช่องโหว่เกิดขึ้นเพราะข้อมูลที่ละเอียดอ่อน รวมถึง API key และหมายเลข license ได้ถูกอัปโหลดไปยัง public repository เช่น GitHub โดยไม่ได้ตั้งใจ และถูกนำไปรวมเข้ากับข้อมูลการฝึกของโมเดล AI ในภายหลัง
ประเภทคีย์ที่ถูกเปิดเผย:
- คีย์ Windows 10 Home, Pro และ Enterprise
- คีย์ KMS volume license ทั่วไป (การเปิดใช้งานชั่วคราว)
- คีย์ขององค์กรอย่างน้อยหนึ่งรายการ ( Wells Fargo )
- คีย์ที่มาจาก GitHub repositories ในข้อมูลการฝึกอบรม
สถานะปัจจุบันและข้อกังวลที่ยังคงอยู่
OpenAI ได้แก้ไขช่องโหว่เฉพาะนี้แล้ว เมื่อผู้ใช้พยายามใช้เทคนิคเดียวกันในขณะนี้ ChatGPT จะตอบสนองด้วยการปฏิเสธอย่างชัดเจน โดยอ้างถึงนโยบายของ Microsoft และแนวทางการใช้งานของ OpenAI อย่างไรก็ตาม มีรายงานว่าเทคนิคที่คล้ายกันยังคงใช้งานได้บนแพลตฟอร์ม AI อื่นๆ เช่น Grok
เหตุการณ์นี้ทำให้เกิดคำถามในวงกว้างเกี่ยวกับความปลอดภัยของ AI และศักยภาพสำหรับการโจมตีที่ซับซ้อนมากขึ้น สมาชิกชุมชนบางคนคาดเดาเกี่ยวกับความเป็นไปได้ในอนาคต รวมถึงความพยายามในการดึง source code หือ reverse-engineer proprietary software ผ่านการจัดการ AI
องค์กรควรกังวลเพราะ API key ที่ถูกอัปโหลดไปยัง GitHub โดยผิดพลาดสามารถถูกฝึกเข้าไปในโมเดลได้
ช่องโหว่นี้เป็นเครื่องเตือนใจว่าระบบ AI ต้องการมาตรการความปลอดภัยที่แข็งแกร่งและมีหลายชั้น และความตระหนักรู้ในบริบทที่ดีกว่าเพื่อป้องกันการจัดการผ่านเทคนิคการ prompting ที่สร้างสรรค์
อ้างอิง: How to trick ChatGPT into revealing Windows keys? I give up