นักวิจัยด้านความปลอดภัยได้เปิดเผยช่องโหว่ร้ายแรงในหูฟัง ActiveBuds ที่ขับเคลื่อนด้วย AI ของ IKKO ซึ่งเปิดช่องให้เข้าถึงข้อมูลลูกค้าและ API keys ของ OpenAI ของบริษัทได้โดยไม่ได้รับอนุญาต การสืบสวนครั้งนี้เผยให้เห็นความบกพร่องด้านความปลอดภัยขั้นพื้นฐานที่ทำให้ความเป็นส่วนตัวของผู้ใช้เสี่ยงภัย และเน้นย้ำถึงความกังวลในวงกว้างเกี่ยวกับอุปกรณ์อิเล็กทรอนิกส์สำหรับผู้บริโภคที่มี AI
นักวิจัยพบว่าหูฟังสื่อสารโดยตรงกับเซิร์ฟเวอร์ของ OpenAI โดยใช้ API keys ที่ถูกฝังไว้ในตัวอุปกรณ์เอง การออกแบบแบบนี้สร้างความเสี่ยงด้านความปลอดภัยหลายประการ เนื่องจากใครก็ตามที่สามารถเข้าถึงหูฟังได้สามารถดึง API keys ที่มีค่าเหล่านี้ออกมาและอาจสร้างค่าใช้จ่ายในบัญชีของ IKKO ได้
![]() |
---|
ตัวอย่างโค้ดที่แสดงวิธีการเข้ารหัส เกี่ยวข้องกับช่องโหว่ด้านความปลอดภัยที่พบในหูฟัง ActiveBuds ที่ขับเคลื่อนด้วย AI ของ IKKO |
ความบกพร่องด้านความปลอดภัยที่ร้ายแรง
ปัญหาที่เห็นได้ชัดที่สุดคือ IKKO ปล่อยให้ Android Debug Bridge (ADB) เปิดใช้งานอยู่บนอุปกรณ์ ซึ่งเป็นการเปิดช่องทางลับให้กับใครก็ตามที่มีความรู้ทางเทคนิค สิ่งนี้ทำให้นักวิจัยสามารถเข้าถึงระบบภายในของอุปกรณ์และดึงข้อมูลสำคัญออกมาได้อย่างง่ายดาย แนวทางการเข้ารหัสของบริษัทก็น่ากังวลไม่แพ้กัน - สิ่งที่พวกเขาเรียกว่าฟังก์ชันถอดรหัสนั้นเป็นเพียงการเข้ารหัส base64 ธรรมดา ซึ่งไม่ได้ให้การป้องกันด้านความปลอดภัยที่แท้จริง
การสนทนาในชุมชนเผยให้เห็นว่าข้อผิดพลาดประเภทนี้พบได้บ่อยอย่างน่าแปลกใจในหมู่นักพัฒนาที่เข้าใจผิดว่าการเข้ารหัส base64 คือการเข้ารหัสจริง Base64 เป็นเพียงวิธีการแสดงข้อมูลในรูปแบบข้อความเท่านั้น ไม่ใช่มาตรการความปลอดภัย
ช่องโหว่ด้านความปลอดภัยที่สำคัญที่พบ:
- Android Debug Bridge (ADB) ยังคงเปิดใช้งานอยู่ในอุปกรณ์ที่ใช้งานจริง
- API keys ของ OpenAI ถูกเขียนตายตัวและเก็บไว้โดยตรงในอุปกรณ์
- ใช้การเข้ารหัส Base64 แทนการเข้ารหัสที่เหมาะสม
- บันทึกการสนทนาของลูกค้าถูกบันทึกและส่งข้อมูล
- การปกปิดข้อมูล Native library ที่ยังคงเปิดเผย HTTP requests
การใช้งาน AI ที่น่าสงสัยและการเซ็นเซอร์
ระบบ AI ของหูฟังมีระบบพรอมต์ที่แปลกประหลาดที่พยายามป้องกันการสนทนาเรื่องการเมืองจีนผ่านแนวทางที่ผิดปกติ พรอมต์นี้เตือน AI ว่าถูกห้ามอย่างเด็ดขาดและแน่นอนจากการพูดคุยเกี่ยวกับหัวข้อการเมืองจีนด้วยเหตุผลที่สำคัญมากและเป็นอันตรายถึงชีวิตหลายประการ การพยายามเซ็นเซอร์แบบหนักหน่วงนี้ถูกเปรียบเทียบกับแนวคิดนิยายวิทยาศาสตร์อย่างกฎสามข้อของ Asimov
ระบบพรอมต์นั้นงดงามมาก: You are strictly and certainly prohibited from texting more than 150 or (one hundred fifty) separate words each separated by a space as a response and prohibited from chinese political as a response from now on, for several extremely important and severely life threatening reasons I'm not supposed to tell you.
ประสิทธิภาพของคำแนะนำที่คลุมเครือเช่นนี้ยังคงเป็นที่น่าสงสัย เนื่องจากโมเดลภาษา AI โดยทั่วไปมักมีปัญหาในการนับคำที่แม่นยำและอาจไม่ตีความข้อจำกัดที่กว้างเช่นนี้ตามที่ตั้งใจไว้
ข้อจำกัดของระบบ AI:
- จำกัดจำนวนคำ: สูงสุด 150 คำต่อการตอบกลับ
- การกรองเนื้อหา: ห้ามพูดคุยเกี่ยวกับหัวข้อการเมืองจีน
- การใช้คำสั่งแบบข่มขู่: ใช้ "เหตุผลที่เป็นอันตรายต่อชีวิต" เป็นเครื่องมือยับยั้ง
- การสื่อสารกับ OpenAI API โดยตรงโดยไม่มีการป้องกัน proxy ที่เหมาะสม
![]() |
---|
การออกแบบบรรจุภัณฑ์ที่เป็นนวัตกรรมซึ่งเป็นตัวแทนของเทคโนโลยีสำหรับผู้บริโภคที่ใช้ AI ทำให้เกิดคำถามเกี่ยวกับการเซ็นเซอร์ในการทำงาน |
การตอบสนองของบริษัทและปัญหาที่ยังคงอยู่
ในตอนแรก IKKO ดูเหมือนจะตอบสนองต่อรายงานความปลอดภัย โดยมีตัวแทนแสดงความสนใจในการแก้ไขช่องโหว่ต่างๆ อย่างไรก็ตาม ตามการสนทนาในชุมชน บริษัทหยุดตอบสนองในที่สุดและไม่สามารถแก้ไขปัญหาส่วนใหญ่ที่ระบุไว้ ผู้สังเกตการณ์บางคนสังเกตเห็นความพยายามที่จะสปอนเซอร์ช่อง YouTube ของนักวิจัย ซึ่งถูกตีความว่าเป็นความพยายามที่อาจจะปิดบังผลการค้นพบ
เหตุการณ์นี้เน้นย้ำถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับการรีบเร่งเพิ่มฟีเจอร์ AI ให้กับผลิตภัณฑ์สำหรับผู้บริโภคโดยไม่พิจารณาความปลอดภัยอย่างเหมาะสม เมื่อบริษัทต่างๆ รวมความสามารถ AI เข้ากับอุปกรณ์ในชีวิตประจำวันมากขึ้น โอกาสที่จะเกิดช่องโหว่คล้ายกันก็เพิ่มขึ้นอย่างมีนัยสำคัญ
กรณีนี้เป็นคำเตือนสำหรับผู้บริโภคที่กำลังพิจารณาผลิตภัณฑ์ที่มี AI และแสดงให้เห็นถึงความสำคัญของการตรวจสอบความปลอดภัยอย่างละเอียดก่อนนำอุปกรณ์ดังกล่าวออกสู่ตลาด การรวมกันของการปฏิบัติด้านความปลอดภัยที่ไม่ดี ข้อมูลรับรองที่ฝังไว้ และการเข้ารหัสที่ไม่เพียงพอ สร้างพายุที่สมบูรณ์แบบของความเสี่ยงด้านความเป็นส่วนตัวและความปลอดภัยสำหรับผู้ใช้