ข้อเสนอใหม่สำหรับการสร้างมาตรฐานอินเทอร์เฟซของโมเดล AI ผ่านแนวทาง virtual machine ได้จุดประกายการถกเถียงอย่างเข้มข้นในหมู่นักพัฒนา โดยหลายคนตั้งคำถามว่าการแยกชั้นงานที่เสนอมานั้นตอบโจทย์ความท้าทายด้านความปลอดภัยที่แท้จริงของแอปพลิเคชัน AI หรือไม่
ข้อเสนอนี้ได้แรงบันดาลใจจากความสำเร็จของ Java Virtual Machine โดยเสนอให้สร้างชั้นอินเทอร์เฟซมาตรฐานระหว่างโมเดล AI และแอปพลิเคชัน Model Virtual Machine นี้จะจัดการการดำเนินงานต่างๆ เช่น การเรียกใช้เครื่องมือ การจัดการบริบท และการควบคุมความปลอดภัย ซึ่งอาจทำให้เกิดแนวทาง เขียนครั้งเดียว ใช้ได้ทุกที่ สำหรับแอปพลิเคชัน AI
การดำเนินงานหลักของ AI Model VM ที่เสนอ:
- การรับรองมาตรฐาน การโหลด และการยกเลิกการโหลดโมเดล
- การเรียกใช้โมเดลแบบตระหนักรู้บริบท
- การแยกวิเคราะห์และตรวจสอบความถูกต้องของผลลัพธ์
- การรับรองมาตรฐานและการจัดการเครื่องมือ
- การจัดการหน่วยความจำสำหรับประวัติบริบท
- การจัดการข้อมูลนำเข้าของผู้ใช้
- โครงสร้างการควบคุมมาตรฐาน (เงื่อนไข การจัดลำดับ)
ความกังวลด้านความปลอดภัยขึ้นเป็นประเด็นหลัก
ชุมชนนักพัฒนาได้แสดงความกังวลอย่างมากเกี่ยวกับแนวทางด้านความปลอดภัยของข้อเสนอนี้ หลายคนโต้แย้งว่าปัญหาพื้นฐานไม่ใช่การควบคุมว่าโมเดล AI สามารถเข้าถึงเครื่องมือใดได้บ้าง แต่เป็นการจัดการขอบเขตและเจตนาของการกระทำเหล่านั้น ตยอางเช่น ระบบจอง AI อาจต้องการเข้าถึงเว็บไซต์ท่องเที่ยวและเครื่องมือการชำระเงิน แต่ควรถูกจำกัดไม่ให้เลือกเส้นทางที่ไม่สะดวกเพียงเพื่อประหยัดเงิน ในทำนองเดียวกัน ระบบ HR ควรอนุญาตให้ผู้จัดการดูข้อมูลสวัสดิการของพนักงานในขณะที่รักษาการติดตามการตรวจสอบอย่างเข้มงวดและป้องกันการเข้าถึงข้อมูลของพนักงานคนอื่นโดยไม่ได้รับอนุญาต
สิ่งนี้เน้นให้เห็นถึงความแตกต่างที่สำคัญระหว่างการอนุญาตระดับเครื่องมือและการอนุญาตตามบริบท เครื่องมือเดียวกันอาจเหมาะสมในสถานการณ์ต่างๆ ที่มีระดับการเข้าถึงและการกำกับดูแลที่แตกต่างกัน
แนวทางทางเลือกได้รับความนิยม
นักพัฒนาหลายคนได้ชี้ไปที่เทคโนโลยีที่มีอยู่แล้วซึ่งสามารถแก้ไขความท้าทายเหล่านี้ได้อย่างมีประสิทธิภาพมากกว่า WebAssembly ( WASM ) ด้วยความสามารถในการสร้าง sandbox ได้กลายเป็นทางเลือกที่ได้รับความนิยม โดยมีการแยกความปลอดภัยในตัวโดยไม่ต้องใช้โครงสร้างพื้นฐานใหม่ทั้งหมด บางคนเสนอว่า WASI components ให้ฟังก์ชันการทำงานส่วนใหญ่ที่ VM ที่เสนอมานั้นมุ่งหวังจะส่งมอบอยู่แล้ว
คนอื่นๆ สนับสนุนให้ปฏิบัติต่อโมเดล AI เหมือนกับกระบวนการ userspace ที่ไม่น่าเชื่อถือภายในระบบปฏิบัติการที่มีอยู่ แทนที่จะสร้างชั้น virtualization ใหม่ แนวทางนี้จะใช้ประโยชน์จากการวิจัยด้านความปลอดภัยหลายทศวรรษและเทคนิคการแยกที่ได้รับการพิสูจน์แล้ว
เทคโนโลยีและโครงการที่เกี่ยวข้อง:
- OpenAI Structured Tool Calling: API การเรียกใช้ฟังก์ชันแบบ JSON
- Anthropic's MCP (2024): โปรโตคอลอินเทอร์เฟซสากลสำหรับผู้ช่วย AI
- FIDES (Microsoft Research): นโยบายการไหลของข้อมูลสำหรับความปลอดภัยของเอเจนต์
- ACAA: การควบคุมการเข้าถึงแบบระบบปฏิบัติการสำหรับเอเจนต์ AI
- WebAssembly/WASI: แนวทาง sandboxing-by-default สำหรับการประมวลผลที่ปลอดภัย
![]() |
---|
การแสดงภาพทางศิลปะของความท้าทายที่ซับซ้อนในการรักษาความปลอดภัยของเทคโนโลยี AI โดยเน้นความซับซ้อนของการจัดการกระบวนการที่ไม่น่าเชื่อถือ |
ความเป็นจริงของอุตสาหกรรมเทียบกับทฤษฎีทางวิชาการ
ความแตกแยกที่น่าสังเกตได้เกิดขึ้นระหว่างผลประโยชน์เชิงทฤษฎีของข้อเสนอและความท้าทายในการนำไปใช้จริง นักพัฒนาบางคนสังเกตว่าการปรับใช้ AI เชิงพาณิชย์ขั้นสูงได้รวมคุณสมบัติที่เสนอมาหลายอย่างไว้แล้ว รวมถึงการแยกและการควบคุมการอนุญาต อย่างไรก็ตาม พวกเขาเน้นว่าความยากลำบากที่แท้จริงไม่ได้อยู่ที่การควบคุมโมเดล AI เอง แต่อยู่ที่การให้สิทธิ์เข้าถึงทรัพยากรที่ละเอียดอ่อนอย่างเหมาะสมในขณะที่รักษาความปลอดภัย
โมเดลที่เหมาะสมสำหรับความปลอดภัยของ LLM คือ untrusted userspace ไม่ใช่ 'OS' ทั้งหมด
การอภิปรายยังเผยให้เห็นความสงสัยเกี่ยวกับการปฏิบัติต่อโมเดล AI เป็นแพลตฟอร์มคอมพิวติ้งสากล นักพัฒนาหลายคนโต้แย้งว่าแนวทางการเขียนโปรแกรมแบบดั้งเดิมมักมีประสิทธิภาพเหนือกว่าโซลูชัน AI ในแง่ของความเร็ว ความแม่นยำ และความคุ้มค่าสำหรับงานเฉพาะ
บทสรุป
แม้ว่าข้อเสนอ AI Model Virtual Machine จะแก้ไขความกังวลที่ถูกต้องเกี่ยวกับการสร้างมาตรฐานและความปลอดภัยในแอปพลิเคชัน AI แต่ชุมชนนักพัฒนายังคงแบ่งแยกเกี่ยวกับเส้นทางที่ดีที่สุดในการก้าวไปข้างหน้า การถกเถียงสะท้อนให้เห็นคำถามที่กว้างขึ้นเกี่ยวกับวิธีการรวมความสามารถของ AI เข้ากับระบบนิเวศซอฟต์แวร์ที่มีอยู่อย่างปลอดภัยโดยไม่ต้องออกแบบโซลูชันที่ซับซ้อนเกินไปหรือสร้างความซับซ้อนที่ไม่จำเป็น ในขณะที่แอปพลิเคชัน AI ยังคงพัฒนาต่อไป การหาสมดุลที่เหมาะสมระหว่างนวัตกรรมและแนวปฏิบัติด้านความปลอดภัยที่ได้รับการพิสูจน์แล้วน่าจะยังคงเป็นความท้าทายหลักสำหรับอุตสาหกรรมต่อไป
อ้างอิง: AI Models Need a Virtual Machine