นักพัฒนาถกเถียงข้อเสนอ Virtual Machine สำหรับโมเดล AI ท่ามกลางความกังวลด้านความปลอดภัยและการแยกชั้นงาน

ทีมชุมชน BigGo
นักพัฒนาถกเถียงข้อเสนอ Virtual Machine สำหรับโมเดล AI ท่ามกลางความกังวลด้านความปลอดภัยและการแยกชั้นงาน

ข้อเสนอใหม่สำหรับการสร้างมาตรฐานอินเทอร์เฟซของโมเดล AI ผ่านแนวทาง virtual machine ได้จุดประกายการถกเถียงอย่างเข้มข้นในหมู่นักพัฒนา โดยหลายคนตั้งคำถามว่าการแยกชั้นงานที่เสนอมานั้นตอบโจทย์ความท้าทายด้านความปลอดภัยที่แท้จริงของแอปพลิเคชัน AI หรือไม่

ข้อเสนอนี้ได้แรงบันดาลใจจากความสำเร็จของ Java Virtual Machine โดยเสนอให้สร้างชั้นอินเทอร์เฟซมาตรฐานระหว่างโมเดล AI และแอปพลิเคชัน Model Virtual Machine นี้จะจัดการการดำเนินงานต่างๆ เช่น การเรียกใช้เครื่องมือ การจัดการบริบท และการควบคุมความปลอดภัย ซึ่งอาจทำให้เกิดแนวทาง เขียนครั้งเดียว ใช้ได้ทุกที่ สำหรับแอปพลิเคชัน AI

การดำเนินงานหลักของ AI Model VM ที่เสนอ:

  • การรับรองมาตรฐาน การโหลด และการยกเลิกการโหลดโมเดล
  • การเรียกใช้โมเดลแบบตระหนักรู้บริบท
  • การแยกวิเคราะห์และตรวจสอบความถูกต้องของผลลัพธ์
  • การรับรองมาตรฐานและการจัดการเครื่องมือ
  • การจัดการหน่วยความจำสำหรับประวัติบริบท
  • การจัดการข้อมูลนำเข้าของผู้ใช้
  • โครงสร้างการควบคุมมาตรฐาน (เงื่อนไข การจัดลำดับ)

ความกังวลด้านความปลอดภัยขึ้นเป็นประเด็นหลัก

ชุมชนนักพัฒนาได้แสดงความกังวลอย่างมากเกี่ยวกับแนวทางด้านความปลอดภัยของข้อเสนอนี้ หลายคนโต้แย้งว่าปัญหาพื้นฐานไม่ใช่การควบคุมว่าโมเดล AI สามารถเข้าถึงเครื่องมือใดได้บ้าง แต่เป็นการจัดการขอบเขตและเจตนาของการกระทำเหล่านั้น ตยอางเช่น ระบบจอง AI อาจต้องการเข้าถึงเว็บไซต์ท่องเที่ยวและเครื่องมือการชำระเงิน แต่ควรถูกจำกัดไม่ให้เลือกเส้นทางที่ไม่สะดวกเพียงเพื่อประหยัดเงิน ในทำนองเดียวกัน ระบบ HR ควรอนุญาตให้ผู้จัดการดูข้อมูลสวัสดิการของพนักงานในขณะที่รักษาการติดตามการตรวจสอบอย่างเข้มงวดและป้องกันการเข้าถึงข้อมูลของพนักงานคนอื่นโดยไม่ได้รับอนุญาต

สิ่งนี้เน้นให้เห็นถึงความแตกต่างที่สำคัญระหว่างการอนุญาตระดับเครื่องมือและการอนุญาตตามบริบท เครื่องมือเดียวกันอาจเหมาะสมในสถานการณ์ต่างๆ ที่มีระดับการเข้าถึงและการกำกับดูแลที่แตกต่างกัน

แนวทางทางเลือกได้รับความนิยม

นักพัฒนาหลายคนได้ชี้ไปที่เทคโนโลยีที่มีอยู่แล้วซึ่งสามารถแก้ไขความท้าทายเหล่านี้ได้อย่างมีประสิทธิภาพมากกว่า WebAssembly ( WASM ) ด้วยความสามารถในการสร้าง sandbox ได้กลายเป็นทางเลือกที่ได้รับความนิยม โดยมีการแยกความปลอดภัยในตัวโดยไม่ต้องใช้โครงสร้างพื้นฐานใหม่ทั้งหมด บางคนเสนอว่า WASI components ให้ฟังก์ชันการทำงานส่วนใหญ่ที่ VM ที่เสนอมานั้นมุ่งหวังจะส่งมอบอยู่แล้ว

คนอื่นๆ สนับสนุนให้ปฏิบัติต่อโมเดล AI เหมือนกับกระบวนการ userspace ที่ไม่น่าเชื่อถือภายในระบบปฏิบัติการที่มีอยู่ แทนที่จะสร้างชั้น virtualization ใหม่ แนวทางนี้จะใช้ประโยชน์จากการวิจัยด้านความปลอดภัยหลายทศวรรษและเทคนิคการแยกที่ได้รับการพิสูจน์แล้ว

เทคโนโลยีและโครงการที่เกี่ยวข้อง:

  • OpenAI Structured Tool Calling: API การเรียกใช้ฟังก์ชันแบบ JSON
  • Anthropic's MCP (2024): โปรโตคอลอินเทอร์เฟซสากลสำหรับผู้ช่วย AI
  • FIDES (Microsoft Research): นโยบายการไหลของข้อมูลสำหรับความปลอดภัยของเอเจนต์
  • ACAA: การควบคุมการเข้าถึงแบบระบบปฏิบัติการสำหรับเอเจนต์ AI
  • WebAssembly/WASI: แนวทาง sandboxing-by-default สำหรับการประมวลผลที่ปลอดภัย
การแสดงภาพทางศิลปะของความท้าทายที่ซับซ้อนในการรักษาความปลอดภัยของเทคโนโลยี AI โดยเน้นความซับซ้อนของการจัดการกระบวนการที่ไม่น่าเชื่อถือ
การแสดงภาพทางศิลปะของความท้าทายที่ซับซ้อนในการรักษาความปลอดภัยของเทคโนโลยี AI โดยเน้นความซับซ้อนของการจัดการกระบวนการที่ไม่น่าเชื่อถือ

ความเป็นจริงของอุตสาหกรรมเทียบกับทฤษฎีทางวิชาการ

ความแตกแยกที่น่าสังเกตได้เกิดขึ้นระหว่างผลประโยชน์เชิงทฤษฎีของข้อเสนอและความท้าทายในการนำไปใช้จริง นักพัฒนาบางคนสังเกตว่าการปรับใช้ AI เชิงพาณิชย์ขั้นสูงได้รวมคุณสมบัติที่เสนอมาหลายอย่างไว้แล้ว รวมถึงการแยกและการควบคุมการอนุญาต อย่างไรก็ตาม พวกเขาเน้นว่าความยากลำบากที่แท้จริงไม่ได้อยู่ที่การควบคุมโมเดล AI เอง แต่อยู่ที่การให้สิทธิ์เข้าถึงทรัพยากรที่ละเอียดอ่อนอย่างเหมาะสมในขณะที่รักษาความปลอดภัย

โมเดลที่เหมาะสมสำหรับความปลอดภัยของ LLM คือ untrusted userspace ไม่ใช่ 'OS' ทั้งหมด

การอภิปรายยังเผยให้เห็นความสงสัยเกี่ยวกับการปฏิบัติต่อโมเดล AI เป็นแพลตฟอร์มคอมพิวติ้งสากล นักพัฒนาหลายคนโต้แย้งว่าแนวทางการเขียนโปรแกรมแบบดั้งเดิมมักมีประสิทธิภาพเหนือกว่าโซลูชัน AI ในแง่ของความเร็ว ความแม่นยำ และความคุ้มค่าสำหรับงานเฉพาะ

บทสรุป

แม้ว่าข้อเสนอ AI Model Virtual Machine จะแก้ไขความกังวลที่ถูกต้องเกี่ยวกับการสร้างมาตรฐานและความปลอดภัยในแอปพลิเคชัน AI แต่ชุมชนนักพัฒนายังคงแบ่งแยกเกี่ยวกับเส้นทางที่ดีที่สุดในการก้าวไปข้างหน้า การถกเถียงสะท้อนให้เห็นคำถามที่กว้างขึ้นเกี่ยวกับวิธีการรวมความสามารถของ AI เข้ากับระบบนิเวศซอฟต์แวร์ที่มีอยู่อย่างปลอดภัยโดยไม่ต้องออกแบบโซลูชันที่ซับซ้อนเกินไปหรือสร้างความซับซ้อนที่ไม่จำเป็น ในขณะที่แอปพลิเคชัน AI ยังคงพัฒนาต่อไป การหาสมดุลที่เหมาะสมระหว่างนวัตกรรมและแนวปฏิบัติด้านความปลอดภัยที่ได้รับการพิสูจน์แล้วน่าจะยังคงเป็นความท้าทายหลักสำหรับอุตสาหกรรมต่อไป

อ้างอิง: AI Models Need a Virtual Machine