การนำแนวคิด Code Mode ของ Cloudflare มาใช้งานแบบใหม่กำลังได้รับความสนใจในชุมชนนักพัฒนา โดยเสนอแนวทางทางเลือกในการที่ระบบ AI โต้ตอบกับเครื่องมือและบริการต่างๆ แทนที่จะต้องดิ้นรนกับการเรียกใช้เครื่องมือโดยตรงหลายครั้ง ระบบนี้ให้เครื่องมือเดียวแก่โมเดลภาษาขนาดใหญ่ (LLMs) ที่ช่วยให้พวกมันเขียนโค้ด TypeScript หรือ JavaScript เพื่อทำงานที่ซับซ้อนให้สำเร็จ
Code Mode MCP Server แสดงถึงการเปลี่ยนแปลงในการคิดเกี่ยวกับความสามารถของ AI แทนที่จะบังคับให้ AI ทำการเรียกใช้เครื่องมือแต่ละตัวผ่านอินเทอร์เฟซแบบดั้งเดิม มันจึงให้เครื่องมือหลักหนึ่งตัวที่เรียกว่า execute_code
ที่ทำงานในสภาพแวดล้อมแบบ sandbox AI จะเขียนโค้ดที่ส่งคำขอ HTTP เพื่อเข้าถึงเซิร์ฟเวอร์ MCP (Model Context Protocol) ต่างๆ ผ่านระบบ proxy
คุณสมบัติด้านความปลอดภัย:
- แซนด์บ็อกซ์ Deno ที่มีการเข้าถึงเครือข่ายเท่านั้น
- ไม่มีการเข้าถึงระบบไฟล์ สภาพแวดล้อม หรือระบบ
- หมดเวลาการทำงานใน 30 วินาที
- การเข้าถึงเซิร์ฟเวอร์ MCP ที่ควบคุมผ่านพร็อกซี
- การล้างไฟล์ชั่วคราวอัตโนมัติ
ชุมชนเห็นศักยภาพในแนวทางที่เน้นโค้ด
นักพัฒนากำลังพูดคุยกันว่าแนวทางนี้จะแก้ไขข้อจำกัดที่แท้จริงในการใช้เครื่องมือ AI ปัจจุบันหรือไม่ การสนทนาในชุมชนเผยให้เห็นว่ากลยุทธ์ต่างๆ กำลังเกิดขึ้นเพื่อทำงานร่วมกับจุดแข็งของ AI แทนที่จะต่อต้านมัน นักพัฒนาบางคนกำลังสร้างเครื่องมือของตนตามแบบ API ที่ใช้กันทั่วไปซึ่งระบบ AI ได้รับการฝึกอบรมอย่างกว้างขวาง โดยใช้รูปแบบที่คุ้นเคยเช่น glob tools สำหรับการค้นพบโครงสร้างและฟังก์ชันการค้นหา
การพูดคุยนี้เน้นข้อสังเกตที่น่าสนใจเกี่ยวกับระบบนิเวศ - การนำไปใช้งานเฉพาะนี้ใช้ JavaScript runtime หลักทั้งสามตัว: Bun สำหรับโค้ดหลัก, Deno สำหรับ sandboxing และ Node สำหรับรันเซิร์ฟเวอร์ MCP การเลือกนี้สะท้อนสถานะที่แยกส่วนในปัจจุบันของระบบนิเวศ JavaScript
ความต้องการของระบบ:
- Bun (เวอร์ชันล่าสุด)
- Deno (สำหรับ sandbox การรันโค้ด)
- ไคลเอนต์ที่รองรับ MCP ( Claude Desktop , Cursor , VS Code with Copilot )
ประโยชน์ของการนำไปใช้ทางเทคนิคและเวิร์กโฟลว์
ระบบทำงานโดยการเริ่ม HTTP proxy บน localhost ที่ส่งต่อคำขอไปยังเซิร์ฟเวอร์ MCP ที่แท้จริง เมื่อ AI ต้องการทำงาน มันจะเขียนโค้ดโดยใช้การเรียก fetch()
มาตรฐานแทนที่จะเรียนรู้ไวยากรณ์เครื่องมือเฉพาะ โค้ดนี้สามารถเชื่อมโยงการดำเนินการหลายอย่างได้อย่างเป็นธรรมชาติ ประมวลผลข้อมูลระหว่างการเรียก และจัดการเวิร์กโฟลว์ที่ซับซ้อนในการดำเนินการครั้งเดียว
สมาชิกในชุมชนตื่นเต้นเป็นพิเศษกับศักยภาพของระบบ AI ในการสร้างและใช้ไลบรารีโค้ดซ้ำเมื่อเวลาผ่านไป นักพัฒนาคนหนึ่งกล่าวถึงการนำระบบหน่วยความจำมาใช้ที่ช่วยให้ AI จัดเก็บโค้ดสำเร็จรูปและเวิร์กโฟลว์ที่มีประโยชน์ สร้างคลังข้อมูลรูปแบบการทำงานอัตโนมัติที่เติบโต
ต่อไปฉันอยากดูว่าจะเกิดอะไรขึ้นถ้าคุณให้ LLM มี repo สำหรับจัดเก็บโค้ดสำเร็จรูปและฟังก์ชันที่มีประโยชน์พร้อมคอมเมนต์เพื่อใช้ในภายหลัง ดังนั้น LLM เองจะบันทึกเวิร์กโฟลว์ สามารถนำเข้าไปยังสภาพแวดล้อม Deno และเชื่อมโยงสิ่งเหล่านั้นเข้าด้วยกัน
Proxy Endpoints ที่พร้อมใช้งาน:
GET /mcpservers
- แสดงรายการ MCP servers ที่พร้อมใช้งานGET /mcp/[server]/tools
- แสดงรายการเครื่องมือสำหรับเซิร์ฟเวอร์ที่ระบุPOST /mcp/call
- เรียกใช้เครื่องมือด้วย JSON body: {server, tool, args}
ข้อพิจารณาด้านความปลอดภัยและการปฏิบัติ
การนำไปใช้งานรวมมาตรการความปลอดภัยหลายอย่างเพื่อแก้ไขข้อกังวลเกี่ยวกับการดำเนินการโค้ด ระบบรันโค้ดใน Deno sandbox ที่มีการเข้าถึงเครือข่ายเท่านั้น ป้องกันการเข้าถึงระบบไฟล์หรือระบบ มันรวมการหมดเวลาการดำเนินการ 30 วินาทีและการทำความสะอาดไฟล์ชั่วคราวอัตโนมัติ
อย่างไรก็ตาม สมาชิกในชุมชนบางคนแสดงความสงสัยเกี่ยวกับแนวทางนี้ นักวิจารณ์โต้แย้งว่าการเพิ่มชั้นการสร้างโค้ดทำให้เกิดความซับซ้อนที่ไม่จำเป็นเมื่อการเรียกใช้เครื่องมือได้รับการออกแบบมาให้เรียบง่ายโดยเจตนา นอกจากนี้ยังมีข้อกังวลในวงกว้างเกี่ยวกับการพึ่งพาผู้ให้บริการโครงสร้างพื้นฐานและศักยภาพของการติดอยู่กับผู้ขาย
การถกเถียงสะท้อนคำถามที่ใหญ่กว่าในการพัฒนา AI: ว่าจะปรับเครื่องมือให้ทำงานได้ดีขึ้นกับข้อจำกัดปัจจุบันของ AI หรือปรับปรุงระบบ AI ให้ทำงานได้ดีขึ้นกับอินเทอร์เฟซเครื่องมือที่มีอยู่ เมื่อความสามารถของ AI ยังคงพัฒนาต่อไป ทั้งสองแนวทางอาจมีที่ยืนในสถานการณ์ที่แตกต่างกัน
Code Mode MCP Server มีให้ใช้งานเป็นโปรเจกต์โอเพนซอร์ส ช่วยให้นักพัฒนาทดลองกับแนวทางนี้และมีส่วนร่วมในการพูดคุยที่กำลังดำเนินอยู่เกี่ยวกับรูปแบบการโต้ตอบ AI-เครื่องมือที่เหมาะสมที่สุด
อ้างอิง: Code Mode MCP Server