ไลบรารี่โอเพนซอร์ส MCP-Use ที่ออกแบบมาเพื่อทำให้การเชื่อมต่อระหว่างโมเดลภาษาขนาดใหญ่และเซิร์ฟเวอร์ Model Context Protocol ( MCP ) ง่ายขึ้น ได้จุดประกายการถกเถียงอย่างเข้มข้นในชุมชนนักพัฒนาเกี่ยวกับความพร้อมสำหรับการใช้งานจริงและความเป็นไปได้ในระดับองค์กร
MCP-Use สัญญาว่าจะทำให้กระบวนการรวม LLM เข้ากับเครื่องมือและบริการต่างๆ ที่ซับซ้อนตามปกติเป็นเรื่องง่าย ไลบรารี่นี้ช่วยให้นักพัฒนาสามารถเขียนโค้ด agent ที่สามารถควบคุมเซิร์ฟเวอร์แอปพลิเคชันโดยไม่ต้องใช้ Kubernetes หรือการตั้งค่าโครงสร้างพื้นฐานที่ซับซ้อน นักพัฒนาหลายคนได้ชื่นชมความง่ายในการใช้งาน โดยมีคนหนึ่งกล่าวถึงการเพิ่มผลิตภาพอย่างมีนัยสำคัญในเวิร์กโฟลว์การแชทที่ใช้งานจริงของพวกเขา
คุณสมบัติหลักของ MCP-Use
- Code-as-Code: ช่วยให้ MCP agents สามารถเขียนและทดสอบได้เหมือนกับโค้ดปกติ
- รองรับ Multi-tenant พร้อมระบบควบคุมการเข้าถึงในตัว
- มาตรฐานการสื่อสารผ่าน HTTP
- การรันโค้ดแบบ Sandbox ผ่าน Docker containers หรือ shell environments
- การเลือก Server แบบไดนามิกเพื่อป้องกันการล้นของ tool context
- การแสดงผลลัพธ์ของ agent แบบ Streaming สำหรับการติดตามแบบเรียลไทม์
- การตรวจจับ Semantic version เพื่อการอัปเกรด agent แบบอิสระ
ความกังวลด้านความปลอดภัยและองค์กรครองการอภิปราย
การถกเถียงที่รุนแรงที่สุดมุ่งเน้นไปที่ความเหมาะสมของไลบรารี่สำหรับการใช้งานในองค์กร นักวิจารณ์ได้ยกความกังวลที่สำคัญเกี่ยวกับความปลอดภัย การสังเกตการณ์ และแนวทางพื้นฐานของการเชื่อมต่อ LLM กับเซิร์ฟเวอร์ MCP จำนวนมาก การพึ่งพา LangChain ก็ได้รับการวิจารณ์เช่นกัน โดยบางคนมองว่าเป็นอุปสรรคต่อการนำไปใช้ในองค์กรอย่างจริงจัง
ความกังวลหลักเกี่ยวข้องกับแนวทางคุณภาพเทียบกับปริมาณ แม้ว่า MCP-Use จะสามารถเชื่อมต่อกับเซิร์ฟเวอร์ MCP หลายพันตัว แต่นักวิจารณ์โต้แย้งว่าเครื่องมือ MCP ที่มีอยู่ส่วนใหญ่ไม่ปลอดภัยและเขียนขึ้นแบบไม่เป็นระบบ พวกเขาเน้นว่าความท้าทายที่แท้จริงไม่ใช่การเชื่อมต่อกับเครื่องมือมากมาย แต่เป็นการทำให้แน่ใจว่า LLM เรียกใช้เครื่องมือที่ถูกต้องได้อย่างแม่นยำ 98% ของเวลาพร้อมพารามิเตอร์ที่ถูกต้อง
บริษัทส่วนใหญ่ที่ใช้ mcp มีโมเดลที่ใช้เครื่องมือหนึ่งหรือสองตัว (สูงสุด) ในแต่ละครั้งและต่อสู้เพื่อให้มันทำงานได้อย่างสม่ำเสมอ การให้เครื่องมือเมตาแก่พวกเขาเพื่อเชื่อมต่อกับเครื่องมือหลายพัน (ส่วนใหญ่ไร้ประโยชน์) ตัวไม่เป็นประโยชน์และจะไม่ได้รับการพิจารณาอย่างจริงจัง
คำถามเรื่อง Sandboxing และความเข้ากันได้ข้ามแพลตฟอร์ม
การอภิปรายทางเทคนิคมุ่งเน้นไปที่ความสามารถ sandboxing ของไลบรารี่เป็นหลัก นักพัฒนากำลังตั้งคำถามว่า sandboxing ทำงานอย่างไรในแพลตฟอร์มต่างๆ และมีตัวเลือกอะไรบ้างสำหรับการแยกระบบไฟล์และเครือข่าย ไลบรารี่รองรับการดำเนินการแบบ sandboxed ผ่าน Docker containers และ shell environments แต่รายละเอียดการใช้งานที่เฉพาะเจาะจงยังไม่ชัดเจนสำหรับผู้ใช้หลายคน
ฟีเจอร์ sandboxing มีเป้าหมายเพื่อให้ความปลอดภัยที่ดีขึ้นโดยการสร้างสภาพแวดล้อมที่ควบคุมได้สำหรับการดำเนินการของ agent ลดความขัดแย้งของการพึ่งพา และปรับปรุงประสิทธิภาพของทรัพยากร อย่างไรก็ตาม ความเข้ากันได้ข้ามแพลตฟอร์มและข้อกำหนดความปลอดภัยโดยละเอียดยังไม่ได้รับการแก้ไขอย่างเต็มที่ในการอภิปรายของชุมชน
ตัวเลือกการติดตั้ง
- Basic TUI CLI พื้นฐาน:
pip install "mcp-use[tui]"
- Task Transfer (Sandboxing):
pip install "mcp-use[tasktransfer]"
- การติดตั้งแบบมาตรฐาน:
pip install mcp-use
การค้นพบเครื่องมืออัจฉริยะแสดงให้เห็นความหวัง
ฟีเจอร์นวัตกรรมหนึ่งที่ได้รับความสนใจในเชิงบวกคือแนวทางของ MCP-Use ในการจัดการกับปัญหาเครื่องมือมากเกินไป ไลบรารี่รวมถึงตัวจัดการเซิร์ฟเวอร์ที่เปิดเผยเพียงสี่เครื่องมือเมตาแทนที่จะทำให้บริบทของ LLM ล้นด้วยเครื่องมือที่มีอยู่ทั้งหมด ซึ่งรวมถึงฟังก์ชันในการแสดงรายการเซิร์ฟเวอร์ เชื่อมต่อกับเซิร์ฟเวอร์เฉพาะ ค้นหาเครื่องมือ และตัดการเชื่อมต่อจากเซิร์ฟเวอร์
ฟังก์ชันการค้นหาทำการค้นหาเชิงความหมายในเครื่องมือทั้งหมดจากเซิร์ฟเวอร์ที่เชื่อมต่อ ช่วยให้ agent หาเครื่องมือที่เกี่ยวข้องโดยไม่มีการปนเปื้อนของบริบท นักพัฒนาได้สาธิตความสามารถนี้โดยการซ่อนเครื่องมือที่มีประโยชน์ในหมู่เครื่องมือที่ไม่เกี่ยวข้องหลายพันตัวได้สำเร็จ โดยที่ agent ยังคงหาและใช้เครื่องมือที่ถูกต้องได้
เครื่องมือ Meta ของ Server Manager
list_servers()
- แสดงเซิร์ฟเวอร์ MCP ที่พร้อมใช้งานconnect_to_server(server_name)
- เชื่อมต่อไปยังเซิร์ฟเวอร์ที่ระบุsearch_tool(query)
- ค้นหาแบบ Semantic ข้ามเครื่องมือทั้งหมดdisconnect_from_server(server_name)
- ตัดการเชื่อมต่อจากเซิร์ฟเวอร์
วิธีการนี้ช่วยป้องกันการท่วมท้นของ context โดยการแสดงเพียง 4 เครื่องมือ meta แทนที่จะแสดงเครื่องมือทั้งหมดจากทุกเซิร์ฟเวอร์พร้อมกัน
ประสบการณ์นักพัฒนาได้รับการรีวิวแบบผสมผสาน
แม้ว่านักพัฒนาบางคนจะรายงานการปรับปรุงผลิตภาพอย่างมีนัยสำคัญและชื่นชมความเรียบง่ายของไลบรารี่เมื่อเปรียบเทียบกับ SDK อย่างเป็นทางการ แต่คนอื่นๆ กลับมองว่ามันเป็นเพียงตัวห่อหุ้มรอบเทคโนโลยีที่มีอยู่เป็นหลัก ไลบรารี่ลดโค้ดทั่วไป 200+ บรรทัดที่ต้องใช้กับ SDK อย่างเป็นทางการให้เหลือการใช้งานที่ง่ายกว่ามาก แต่คำถามยังคงอยู่เกี่ยวกับความยั่งยืนในระยะยาวและการสร้างความแตกต่างทางเทคนิค
ทีมพัฒนาได้ยอมรับข้อเสนอแนะเกี่ยวกับการใช้งาน agent ที่ขัดเกลาน้อยกว่าส่วนประกอบ client และ MCP พวกเขาได้แสดงแผนการพัฒนาระบบ MCP agent ที่สะอาดกว่าและประกอบได้มากกว่า และกำลังทำงานอย่างใกล้ชิดกับบริษัทใหญ่ๆ เพื่อเข้าใจความต้องการขององค์กรให้ดีขึ้น
แม้จะมีความกังวลที่ยกขึ้น MCP-Use แสดงถึงความพยายามที่น่าสนใจในการทำให้การรวม LLM-tool เป็นประชาธิปไตย ว่ามันจะสามารถแก้ไขความท้าทายพื้นฐานของการปรับใช้ในการผลิต ความปลอดภัย และความต้องการขององค์กรได้หรือไม่ น่าจะเป็นตัวกำหนดความสำเร็จในระยะยาวในภูมิทัศน์การพัฒนา AI ที่พัฒนาอย่างรวดเร็ว
อ้างอิง: mcp-use