เอเจนต์เขียนโค้ด Open SWE ที่ LangChain เพิ่งประกาศใหม่ได้จุดประกายการถกเถียงอย่างเข้มข้นในชุมชนนักพัฒนา โดยมีผู้วิจารณ์ตั้งคำถามเกี่ยวกับข้อเรียกร้องด้านโอเพนซอร์สและถกเถียงเกี่ยวกับอนาคตของการพัฒนา AI ในเครื่องเทียบกับแบบคลาวด์
![]() |
---|
แผนผังที่แสดงองค์ประกอบและกระบวนการที่เกี่ยวข้องใน Open SWE โดยเน้นการอภิปรายเกี่ยวกับตัวแทนการเขียนโค้ดในชุมชนนักพัฒนา |
ข้อถกเถียงเรื่องใบอนุญาตสร้างสัญญาณเตือน
ประเด็นที่ถกเถียงกันมากที่สุดมุ่งเน้นไปที่การพึ่งพา Daytona sandboxes ของ Open SWE สำหรับการรันโค้ด สมาชิกชุมชนได้ชี้ให้เห็นว่าแม้ว่า Daytona จะใช้ใบอนุญาต AGPL แต่จริงๆ แล้วไม่ได้เปิดซอร์ส control plane ซึ่งเป็นส่วนประกอบหลักที่จัดการระบบ สิ่งนี้ทำให้เกิดข้อกล่าวหาเรื่องการปฏิบัติโอเพนซอร์สปลอม
การวิจารณ์รุนแรงขึ้นเมื่อตรวจสอบกระบวนการตั้งค่าของ Open SWE ผู้ใช้ต้องใช้เว็บอินเทอร์เฟซที่ LangChain โฮสต์ไว้หรือสมัครบริการของ Daytona เพื่อรันงาน สำหรับนักพัฒนาที่คาดหวังซอฟต์แวร์โอเพนซอร์สแท้จริงที่สามารถรันได้อย่างอิสระ การพึ่งพาบริการภายนอกนี้รู้สึกเหมือนการหลอกลวง
AGPL (Affero General Public License): ใบอนุญาต copyleft ที่กำหนดให้ทุกคนที่รันซอฟต์แวร์บนเซิร์ฟเวอร์ต้องให้ซอร์สโค้ดแก่ผู้ใช้ รวมถึงการแก้ไข
โมเดล AI ในเครื่องท้าทายแนวทางคลาวด์เป็นหลัก
ส่วนสำคัญของการถกเถียงในชุมชนมุ่งเน้นไปที่ความเป็นไปได้ของโมเดล AI ในเครื่องเทียบกับโซลูชันแบบคลาวด์ นักพัฒนาบางคนโต้แย้งว่าความก้าวหน้าล่าสุดในโมเดลขนาดเล็กที่เชี่ยวชาญทำให้ไม่จำเป็นต้องพึ่งพาคลาวด์ พวกเขาชี้ไปที่โมเดลอย่าง Jan-nano-128k ซึ่งเป็นโมเดล 4 พันล้านพารามิเตอร์ที่สามารถรันบนฮาร์ดแวร์ผู้บริโภคในขณะที่ได้ผลลัพธ์ที่น่าประทับใจในเบนช์มาร์กบางตัว
อย่างไรก็ตาม คนอื่นๆ ยังคงยืนยันว่าโมเดลในเครื่องยังคงเผชิญกับข้อจำกัดที่สำคัญ ความต้องการ VRAM ยังคงเป็นคอขวดสำคัญ โดยโมเดลเขียนโค้ดที่มีความสามารถมากที่สุดต้องการหน่วยความจำ 64-96GB แม้จะใช้ quantization แล้ว ช่องว่างด้านคุณภาพระหว่างโมเดลในเครื่องและโมเดลคลาวด์ขั้นสูงอย่าง Claude ยังคงมีนัยสำคัญสำหรับงานเขียนโค้ดที่ซับซ้อน
ฉันสามารถใช้ agentic coding กับโมเดล Qwen3 ใหม่ตัวหนึ่งได้แล้ว - ช้ามาก แต่มันใช้งานได้ในตอนแรก และคุณภาพเทียบเท่าหรือแม้แต่เอาชนะโมเดลคลาวด์และแอป vibe coding บางตัว
Quantization: เทคนิคที่ลดความแม่นยำของ model weights เพื่อลดการใช้หน่วยความจำและเพิ่มความเร็วในการ inference มักจะมีผลกระทบต่อประสิทธิภาพน้อยที่สุด
ตัวอย่างโมเดล AI ท้องถิ่นที่กล่าวถึง:
- Jan-nano-128k: 4B พารามิเตอร์ สามารถทำงานบนฮาร์ดแวร์สำหรับผู้บริโภค
- Qwen3-Coder-480B-A35B-Instruct: โมเดลระดับสูงที่ต้องการ VRAM จำนวนมาก
- DeepSeek-Coder-V2-236B: โมเดลขนาดใหญ่สำหรับงานเขียนโค้ดขั้นสูง
- GPT-OSS-120B: เหมาะสำหรับเครื่องที่มี VRAM 60-96GB พร้อมการ quantization
ชุมชนแสวงหาทางเลือกโอเพนซอร์สแท้จริง
การถกเถียงได้เน้นให้เห็นความต้องการที่ชัดเจนสำหรับเอเจนต์เขียนโค้ดโอเพนซอร์สแท้จริงที่สามารถรันในเครื่องได้โดยไม่ต้องพึ่งพาบริการที่เป็นกรรมสิทธิ์ สมาชิกชุมชนหลายคนได้ชี้ไปที่ทางเลือกที่มีอยู่แล้วอย่าง Aider และ Goose ซึ่งเสนออินเทอร์เฟซบรรทัดคำสั่งและไม่ต้องการการพึ่งพาบริการภายนอก
การถกเถียงเผยให้เห็นความตึงเครียดพื้นฐานในพื้นที่การพัฒนา AI ระหว่างความสะดวกและพลังของโซลูชันแบบคลาวด์กับความเป็นอิสระและความเป็นส่วนตัวของทางเลือกในเครื่อง แม้ว่า Open SWE จะเสนอฟีเจอร์ที่ซับซ้อนอย่างสถาปัตยกรรมหลายเอเจนต์และการผสานรวม GitHub แต่การพึ่งพาบริการภายนอกได้ทำให้นักพัฒนาที่ให้ความสำคัญกับโซลูชันที่โฮสต์เองรู้สึกแปลกแยก
ทางเลือกโอเพนซอร์ส:
- Aider: เอเจนต์เขียนโค้ดแบบ Command-line (https://aider.chat/)
- Goose: เอเจนต์โอเพนซอร์สที่ได้รับการสนับสนุนจากองค์กร (https://block.github.io/goose/)
- OpenCode: เอเจนต์เขียนโค้ดแบบโลคัล (https://opencode.ai/)
บทสรุป
การประกาศ Open SWE ได้จุดประกายการสนทนาที่กว้างขึ้นโดยไม่ตั้งใจเกี่ยวกับสิ่งที่ถือเป็นเครื่องมือ AI โอเพนซอร์สแท้จริง เมื่อโมเดล AI ในเครื่องยังคงพัฒนาและฮาร์ดแวร์เข้าถึงได้มากขึ้น ความคาดหวังของชุมชนสำหรับโซลูชันที่เป็นอิสระและโฮสต์เองได้จริงๆ น่าจะเติบโตขึ้น ความท้าทายสำหรับโปรเจกต์อย่าง Open SWE จะเป็นการสร้างสมดุลระหว่างความมีคุณลักษณะที่หลากหลายกับความปรารถนาของชุมชนสำหรับความเป็นอิสระทางเทคโนโลยี
อ้างอิง: Introducing Open SWE: An Open-Source Asynchronous Coding Agent