Octofriend ผู้ช่วยเขียนโค้ดแบบ terminal ตัวใหม่ที่สัญญาว่าจะทำงานได้กับ LLM API ที่เข้ากันได้กับ OpenAI หรือ Anthropic ได้เปิดตัวพร้อมฟีเจอร์ที่ทะเยอทะยาน แต่กำลังประสบปัญหาด้านการใช้งานหลายประการในการเปิดตัวครั้งแรก เครื่องมือนี้ช่วยให้นักพัฒนาสามารถสลับระหว่างโมเดล AI ต่างๆ ได้ระหว่างการสนทนา และรวมถึงโมเดล autofix ที่ได้รับการฝึกฝนเฉพาะสำหรับจัดการข้อผิดพลาดในการเขียนโค้ด
โมเดลและ API ที่รองรับ
- เข้ากันได้กับ: API ที่เข้ากันได้กับ OpenAI, API ของ Anthropic, LLM ในเครื่อง
- โมเดลที่แนะนำ: GPT-5, Claude 4, GLM-4.5, Kimi K2
- คำแนะนำโมเดลในเครื่อง: gpt-oss-120b, zai-org/GLM-4.5, qwen3-coder-30b
- โมเดล autofix แบบกำหนดเอง: syntheticlab/diff-apply, syntheticlab/fix-json
![]() |
---|
ผู้ช่วยเขียนโค้ด Octofriend เป็นเครื่องมือที่น่าสนใจแต่ยังอยู่ในช่วงเริ่มต้น เหมือนกับสิ่งมีชีวิตที่มันคล้าย—เต็มไปด้วยศักยภาพแต่ยังพบปัญหาต่างๆ |
ปัญหาการจัดการข้อผิดพลาดและส่วนติดต่อผู้ใช้
ผู้ใช้ในช่วงแรกรายงานปัญหาสำคัญเกี่ยวกับระบบจัดการข้อผิดพลาดของ Octofriend เครื่องมือนี้ปัจจุบันแสดงข้อความข้อผิดพลาด JSON แบบดิบในคอนโซลแทนที่จะให้คำอธิบายที่เป็นมิตรกับผู้ใช้ สิ่งนี้ทำให้ผู้ช่วยพยายามทำงานที่ล้มเหลวซ้ำแล้วซ้ำเล่า แม้ว่าข้อผิดพลาดจะแสดงให้เห็นอย่างชัดเจนว่าต้องใช้วิธีการที่แตกต่างออกไป ปุ่ม ESC ซึ่งควรจะขัดจังหวะการทำงานที่กำลังดำเนินอยู่ ได้พิสูจน์แล้วว่าไม่น่าเชื่อถือ และฟีเจอร์การนำทางพื้นฐานเช่นการเรียกดูประวัติด้วยปุ่มลูกศรก็หายไป
มันแค่แสดงข้อผิดพลาด JSON ในคอนโซล และไม่ได้อ่านและเข้าใจมัน จึงพยายามซ้ำต่อไปแม้ว่าจะเป็นสิ่งที่ชัดเจนว่าต้องเปลี่ยนแปลง
นักพัฒนาได้รับทราบข้อกังวลเหล่านี้และสัญญาว่าจะส่งมอบการปรับปรุงอย่างรวดเร็ว แสดงให้เห็นการตอบสนองต่อความคิดเห็นของชุมชน
ปัญหาที่ทราบในปัจจุบัน
- การจัดการข้อผิดพลาดที่ไม่ดี (แสดง JSON แบบดิบแทนที่จะเป็นข้อความที่เป็นมิตรต่อผู้ใช้)
- ปุ่ม ESC ไม่เชื่อถือได้สำหรับการขัดจังหวะการดำเนินงาน
- ขาดการนำทางด้วยปุ่มลูกศรสำหรับประวัติคำสั่ง
- ลองใหม่กับการดำเนินงานที่ล้มเหลวแม้ว่าข้อผิดพลาดจะบ่งชี้ว่าต้องการวิธีการที่แตกต่างกัน
ความสามารถในการรวม LLM ในเครื่อง
แม้จะมีข้อผิดพลาด Octofriend ก็เสนอฟีเจอร์ที่น่าสนใจสำหรับนักพัฒนาที่ต้องการใช้โมเดล AI ในเครื่อง เครื่องมือนี้รองรับการกำหนดค่า LLM แบบกำหนดเองผ่านการตั้งค่า localhost ทำให้น่าสนใจสำหรับผู้ใช้ที่มีฮาร์ดแวร์ที่มีประสิทธิภาพสูงและต้องการรักษาความเป็นส่วนตัวของโค้ด ผู้ใช้ที่มีระบบหน่วยความจำสูง เช่น MacBook Pro ที่มี RAM 128GB สามารถรันโมเดลในเครื่องขนาดใหญ่ได้ เช่น gpt-oss-120b หรือ qwen3-coder-30b
โมเดล autofix ซึ่งช่วยจัดการการประยุกต์ใช้ diff และข้อผิดพลาดการจัดรูปแบบ JSON นั้นอิงจาก Llama 3.1 8B Instruct LoRAs และสามารถรันในเครื่องได้เช่นกัน โมเดลเหล่านี้ทำงานกับ LLM การเขียนโค้ดใดๆ และเป็นโอเพนซอร์สอย่างสมบูรณ์ รวมถึงไปป์ไลน์การฝึกฝนของพวกมัน
การเปรียบเทียบกับเครื่องมือที่มีอยู่
Octofriend วางตำแหน่งตัวเองให้คล้ายกับ Claude Code แต่มีการรองรับหลายโมเดลที่ได้รับการปรับปรุงและการจัดการ thinking tokens ที่ดีกว่าจากโมเดลขั้นสูงเช่น GPT-5 และ Claude 4 จุดขายหลักของเครื่องมือรวมถึงการสลับโมเดลที่ง่าย การรองรับ LLM ในเครื่อง และการไม่มีการส่งข้อมูลการใช้งานสำหรับนักพัฒนาที่ใส่ใจความเป็นส่วนตัว
โปรเจกต์นี้รักษาโครงสร้าง dependency ที่ค่อนข้างสะอาดด้วย direct dependencies เพียง 16 ตัว แม้ว่าระบบนิเวศ Node.js จะส่งผลให้มี transitive dependencies จำนวนมาก ทีมพัฒนายังได้รวมการรองรับเซิร์ฟเวอร์ MCP (Model Context Protocol) สำหรับเชื่อมต่อกับแหล่งข้อมูลภายนอก
การติดตั้งและการตั้งค่า
- การติดตั้ง:
npm install --global octofriend
- การรัน:
octofriend
หรือoctofriend-unchained
(ข้ามการยืนยัน) - ตำแหน่งไฟล์ config:
~/.config/octofriend/octofriend.json5
- ไฟล์กฎ: OCTO.md, CLAUDE.md, หรือ AGENTS.md
บทสรุป
แม้ว่า Octofriend จะแสดงให้เห็นถึงศักยภาพในฐานะผู้ช่วยเขียนโค้ด multi-LLM ที่มีฟีเจอร์ความเป็นส่วนตัวที่แข็งแกร่งและการรองรับโมเดลในเครื่อง แต่ข้อผิดพลาดปัจจุบันส่งผลกระทบอย่างมีนัยสำคัญต่อประสบการณ์ผู้ใช้ การตอบสนองอย่างรวดเร็วของนักพัฒนาต่อความคิดเห็นชี้ให้เห็นว่าปัญหาเหล่านี้อาจได้รับการแก้ไขเร็วๆ นี้ แต่ผู้ใช้ที่มีศักยภาพอาจต้องรอการปรับปรุงเสถียรภาพก่อนที่จะนำเครื่องมือนี้มาใช้สำหรับงานพัฒนาที่สำคัญ
อ้างอิง: octofriend