โปรเจกต์ใหม่ที่เรียกว่า SSH AI Chat ได้เกิดขึ้น โดยเสนอวิธีการที่เป็นเอกลักษณ์สำหรับนักพัฒนาในการโต้ตอบกับโมเดลภาษาขนาดใหญ่ผ่านการเชื่อมต่อ SSH เครื่องมือนี้สร้างอินเทอร์เฟซแชทแบบเทอร์มินัลที่เชื่อมต่อกับโมเดล AI หลากหลาย รวมถึง DeepSeek-V3, Gemini-2.5-Flash และ LLM ยอดนิยมอื่นๆ
สิ่งที่ทำให้โปรเจกต์นี้น่าสนใจเป็นพิเศษคือแนวทางทางเทคนิค แทนที่จะสร้างอินเทอร์เฟซบรรทัดคำสั่งแบบดั้งเดิม นักพัฒนาเลือกใช้ React กับ Ink ซึ่งเป็นเฟรมเวิร์กที่เรนเดอร์คอมโพเนนต์ React ในสภาพแวดล้อมเทอร์มินัล การตัดสินใจนี้ได้จุดประกายการอภิปรายในชุมชนนักพัฒนาเกี่ยวกับแนวทางสมัยใหม่ในการพัฒนา CLI
โมเดล AI ที่รองรับ:
- DeepSeek-V3
- DeepSeek-R1 (โมเดลการใช้เหตุผล)
- Gemini-2.5-Flash
- Gemini-2.5-Pro
- Qwen3-8B (การใช้เหตุผลของระบบ)
![]() |
---|
ภาพหน้าจอของหน้า repository GitHub สำหรับโปรเจกต์ SSH AI Chat แสดงโครงสร้างและทรัพยากรที่มีให้สำหรับนักพัฒนา |
เทคสแต็กที่ไม่ธรรมดาดึงดูดความสนใจ
สถาปัตยกรรมของโปรเจกต์รวมเทคโนโลยีหลายอย่างในแนวทางที่ไม่คาดคิด ใช้ Node.js และ SSH2 สำหรับแบ็กเอนด์, React และ Ink สำหรับส่วนติดต่อผู้ใช้ และ PostgreSQL กับ Redis สำหรับการจัดเก็บข้อมูล การเลือกใช้ React สำหรับแอปพลิเคชันเทอร์มินัลแสดงถึงแนวโน้มที่เพิ่มขึ้นของการนำรูปแบบการพัฒนาเว็บมาใช้กับเครื่องมือบรรทัดคำสั่ง
สมาชิกในชุมชนได้สังเกตทั้งความแปลกใหม่และความปrakticalของแนวทางนี้ ในขณะที่นักพัฒนาบางคนแสดงความประหลาดใจที่เห็นไฟล์ TSX ในโปรเจกต์ CLI แต่คนอื่นๆ ชื่นชมว่ามันทำให้การพัฒนาอินเทอร์เฟซสำหรับแอปพลิเคชันเทอร์มินัลที่ซับซ้อนง่ายขึ้น
องค์ประกอบของ Tech Stack:
- Backend: Node.js + SSH2
- UI Framework: React + Ink
- Database: PostgreSQL + Redis
- Deployment: Docker (แนะนำ)
- Authentication: ตามชื่อผู้ใช้ GitHub
การรวม API แทนการ Inference ในเครื่อง
ต่างจากเครื่องมือแชท AI บางตัวที่รันโมเดลในเครื่อง SSH AI Chat ทำงานเป็น wrapper รอบๆ บริการ API ที่มีอยู่ ระบบเชื่อมต่อกับผู้ให้บริการ LLM หลากหลายผ่าน API ที่เข้ากันได้กับ OpenAI ทำให้มีน้ำหนักเบาแต่ต้องพึ่พาบริการภายนอก การออกแบบแบบนี้หมายความว่าผู้ใช้ไม่ต้องการฮาร์ดแวร์ที่ทรงพลังในการรันอินเทอร์เฟซแชท แต่ต้องมีการเข้าถึง API ของโมเดลที่รองรับ
การกำหนดค่ารองรับโมเดลหลายประเภท รวมถึงโมเดลการใช้เหตุผลที่ใช้แท็กการคิดพิเศษเพื่อแสดงกระบวนการแก้ปัญหา คุณสมบัตินี้ตอบสนองผู้ใช้ที่ต้องการเข้าใจว่าโมเดล AI เข้าหาคำถามที่ซับซ้อนอย่างไร
การพิจารณาการปรับใช้และการเข้าถึง
โปรเจกต์เสนอการปรับใช้แบบ Docker พร้อมตัวเลือกการกำหนดค่าที่ละเอียดสำหรับการจำกัดอัตรา, รายชื่อผู้ใช้ที่อนุญาต และการเลือกโมเดล ผู้ใช้สามารถตั้งค่าอินสแตนซ์แบบสาธารณะหรือส่วนตัว โดยการยืนยันตัวตนด้วยชื่อผู้ใช้ GitHub ให้กลไกการควบคุมการเข้าถึงที่เรียบง่าย
ฉันอยากจะ apt-get install อะไรสักอย่าง แต่ดูเหมือนว่าจะเป็นไปไม่ได้ในยุคสมัยใหม่ของการแจกจ่ายซอฟต์แวร์ โดยเฉพาะกับสิ่งที่ต้องพึ่งพา GPU เช่น LLM
ความรู้สึกนี้สะท้อนความหงุดหงิดที่กว้างขึ้นเกี่ยวกับความซับซ้อนของการปรับใช้ซอฟต์แวร์สมัยใหม่ แม้ว่าแนวทาง Docker ของ SSH AI Chat จะทำให้กระบวนการติดตั้งง่ายขึ้นเมื่อเปรียบเทียบกับเครื่องมือ AI หลายตัว
ตัวเลือกการกำหนดค่า:
- การจำกัดอัตรา (TTL และขอบเขตการร้องขอ)
- รองรับรายชื่อผู้ใช้ที่ถูกบล็อก/อนุญาต
- คำสั่งระบบที่กำหนดเอง
- การกำหนดค่า API หลายโมเดล
- โหมดเซิร์ฟเวอร์สาธารณะ/ส่วนตัว
การตอบสนองของชุมชนและการพัฒนาในอนาคต
ผู้ใช้ในช่วงแรกได้ให้ข้อเสนอแนะเชิงบวกเกี่ยวกับอินเทอร์เฟซ แม้ว่าบางคนจะแนะนำการปรับปรุงการรับรู้ตนเองของ AI และการเพิ่มประสิทธิภาพของพรอมต์ ผู้เขียนโปรเจกต์ได้มีส่วนร่วมอย่างแข็งขันกับข้อเสนอแนะของชุมชนและต้อนรับการมีส่วนร่วมจากนักพัฒนาคนอื่นๆ
เครื่องมือนี้แสดงถึงจุดตัดที่น่าสนใจระหว่างอินเทอร์เฟซเทอร์มินัลแบบดั้งเดิมและความสามารถ AI สมัยใหม่ โดยเสนอสภาพแวดล้อมที่คุ้นเคยสำหรับนักพัฒนาในการโต้ตอบกับ AI ในขณะที่ใช้ประโยชน์จากเฟรมเวิร์กการพัฒนาเว็บร่วมสมัย
อ้างอิง: SSH AI Chat