SSH AI Chat นำเสนออินเทอร์เฟซเทอร์มินัลแบบ React สำหรับการสนทนากับ LLM

BigGo Editorial Team
SSH AI Chat นำเสนออินเทอร์เฟซเทอร์มินัลแบบ React สำหรับการสนทนากับ LLM

โปรเจกต์ใหม่ที่เรียกว่า SSH AI Chat ได้เกิดขึ้น โดยเสนอวิธีการที่เป็นเอกลักษณ์สำหรับนักพัฒนาในการโต้ตอบกับโมเดลภาษาขนาดใหญ่ผ่านการเชื่อมต่อ SSH เครื่องมือนี้สร้างอินเทอร์เฟซแชทแบบเทอร์มินัลที่เชื่อมต่อกับโมเดล AI หลากหลาย รวมถึง DeepSeek-V3, Gemini-2.5-Flash และ LLM ยอดนิยมอื่นๆ

สิ่งที่ทำให้โปรเจกต์นี้น่าสนใจเป็นพิเศษคือแนวทางทางเทคนิค แทนที่จะสร้างอินเทอร์เฟซบรรทัดคำสั่งแบบดั้งเดิม นักพัฒนาเลือกใช้ React กับ Ink ซึ่งเป็นเฟรมเวิร์กที่เรนเดอร์คอมโพเนนต์ React ในสภาพแวดล้อมเทอร์มินัล การตัดสินใจนี้ได้จุดประกายการอภิปรายในชุมชนนักพัฒนาเกี่ยวกับแนวทางสมัยใหม่ในการพัฒนา CLI

โมเดล AI ที่รองรับ:

  • DeepSeek-V3
  • DeepSeek-R1 (โมเดลการใช้เหตุผล)
  • Gemini-2.5-Flash
  • Gemini-2.5-Pro
  • Qwen3-8B (การใช้เหตุผลของระบบ)
ภาพหน้าจอของหน้า repository GitHub สำหรับโปรเจกต์ SSH AI Chat แสดงโครงสร้างและทรัพยากรที่มีให้สำหรับนักพัฒนา
ภาพหน้าจอของหน้า repository GitHub สำหรับโปรเจกต์ SSH AI Chat แสดงโครงสร้างและทรัพยากรที่มีให้สำหรับนักพัฒนา

เทคสแต็กที่ไม่ธรรมดาดึงดูดความสนใจ

สถาปัตยกรรมของโปรเจกต์รวมเทคโนโลยีหลายอย่างในแนวทางที่ไม่คาดคิด ใช้ Node.js และ SSH2 สำหรับแบ็กเอนด์, React และ Ink สำหรับส่วนติดต่อผู้ใช้ และ PostgreSQL กับ Redis สำหรับการจัดเก็บข้อมูล การเลือกใช้ React สำหรับแอปพลิเคชันเทอร์มินัลแสดงถึงแนวโน้มที่เพิ่มขึ้นของการนำรูปแบบการพัฒนาเว็บมาใช้กับเครื่องมือบรรทัดคำสั่ง

สมาชิกในชุมชนได้สังเกตทั้งความแปลกใหม่และความปrakticalของแนวทางนี้ ในขณะที่นักพัฒนาบางคนแสดงความประหลาดใจที่เห็นไฟล์ TSX ในโปรเจกต์ CLI แต่คนอื่นๆ ชื่นชมว่ามันทำให้การพัฒนาอินเทอร์เฟซสำหรับแอปพลิเคชันเทอร์มินัลที่ซับซ้อนง่ายขึ้น

องค์ประกอบของ Tech Stack:

  • Backend: Node.js + SSH2
  • UI Framework: React + Ink
  • Database: PostgreSQL + Redis
  • Deployment: Docker (แนะนำ)
  • Authentication: ตามชื่อผู้ใช้ GitHub

การรวม API แทนการ Inference ในเครื่อง

ต่างจากเครื่องมือแชท AI บางตัวที่รันโมเดลในเครื่อง SSH AI Chat ทำงานเป็น wrapper รอบๆ บริการ API ที่มีอยู่ ระบบเชื่อมต่อกับผู้ให้บริการ LLM หลากหลายผ่าน API ที่เข้ากันได้กับ OpenAI ทำให้มีน้ำหนักเบาแต่ต้องพึ่พาบริการภายนอก การออกแบบแบบนี้หมายความว่าผู้ใช้ไม่ต้องการฮาร์ดแวร์ที่ทรงพลังในการรันอินเทอร์เฟซแชท แต่ต้องมีการเข้าถึง API ของโมเดลที่รองรับ

การกำหนดค่ารองรับโมเดลหลายประเภท รวมถึงโมเดลการใช้เหตุผลที่ใช้แท็กการคิดพิเศษเพื่อแสดงกระบวนการแก้ปัญหา คุณสมบัตินี้ตอบสนองผู้ใช้ที่ต้องการเข้าใจว่าโมเดล AI เข้าหาคำถามที่ซับซ้อนอย่างไร

การพิจารณาการปรับใช้และการเข้าถึง

โปรเจกต์เสนอการปรับใช้แบบ Docker พร้อมตัวเลือกการกำหนดค่าที่ละเอียดสำหรับการจำกัดอัตรา, รายชื่อผู้ใช้ที่อนุญาต และการเลือกโมเดล ผู้ใช้สามารถตั้งค่าอินสแตนซ์แบบสาธารณะหรือส่วนตัว โดยการยืนยันตัวตนด้วยชื่อผู้ใช้ GitHub ให้กลไกการควบคุมการเข้าถึงที่เรียบง่าย

ฉันอยากจะ apt-get install อะไรสักอย่าง แต่ดูเหมือนว่าจะเป็นไปไม่ได้ในยุคสมัยใหม่ของการแจกจ่ายซอฟต์แวร์ โดยเฉพาะกับสิ่งที่ต้องพึ่งพา GPU เช่น LLM

ความรู้สึกนี้สะท้อนความหงุดหงิดที่กว้างขึ้นเกี่ยวกับความซับซ้อนของการปรับใช้ซอฟต์แวร์สมัยใหม่ แม้ว่าแนวทาง Docker ของ SSH AI Chat จะทำให้กระบวนการติดตั้งง่ายขึ้นเมื่อเปรียบเทียบกับเครื่องมือ AI หลายตัว

ตัวเลือกการกำหนดค่า:

  • การจำกัดอัตรา (TTL และขอบเขตการร้องขอ)
  • รองรับรายชื่อผู้ใช้ที่ถูกบล็อก/อนุญาต
  • คำสั่งระบบที่กำหนดเอง
  • การกำหนดค่า API หลายโมเดล
  • โหมดเซิร์ฟเวอร์สาธารณะ/ส่วนตัว

การตอบสนองของชุมชนและการพัฒนาในอนาคต

ผู้ใช้ในช่วงแรกได้ให้ข้อเสนอแนะเชิงบวกเกี่ยวกับอินเทอร์เฟซ แม้ว่าบางคนจะแนะนำการปรับปรุงการรับรู้ตนเองของ AI และการเพิ่มประสิทธิภาพของพรอมต์ ผู้เขียนโปรเจกต์ได้มีส่วนร่วมอย่างแข็งขันกับข้อเสนอแนะของชุมชนและต้อนรับการมีส่วนร่วมจากนักพัฒนาคนอื่นๆ

เครื่องมือนี้แสดงถึงจุดตัดที่น่าสนใจระหว่างอินเทอร์เฟซเทอร์มินัลแบบดั้งเดิมและความสามารถ AI สมัยใหม่ โดยเสนอสภาพแวดล้อมที่คุ้นเคยสำหรับนักพัฒนาในการโต้ตอบกับ AI ในขณะที่ใช้ประโยชน์จากเฟรมเวิร์กการพัฒนาเว็บร่วมสมัย

อ้างอิง: SSH AI Chat