การเปิดตัวของ C.O.R.E. (Contextual Observation & Recall Engine) ซึ่งเป็นระบบหน่วยความจำใหม่สำหรับโมเดลภาษาขนาดใหญ่ ได้จุดประกายการอภิปรายอย่างคึกคักในชุมชนนักพัฒนาเกี่ยวกับแนวทางที่ดีที่สุดในการจัดการหน่วยความจำของ AI ระบบนี้สัญญาว่าจะให้ผู้ใช้เป็นเจ้าของหน่วยความจำ AI ของตนเองอย่างสมบูรณ์ พร้อมทั้งเปิดใช้งานการแชร์ข้ามเครื่องมือ AI ต่างๆ เช่น Claude และ Cursor ได้อย่างราบรื่น
ตัวเลือกการตั้งค่า C.O.R.E. :
- การตั้งค่าแบบ Cloud : สมัครสมาชิก Core Cloud เพิ่มข้อความลงในกราฟหน่วยความจำ เชื่อมต่อผ่าน MCP กับเครื่องมือต่างๆ เช่น Cursor
- การตั้งค่าแบบ Local : ต้องใช้ Docker และ OpenAI API Key ทำงานบน localhost:3000 พร้อมการยืนยันตัวตนแบบ magic link
- การรวมระบบ API : POST endpoints สำหรับ /ingest และ /search พร้อมการยืนยันตัวตนแบบ Bearer token
ความแตกแยกระหว่าง Knowledge Graph กับไฟล์ข้อความ
การถกเถียงที่เข้มข้นที่สุดมุ่งเน้นไปที่ว่าแนวทาง knowledge graph ที่ซับซ้อนของ C.O.R.E. นั้นให้ข้อได้เปรียบที่แท้จริงเหนือกว่าโซลูชันที่เรียบง่ายกว่าหรือไม่ นักวิจารณ์โต้แย้งว่าไฟล์ข้อความพื้นฐานพร้อม version control อาจมีประสิทธิภาพเท่าเทียมกันสำหรับกรณีการใช้งานส่วนใหญ่ นักพัฒนาคนหนึ่งกล่าวว่าพวกเขาประสบความสำเร็จในการใช้ Markdown + Git + เครื่องมือ UNIX แบบเก่าๆ หลังจากลองแนวทางที่ซับซ้อนกว่า
อย่างไรก็ตาม ผู้สร้าง C.O.R.E. ปกป้องการออกแบบ temporal knowledge graph ของพวกเขา โดยอธิบายว่ามันเป็นเลิศในสถานการณ์ที่ข้อมูลมีการพัฒนาไปตามเวลา พวกเขาชี้ไปยังกรณีการใช้งาน เช่น การติดตามการสนทนาทางการแพทย์ข้ามแพลตฟอร์ม AI หลายแพลตฟอร์ม ซึ่งผู้ใช้ต้องการเข้าใจไม่เพียงแค่ข้อเท็จจริงปัจจุบัน แต่ยังรวมถึงวิธีการและเวลาที่ข้อมูลเปลี่ยนแปลงด้วย
การเปรียบเทียบสถาปัตยกรรมหน่วยความจำ:
- ระบบแบบดั้งเดิม: กระดาษโน้ตแบบคงที่ที่แสดงเฉพาะสถานะปัจจุบันเท่านั้น
- C.O.R.E. : กราฟความรู้เชิงเวลาที่มีประวัติการแถลงการณ์แบบครบถ้วน
- แต่ละการแถลงการณ์ประกอบด้วย: สิ่งที่ถูกกล่าว ใครเป็นคนพูด เกิดขึ้นเมื่อไหร่ และเหตุใดจึงมีความสำคัญ
- ข้อได้เปรียบหลัก: การติดตามและตรวจสอบย้อนหลังได้อย่างครบถ้วนสำหรับการพัฒนาข้อเท็จจริงตามกาลเวลา
ความท้าทายในการทำให้ AI ใช้หน่วยความจำจริงๆ
อุปสรรคทางเทคนิคที่สำคัญเกิดขึ้นในการอภิปราย คือการทำให้ระบบ AI เรียกใช้เครื่องมือหน่วยความจำในช่วงเวลาที่เหมาะสม นักพัฒนาหลายคนแบ่งปันความผิดหวังเกี่ยวกับการใช้งานระบบหน่วยความจำที่ทำงานได้ทางเทคนิค แต่ล้มเหลวเพราะ AI ไม่รู้ว่าเมื่อไหร่ควรเข้าถึงพวกมัน
หนึ่งในความท้าทายที่ฉันเผชิญกับเซิร์ฟเวอร์หน่วยความจำ MCP อื่นๆ คือการทำให้ไคลเอนต์ LLM ใช้มันเพื่อเรียกคืนข้อมูลที่เกี่ยวข้องเมื่อพวกเขาต้องการจริงๆ การใช้งานเครื่องมือ MCP เป็นเรื่องหนึ่ง การทำให้ไคลเอนต์ LLM เรียกใช้ในเวลาที่เหมาะสมเป็นอีกเรื่องหนึ่ง
ทีม C.O.R.E. แก้ไขปัญหานี้โดยการพัฒนาเทคนิค prompt engineering เฉพาะและคำแนะนำระบบที่แนะนำผู้ช่วย AI ว่าเมื่อไหร่และอย่างไรที่จะใช้หน่วยความจำอย่างมีประสิทธิภาพ
ข้อกังวลเรื่องการพึ่งพา Local กับ Cloud
สมาชิกชุมชนแสดงความกังวลเกี่ยวกับการพึ่งพา API ของ OpenAI ในปัจจุบันของ C.O.R.E. แม้ในการตั้งค่าแบบ local การพึ่งพานี้ดูเหมือนจะขัดแย้งกับคำสัญญาของระบบเรื่องความเป็นเจ้าของและการพกพาของผู้ใช้ นักพัฒนายอมรับข้อจำกัดนี้ โดยอธิบายว่าพวกเขาสร้างระบบนี้ขึ้นมาในตอนแรกสำหรับโปรเจกต์ผู้ช่วย AI ของตนเอง และกำลังทำงานเพื่อรองรับโมเดล local เช่น Llama แม้ว่าพวกเขาจะยอมรับว่าผลลัพธ์ปัจจุบันไม่เหมาะสมที่สุด
การเชื่อมโยงกับ Semantic Web
การอภิปรายเอาเรื่องประวัติศาสตร์ที่น่าสนใจมาพูดถึงเมื่อนักพัฒนาสังเกตเห็นความคล้ายคลึงกับขบวนการ semantic web จากหลายทศวรรษที่ผ่านมา ผู้เข้าร่วมไม่พลาดความประชดประชันที่ว่าหลังจากหลายปีที่ LLM ให้ความรู้ทั่วไปโดยไม่มีหน่วยความจำ ชุมชนกำลังกลับมาหา knowledge graph ที่มีโครงสร้างเป็นโซลูชัน
บทสรุป
แม้ว่า C.O.R.E. จะเป็นตัวแทนของความพยายามที่ทะเยอทะยานในการแก้ไขความท้าทายด้านหน่วยความจำของ AI แต่ชุมชนยังคงแตกแยกเกี่ยวกับว่าความซับซ้อนของมันนั้นสมเหตุสมผลหรือไม่ การถกเถียงนี้เน้นย้ำถึงความตึงเครียดพื้นฐานในการพัฒนา AI คือการสร้างสมดุลระหว่างความสามารถที่ซับซ้อนกับความเรียบง่ายในทางปฏิบัติ เมื่อนักพัฒนาจำนวนมากขึ้นทดลองกับแนวทางหน่วยความจำที่แตกต่างกัน โซลูชันที่มีประสิทธิภาพมากที่สุดน่าจะเกิดขึ้นจากการใช้งานในโลกแห่งความจริงมากกว่าข้อได้เปรียบเชิงทฤษฎี
อ้างอิง: C.O.R.E.