ในโลกของปัญญาประดิษฐ์ที่พัฒนาอย่างรวดเร็ว กำลังมีการปฏิวัติอย่างเงียบ ๆ เมื่อนักพัฒนากำลังค้นพบเทคโนโลยีเก่าแก่ที่สุดของเว็บอีกครั้ง นั่นคือไฮเปอร์ลิงก์ตัวเล็กๆ ในขณะที่ระบบ AI ที่ซับซ้อนอย่าง Claude และ Codex กำลังได้รับความสามารถอันทรงพลัง ชุมชนกำลังพบว่าลิงก์เว็บธรรมดาๆ อาจเป็นกุญแจสำคัญในการแก้ปัญหาท้าทายที่ใหญ่ที่สุดข้อหนึ่งของ AI นั่นคือการจัดการบริบทอย่างมีประสิทธิภาพ
ความท้าทายด้านวิศวกรรมบริบท
เมื่อเอเจนต์ AI มีความซับซ้อนมากขึ้น พวกมันต้องเผชิญกับความตึงเครียดพื้นฐาน นั่นคือพวกมันต้องการเข้าถึงข้อมูลปริมาณมหาศาลเพื่อทำงานที่ซับซ้อน แต่การโหลดบริบทมากเกินไปในครั้งเดียวสามารถทำให้โมเดลล้นและทำให้ประสิทธิภาพลดลงได้ ปัญหานี้ซึ่งเรียกว่าวิศวกรรมบริบท ได้ทำให้เกิดโซลูชันต่างๆ มากมาย เช่น Retrieval Augmented Generation (RAG) และเอเจนต์ย่อยเฉพาะทาง อย่างไรก็ตาม ตอนนี้นักพัฒนากำลังตระหนักว่าไฮเปอร์ลิงก์เสนอทางออกที่สง่างามอย่างน่าประหลาดสำหรับปัญหานี้
ความงดงามของลิงก์อยู่ที่ประสิทธิภาพของโทเค็น แทนที่จะโหลดเอกสารทั้งหมดเข้าไปในหน้าต่างบริบทของ AI โมเดลสามารถอ้างอิงลิงก์และดึงข้อมูลเฉพาะเมื่อจำเป็นเท่านั้น แนวทางนี้สะท้อนให้เห็นถึงวิธีที่มนุษย์สำรวจข้อมูลทางออนไลน์ตามธรรมชาติ โดยเราเริ่มจากการค้นหา คลิกลิงก์ที่เกี่ยวข้อง เปิดแท็บใหม่ และอ้างอิงระหว่างแหล่งข้อมูลตามความต้องการ ตอนนี้เอเจนต์ AI กำลังเรียนรู้ที่จะทำเช่นเดียวกัน
Claude Code ใช้ไฮเปอร์ลิงก์โดยตรง โดยเริ่มจากหน้า index ที่เป็น markdown เฉพาะ เมื่อผู้ใช้ถามเกี่ยวกับคุณสมบัติของมัน มันจะใช้เครื่องมือ WebFetch เพื่อรวบรวมข้อมูลจากเอกสารประกอบ Claude Code
แนวทางการจัดการบริบทของ AI ในปัจจุบัน:
- Retrieval Augmented Generation (RAG): ค้นพบและโหลดบริบทที่เกี่ยวข้องสำหรับคำถามเฉพาะเจาะจงแบบไดนามิก
- Subagents: ห่อหุ้มคำสั่งและเครื่องมือเฉพาะเจาะจงเพื่อหลีกเลี่ยงการทำให้บริบทหลักรกรุงรัง
- Get_ Tools*: ช่วยให้โมเดลสามารถร้องขอข้อมูลที่เกี่ยวข้องได้อย่างเชิงรุก
- Hyperlink-Based: ใช้ลิงก์ที่ประหยัดโทเค็นเพื่อโหลดบริบทตามความต้องการ
การนำไปใช้จริงและการยอมรับจากชุมชน
ชุมชน AI ไม่ได้เพียงแต่ตั้งทฤษฎีเกี่ยวกับแนวทางนี้เท่านั้น พวกเขากำลังนำไปใช้อย่างจริงจัง Claude Code ใช้ไฮเปอร์ลิงก์เพื่อให้เอกสารประกอบเกี่ยวกับคุณสมบัติของมันเอง ในขณะที่นักพัฒนารายงานความสำเร็จจากการสั่งให้เอเจนต์ AI ติดตามลิงก์และเปรียบเทียบแนวทางจาก URL ที่แตกต่างกัน สิ่งนี้แสดงถึงการเปลี่ยนแปลงที่สำคัญจากระบบ AI ในยุคก่อนหน้าที่ต่อสู้กับการทำความเข้าใจบริบท
อย่างไรก็ตาม การนำไปใช้นั้นไม่ได้ปราศจากความท้าทาย ผู้ใช้บางรายรายงานว่าเอเจนต์ AI บางครั้งล้มเหลวในการติดตามลิงก์โดยไม่แสดงข้อความใดๆ สร้างความสับสนว่าข้อมูลถูกดึงมาจริงหรือไม่ บางคนตั้งข้อสังเกตว่าข้อจำกัดในการเข้าถึงเว็บและการบล็อกเว็บไซต์บางแห่งโดย AI สามารถจำกัดประสิทธิภาพของแนวทางนี้ได้ แม้จะมีอุปสรรคเหล่านี้ แต่ฉันทามติกำลังก่อตัวขึ้นว่าการจัดการบริบทโดยใช้ลิงก์เป็นวิธีที่ธรรมชาติและมีประสิทธิภาพมากขึ้นสำหรับ AI ในการจัดการข้อมูล
สถานะการนำไปใช้งานในชุมชน:
- Claude Code: ใช้ไปเปอร์ลิงก์สำหรับการเข้าถึงเอกสารอยู่แล้ว
- Codex: สามารถติดตามลิงก์ได้เมื่อเปิดใช้งานการค้นหาเว็บในการตั้งค่า
- Skills Systems: ใช้ไฟล์ markdown พร้อมรูปแบบการเชื่อมโยงสำหรับการเปิดเผยข้อมูลแบบค่อยเป็นค่อยไป
- MCP Resources: มาตรฐานที่กำลังเกิดขึ้นสำหรับการเปิดเผยเนื้อหาที่เชื่อมโยงให้กับเอเจนต์
HATEOAS ได้พบช่วงเวลาของมันแล้ว
การอภิปรายได้จุดประกายความสนใจใหม่ใน HATEOAS (Hypertext as the Engine of Application State) ซึ่งเป็นแนวคิดจากสถาปัตยกรรมเว็บยุคแรกที่ไม่เคยเกิดขึ้นจริงในการออกแบบ API แบบดั้งเดิม แนวคิดนี้คือ API ควรอธิบายตัวเองผ่านไฮเปอร์ลิงก์ ทำให้ไคลเอ็นต์สามารถค้นพบและโต้ตอบกับพวกมันได้อย่างไดนามิก แม้แนวทางนี้จะยุ่งยากสำหรับนักพัฒนามนุษย์ แต่มันเหมาะอย่างยิ่งสำหรับเอเจนต์ AI ที่สามารถแยกวิเคราะห์และนำทางโครงสร้างที่เชื่อมโยงกันได้โดยอัตโนมัติ
ตามที่ผู้แสดงความคิดเห็นหนึ่งคนระบุ HATEOAS ทำงานได้อย่างยอดเยี่ยม ทุกครั้งที่คุณไปที่หน้าเว็บที่มีปุ่มและลิงก์ใน HTML ที่อธิบายว่าหน้าเว็บนั้นสามารถทำอะไรได้บ้าง คุณกำลังทำ HATEOAS อยู่ มุมมองนี้เน้นย้ำว่าสถาปัตยกรรมพื้นฐานของเว็บ ซึ่งมักถูกมองข้ามไปนั้น ให้รากฐานที่สมบูรณ์แบบสำหรับการสำรวจของ AI
อนาคตของการนำทาง AI
เมื่อมองไปข้างหน้า ชุมชนกำลังสำรวจว่าจะทำให้แนวทางนี้เป็นสากลมากขึ้นได้อย่างไร โปรโตคอล Model Context Protocol (MCP) แสดงให้เห็นถึงความหวังสำหรับการสร้างวิธีที่เป็นมาตรฐานในการเปิดเผยทรัพยากรที่เชื่อมโยงให้กับเอเจนต์ AI อย่างไรก็ตาม ดังที่นักพัฒนาตั้งข้อสังเกต ยังมีอุปสรรคต่อการยอมรับในวงกว้าง รวมถึงความต้องการเซิร์ฟเวอร์และโครงสร้างพื้นฐานเฉพาะทาง
บางคนในชุมชนสนับสนุนแนวทางที่ง่ายยิ่งขึ้น โดยแนะนำว่าเราไม่จำเป็นต้องใช้ MCP สำหรับเรื่องนี้ แค่สร้างเครื่องมือที่ใช้ Trafilatura เพื่ออ่านหน้าเว็บเป็น markdown และสร้าง UI เว็บแบบ server-side แบบเก่า แล้วปล่อยให้เอเจนต์ curl พวกมัน สภาวะความคิดแบบกลับไปสู่พื้นฐานนี้สะท้อนให้เห็นแนวโน้มที่กว้างขึ้นในการพัฒนา AI ที่มุ่งไปสู่โซลูชันที่ใช้งานได้จริงและสามารถนำไปใช้ได้ แทนที่จะเป็นระบบที่ถูกออกแบบมากเกินไป
การสนทนาเกี่ยวกับไฮเปอร์ลิงก์ในการจัดการบริบทของ AI แสดงถึงการบรรจบกันที่น่าสนใจของหลักการเว็บแบบเก่าและความสามารถใหม่ของ AI เมื่อนักพัฒนายังคงปรับแต่งแนวทางเหล่านี้ต่อไป เรามีแนวโน้มที่จะเห็นระบบ AI มากขึ้นที่นำทางข้อมูลด้วยพฤติกรรมการติดตามลิงก์ที่ใช้งานง่ายแบบเดียวกับที่มนุษย์ใช้มาหลายทศวรรษ ปรากฏว่าไฮเปอร์ลิงก์ตัวเล็กๆ อาจเป็นหนึ่งในเครื่องมือที่ทรงพลังที่สุดของ AI ในการทำความเข้าใจโลกของเรา
หมายเหตุ: HATEOAS ย่อมาจาก Hypertext as the Engine of Application State ซึ่งเป็นหลักการทางสถาปัตยกรรมที่ไคลเอ็นต์โต้ตอบกับแอปพลิเคชันทั้งหมดผ่านไฮเปอร์ลิงก์ที่ให้โดยเซิร์ฟเวอร์
อ้างอิง: Context engineering is sleeping on the humble hyperlink
