แนวทางการทดลองของนักเขียนนวนิยายในการสร้างโมเดลภาษาโดยใช้ลำดับ Fibonacci ได้จุดประกายการอภิปรายอย่างเข้มข้นในชุมชนเทคโนโลยีเกี่ยวกับว่ารูปแบบทางคณิตศาสตร์ในข้อความมีความหมายที่แท้จริงหรือเป็นเพียงการมองเห็นรูปแบบในที่ที่ไม่มีรูปแบบอยู่จริง
Gabriel Smith ที่ทำงานกับข้อมูลข้อความเพียง 4MB ได้สร้างสิ่งที่เขาเรียกว่า FMLLM (Fibonacci Language Model) - ระบบที่วิเคราะห์คำที่ปรากฏในช่วง Fibonacci (ห่างกัน 2, 3, 5, 8, 13, 21 ตำแหน่ง) แทนที่จะเป็นคำที่อยู่ติดกันเหมือนโมเดลภาษาแบบดั้งเดิม แนวทางนี้เกิดจากพื้นฐานของเขาในฐานะนักเขียนนวนิยาย ซึ่งเขาจะติดตามตำแหน่งคำสำคัญในสเปรดชีตและสังเกตเห็นว่าคำเหล่านั้นมักจะสร้างรูปแบบเกลียว
ช่วง Fibonacci ที่ใช้: ตำแหน่งที่ 2, 3, 5, 8, 13, 21 เป็นต้น ห่างจากคำเป้าหมาย
ความสงสัยของชุมชนเกี่ยวกับความถูกต้องของรูปแบบ
ชุมชนเทคโนโลยีได้ตั้งคำถามอย่างจริงจังว่าความสอดคล้องที่ปรากฏในผลลัพธ์ของโมเดลมาจากช่วง Fibonacci เองหรือจากกระบวนการกรองที่เข้มงวด นักวิจารณ์ชี้ให้เห็นว่าระบบใช้ sentence transformers ในการกรองผู้สมัครที่สร้างขึ้นอย่างเข้มงวด ซึ่งอาจสร้างภาพลวงตาของความหมายผ่านการประมวลผลหลังแทนที่จะเป็นแนวทางทางคณิตศาสตร์พื้นฐาน
การวิจารณ์ที่แหลมคมอย่างหนึ่งชี้ให้เห็นว่านี่อาจเป็นกรณีของ language pareidolia - คล้ายกับการมองเห็นใบหน้าในเมฆ - ที่สมองมนุษย์สร้างการเชื่อมโยงที่มีความหมายระหว่างคำที่เชื่อมโยงกันแบบสุ่m ความกังวลคือความสอดคล้องทางความหมายอาจเป็นผลมาจากความสามารถในการจับคู่รูปแบบของสมองมากกว่าโครงสร้างทางภาษาที่แท้จริง
การกรองข้อมูล: ใช้ NLTK สำหรับ stop-words, Spacy สำหรับการติดแท็ก part-of-speech และ sentence transformers สำหรับการจัดอันดับความสอดคล้อง
การนำไปใช้ทางเทคนิคทำให้เกิดคำถาม
โมเดลทำงานโดยการสร้างตารางการทำนายแบบสองทิศทาง: หากคำ X ปรากฏที่ตำแหน่ง N คำใดบ้างที่ปรากฏในระยะทาง Fibonacci ไปข้างหน้าและข้างหลัง ในระหว่างการสร้าง คำจะถูกเลือกเฉพาะเมื่อแสดงความน่าจะเป็นในทั้งสองทิศทางเท่านั้น อย่างไรก็ตาม สมาชิกชุมชนหลายคนได้สังเกตว่านี่ฟังดูคล้ายกับ Markov chains อย่างน่าทึ่ง ซึ่งเป็นเทคนิคการสร้างข้อความที่มีการยอมรับอย่างดี
การขาดการควบคุมที่เหมาะสมได้รับการวิจารณ์อย่างมาก สมาชิกชุมชนเรียกร้องให้มีการเปรียบเทียบระหว่างช่วง Fibonacci และช่วงแบบสุ่มเพื่อกำหนดว่าลำดับทางคณิตศาสตร์ให้ประโยชน์ที่แท้จริงเหนือการเลือกแบบบังเอิญหรือไม่
วิธีการสร้าง: การตรวจสอบแบบสองทิศทางที่ต้องการให้คำศัพท์แสดงความน่าจะเป็นทั้งในทิศทางไปข้างหน้าและย้อนกลับ
ผลลัพธ์ที่หลากหลายเพิ่มเติมการถกเถียง
ตัวอย่างของ Smith แสดงผลลัพธ์ที่น่าสนใจเช่นการเปลี่ยน television เป็นคำที่เกี่ยวข้องตามธีมรวมถึง producer, channels และ electromagnetic impulses สำหรับอินพุต sarah loves my french toast ระบบสร้าง sarah loves my french toast a piney connubial produit - ซึ่ง Smith ตีความว่าอ้างอิงถึงน้ำเชื่อมเมเปิล (piney), ความรัก (connubial) และคำภาษาฝรั่งเศสสำหรับผลิตภัณฑ์
อย่างไรก็ตาม นักสงสัยโต้แย้งว่าการตีความเหล่านี้แสดงถึงอคติการยืนยันมากกว่าความเข้าใจ AI ที่แท้จริง โมเดลเครื่องหมายวรรคตอน ที่ได้รับการฝึกฝนบนชุดข้อมูล 4MB เดียวกัน แสดงผลลัพธ์ที่หลากหลาย - วางจุลภาคและจุดบางอันได้ถูกต้องในขณะที่ทำข้อผิดพลาดที่ชัดเจนในอื่น ๆ
ตัวอย่างข้อมูลนำเข้า/ผลลัพธ์: "television" → "television producer widest impunity exposure autobiographical suffering scrutinizing vulgarity worship america..."
ผลกระทบที่กว้างขึ้นสำหรับการวิจัย AI
การถกเถียงนี้เน้นคำถามพื้นฐานเกี่ยวกับการรู้จำรูปแบบในการพัฒนา AI ในขณะที่แนวทางของ Smith ในการมองเกินคำที่อยู่ติดกันท้าทายการคิดแบบเดิมเกี่ยวกับการสร้างแบบจำลองภาษา ชุมชนยังคงแบ่งแยกเกี่ยวกับว่าลำดับ Fibonacci แสดงถึงความก้าวหน้าที่มีความหมายหรือกรณีที่ซับซ้อนของการค้นหารูปแบบในเสียงรบกวน
การอภิปรายได้เปรียบเทียบกับความพยายามในการแสวงหารูปแบบอื่น ๆ เช่นโหราศาสตร์และ Bible codes ซึ่งบ่งชี้ว่าบางคนมองว่านี่เป็นวิทยาศาสตร์เทียมมากกว่าการวิจัย AI ที่ถูกต้อง คนอื่น ๆ พบว่าแนวทางนี้น่าสนใจพอที่จะสมควรได้รับการสืบสวนเพิ่มเติมด้วยการควบคุมทางวิทยาศาสตร์ที่เหมาะสม
ณ เดือนสิงหาคม 2025 Smith ได้เผยแพร่โค้ดบางส่วนและดำเนินการศึกษาเล็ก ๆ ที่ชี้ให้เห็นว่า word clouds ที่สร้างโดย Fibonacci อาจปรับปรุงงานการเขียนเชิงสร้างสรรค์เมื่อแนบกับ prompts อย่างไรก็ตาม ขนาดตัวอย่างยังคงเล็กเกินไปสำหรับข้อสรุปที่แน่นอน ทำให้ชุมชนเทคโนโลยีแบ่งแยกระหว่างความอยากรู้และความสงสัยเกี่ยวกับแนวทางที่แหวกแนวนี้ในการสร้างแบบจำลองภาษา
อ้างอิง: FMLLM
