ชุมชนเทคโนโลยีกำลังต่อต้านการคาดการณ์ในแง่บวกเกี่ยวกับการแก้ไขปัญหาการหลอนของ AI โดยประสบการณ์ในโลกแห่งความจริงขัดแย้งกับไทม์ไลน์ของผู้เชี่ยวชาญ ในขณะที่นักวิจัยยังคงสัญญาว่าจะแก้ไขปัญหาแบบด่วนสำหรับแนวโน้มของ AI ที่สร้างข้อมูลเท็จ ผู้ใช้รายงานว่าปัญหานี้อาจกำลังแย่ลงจริง ๆ
![]() |
---|
วิทยากรสำคัญพูดคุยเกี่ยวกับความกังวลที่เพิ่มขึ้นเรื่องการหลอนของ AI และความสงสัยของชุมชนเทคโนโลยีต่อการแก้ไขอย่างรวดเร็วที่สัญญาไว้ |
การตรวจสอบความเป็นจริงเกี่ยวกับโซลูชันการหลอน
ช่องว่างระหว่างการคาดการณ์ของผู้เชี่ยวชาญและประสบการณ์ของผู้ใช้ได้กลายเป็นที่ชัดเจนมากขึ้น สมาชิกชุมชนสังเกตว่าแม้จะมีคำสัญญาเกี่ยวกับความก้าวหน้าอย่างรวดเร็ว ระบบ AI ยังคงดิ้นรนกับความแม่นยำ ผู้สังเกตการณ์คนหนึ่งชี้ให้เห็นว่าหลังจากผ่านไปมากกว่าหนึ่งปีนับตั้งแต่มีการคาดการณ์ที่คล้ายกัน การหลอนดูเหมือนจะเกิดขึ้นบ่อยขึ้นมากกว่าที่จะลดลง ความขัดแย้งนี้ทำให้เกิดคำถามว่าชุมชนเทคนิคเข้าใจขอบเขตของความท้าทายนี้อย่างเต็มที่หรือไม่
ปัญหานี้ขยายไปไกลกว่าการแก้ไขทางเทคนิคแบบง่าย ๆ ผู้ใช้บางคนแนะนำว่าปัญหานี้อาจเป็นพื้นฐานของการทำงานของระบบเหล่านี้ โดยเปรียบเทียบกับการรับรู้ของมนุษย์ที่การแต่งเรื่องก็เป็นปัญหาที่ยังคงอยู่เช่นกัน
การเปรียบเทียบข้อเรียกร้องเรื่องไทม์ไลน์กับความเป็นจริง
- การทำนายเดิม: ปัญหา AI hallucinations แก้ไขได้ "ภายในหนึ่งปี"
- การสังเกตของชุมชน: หลังจากผ่านไปมากกว่าหนึ่งปี hallucinations ดูเหมือนจะเกิดขึ้นบ่อยขึ้น
- แนวทางทางเทคนิค: มุ่งเน้นการรักษาการปรับเทียบโมเดลระหว่างการ fine-tuning
- บริบทการระดมทุน: สตาร์ทอัพ Humanising ระดมทุนได้ 2.6 ล้านดอลลาร์สหรัฐสำหรับประสิทธิภาพ LLM
การถกเถียงเรื่องคำศัพท์เผยให้เห็นความกังวลที่ลึกซึ้งยิ่งขึ้น
ชุมชนยังคงแบ่งแยกแม้แต่ในคำศัพท์พื้นฐาน โดยบางคนโต้แย้งว่า confabulation อธิบายสิ่งที่ระบบ AI ทำได้ดีกว่า hallucination อย่างไรก็ตาม การยอมรับในกระแสหลักของ hallucination ในวาทกรรมสาธารณะดูเหมือนจะตัดสินการถกเถียงนี้ในทางปฏิบัติ หากไม่ใช่ทางวิทยาศาสตร์ การอภิปรายทางภาษาศาสตร์นี้สะท้อนคำถามที่กว้างขึ้นเกี่ยวกับวิธีที่เราสร้างแนวคิดเกี่ยวกับพฤติกรรม AI และว่ากรอบการทำงานปัจจุบันของเราเพียงพอหรือไม่
แนวทางทางเลือกได้รับความสนใจ
แทนที่จะไล่ตามระบบ AI ที่สมบูรณ์แบบเพียงระบบเดียว สมาชิกชุมชนบางคนกำลังสำรวจว่าระบบหลายระบบที่มีอคติโดยเจตนาอาจทำงานร่วมกันได้ดีกว่าหรือไม่ แนวทางนี้ยอมรับว่าการกำจัดข้อผิดพลาดทั้งหมดอาจไม่ใช่เป้าหมายที่ถูกต้อง โดยเฉพาะสำหรับงานสร้างสรรค์ที่ความไม่สามารถคาดเดาได้ในระดับหนึ่งอาจมีค่า
การอภิปรายยังสัมผัสถึงการออกแบบส่วนต่อประสานผู้ใช้ โดยสังเกตว่าเครื่องมือค้นหาได้จัดการกับผลลัพธ์ที่ไม่สมบูรณ์แบบมานานแล้วโดยการให้รายการที่จัดอันดับและการอ้างอิงแทนที่จะเป็นคำตอบที่แน่นอน
แนวทางทางเลือกจากชุมชน
- ระบบ AI หลายตัวที่มีอคติทำงานร่วมกัน เทียบกับระบบเดียวที่ "สมบูรณ์แบบ"
- โซลูชันส่วนติดต่อผู้ใช้: ผลลัพธ์ที่จัดอันดับพร้อมการอ้างอิง (คล้ายกับเครื่องมือค้นหา)
- การยอมรับ "การหลอนลวง" ที่ควบคุมได้สำหรับงานสร้างสรรค์
- เน้นการจัดการข้อจำกัดมากกว่าการขจัดข้อจำกัด
บทสรุป
ความสงสัยของชุมชนเกี่ยวกับการแก้ไขแบบด่วนสำหรับการหลอนของ AI สะท้อนถึงความเป็นผู้ใหญ่ที่เพิ่มขึ้นในการเข้าใจระบบเหล่านี้ ในขณะที่นักวิจัยมุ่งเน้นไปที่โซลูชันทางเทคนิค ผู้ใช้เน้นย้ำถึงความจำเป็นในการหาวิธีที่ดีกว่าในการทำงานกับข้อจำกัดของ AI แทนที่จะคาดหวังให้มันหายไปทั้งหมด แนวทางปฏิบัตินี้อาจพิสูจน์ได้ว่ามีค่ามากกว่าการไล่ตามความแม่นยำที่สมบูรณ์แบบซึ่งยังคงเข้าใจยากแม้แต่ในสติปัญญาของมนุษย์