ไทม์ไลน์ "โซลูชัน" การหลอนของ AI พลาดเป้าหมาย ขณะที่ชุมชนตั้งคำถามเกี่ยวกับแนวทางพื้นฐาน

ทีมชุมชน BigGo
ไทม์ไลน์ "โซลูชัน" การหลอนของ AI พลาดเป้าหมาย ขณะที่ชุมชนตั้งคำถามเกี่ยวกับแนวทางพื้นฐาน

ชุมชนเทคโนโลยีกำลังต่อต้านการคาดการณ์ในแง่บวกเกี่ยวกับการแก้ไขปัญหาการหลอนของ AI โดยประสบการณ์ในโลกแห่งความจริงขัดแย้งกับไทม์ไลน์ของผู้เชี่ยวชาญ ในขณะที่นักวิจัยยังคงสัญญาว่าจะแก้ไขปัญหาแบบด่วนสำหรับแนวโน้มของ AI ที่สร้างข้อมูลเท็จ ผู้ใช้รายงานว่าปัญหานี้อาจกำลังแย่ลงจริง ๆ

วิทยากรสำคัญพูดคุยเกี่ยวกับความกังวลที่เพิ่มขึ้นเรื่องการหลอนของ AI และความสงสัยของชุมชนเทคโนโลยีต่อการแก้ไขอย่างรวดเร็วที่สัญญาไว้
วิทยากรสำคัญพูดคุยเกี่ยวกับความกังวลที่เพิ่มขึ้นเรื่องการหลอนของ AI และความสงสัยของชุมชนเทคโนโลยีต่อการแก้ไขอย่างรวดเร็วที่สัญญาไว้

การตรวจสอบความเป็นจริงเกี่ยวกับโซลูชันการหลอน

ช่องว่างระหว่างการคาดการณ์ของผู้เชี่ยวชาญและประสบการณ์ของผู้ใช้ได้กลายเป็นที่ชัดเจนมากขึ้น สมาชิกชุมชนสังเกตว่าแม้จะมีคำสัญญาเกี่ยวกับความก้าวหน้าอย่างรวดเร็ว ระบบ AI ยังคงดิ้นรนกับความแม่นยำ ผู้สังเกตการณ์คนหนึ่งชี้ให้เห็นว่าหลังจากผ่านไปมากกว่าหนึ่งปีนับตั้งแต่มีการคาดการณ์ที่คล้ายกัน การหลอนดูเหมือนจะเกิดขึ้นบ่อยขึ้นมากกว่าที่จะลดลง ความขัดแย้งนี้ทำให้เกิดคำถามว่าชุมชนเทคนิคเข้าใจขอบเขตของความท้าทายนี้อย่างเต็มที่หรือไม่

ปัญหานี้ขยายไปไกลกว่าการแก้ไขทางเทคนิคแบบง่าย ๆ ผู้ใช้บางคนแนะนำว่าปัญหานี้อาจเป็นพื้นฐานของการทำงานของระบบเหล่านี้ โดยเปรียบเทียบกับการรับรู้ของมนุษย์ที่การแต่งเรื่องก็เป็นปัญหาที่ยังคงอยู่เช่นกัน

การเปรียบเทียบข้อเรียกร้องเรื่องไทม์ไลน์กับความเป็นจริง

  • การทำนายเดิม: ปัญหา AI hallucinations แก้ไขได้ "ภายในหนึ่งปี"
  • การสังเกตของชุมชน: หลังจากผ่านไปมากกว่าหนึ่งปี hallucinations ดูเหมือนจะเกิดขึ้นบ่อยขึ้น
  • แนวทางทางเทคนิค: มุ่งเน้นการรักษาการปรับเทียบโมเดลระหว่างการ fine-tuning
  • บริบทการระดมทุน: สตาร์ทอัพ Humanising ระดมทุนได้ 2.6 ล้านดอลลาร์สหรัฐสำหรับประสิทธิภาพ LLM

การถกเถียงเรื่องคำศัพท์เผยให้เห็นความกังวลที่ลึกซึ้งยิ่งขึ้น

ชุมชนยังคงแบ่งแยกแม้แต่ในคำศัพท์พื้นฐาน โดยบางคนโต้แย้งว่า confabulation อธิบายสิ่งที่ระบบ AI ทำได้ดีกว่า hallucination อย่างไรก็ตาม การยอมรับในกระแสหลักของ hallucination ในวาทกรรมสาธารณะดูเหมือนจะตัดสินการถกเถียงนี้ในทางปฏิบัติ หากไม่ใช่ทางวิทยาศาสตร์ การอภิปรายทางภาษาศาสตร์นี้สะท้อนคำถามที่กว้างขึ้นเกี่ยวกับวิธีที่เราสร้างแนวคิดเกี่ยวกับพฤติกรรม AI และว่ากรอบการทำงานปัจจุบันของเราเพียงพอหรือไม่

แนวทางทางเลือกได้รับความสนใจ

แทนที่จะไล่ตามระบบ AI ที่สมบูรณ์แบบเพียงระบบเดียว สมาชิกชุมชนบางคนกำลังสำรวจว่าระบบหลายระบบที่มีอคติโดยเจตนาอาจทำงานร่วมกันได้ดีกว่าหรือไม่ แนวทางนี้ยอมรับว่าการกำจัดข้อผิดพลาดทั้งหมดอาจไม่ใช่เป้าหมายที่ถูกต้อง โดยเฉพาะสำหรับงานสร้างสรรค์ที่ความไม่สามารถคาดเดาได้ในระดับหนึ่งอาจมีค่า

การอภิปรายยังสัมผัสถึงการออกแบบส่วนต่อประสานผู้ใช้ โดยสังเกตว่าเครื่องมือค้นหาได้จัดการกับผลลัพธ์ที่ไม่สมบูรณ์แบบมานานแล้วโดยการให้รายการที่จัดอันดับและการอ้างอิงแทนที่จะเป็นคำตอบที่แน่นอน

แนวทางทางเลือกจากชุมชน

  • ระบบ AI หลายตัวที่มีอคติทำงานร่วมกัน เทียบกับระบบเดียวที่ "สมบูรณ์แบบ"
  • โซลูชันส่วนติดต่อผู้ใช้: ผลลัพธ์ที่จัดอันดับพร้อมการอ้างอิง (คล้ายกับเครื่องมือค้นหา)
  • การยอมรับ "การหลอนลวง" ที่ควบคุมได้สำหรับงานสร้างสรรค์
  • เน้นการจัดการข้อจำกัดมากกว่าการขจัดข้อจำกัด

บทสรุป

ความสงสัยของชุมชนเกี่ยวกับการแก้ไขแบบด่วนสำหรับการหลอนของ AI สะท้อนถึงความเป็นผู้ใหญ่ที่เพิ่มขึ้นในการเข้าใจระบบเหล่านี้ ในขณะที่นักวิจัยมุ่งเน้นไปที่โซลูชันทางเทคนิค ผู้ใช้เน้นย้ำถึงความจำเป็นในการหาวิธีที่ดีกว่าในการทำงานกับข้อจำกัดของ AI แทนที่จะคาดหวังให้มันหายไปทั้งหมด แนวทางปฏิบัตินี้อาจพิสูจน์ได้ว่ามีค่ามากกว่าการไล่ตามความแม่นยำที่สมบูรณ์แบบซึ่งยังคงเข้าใจยากแม้แต่ในสติปัญญาของมนุษย์

อ้างอิง: AI hallucinations will be solvable within a year, ex-Google AI researcher says—but that may not be a good thing: 'We want them to propose things that are weird and novel'