OpenAI ได้เผยแพร่งานวิจัยใหม่ที่อธิบายสาเหตุหลักของการหลอนลวงของ AI และเสนอแนวทางแก้ไขที่อาจเปลี่ยนแปลงวิธีการประเมินโมเดลภาษา บริษัทแย้งว่าวิธีการทดสอบในปัจจุบันกระตุ้นให้ระบบ AI เดาอย่างมั่นใจมากกว่าการยอมรับความไม่แน่นอน ส่งผลให้เกิดข้อมูลเท็จมากขึ้น
คำนิยามการหลอนของ OpenAI: ข้อความที่ฟังดูน่าเชื่อถือแต่เป็นเท็จที่สร้างขึ้นโดยโมเดลภาษา ซึ่งแตกต่างจากการสร้างเนื้อหาเชิงสร้างสรรค์
![]() |
---|
องค์ประกอบนามธรรมนี้สะท้อนถึงความซับซ้อนของระบบ AI และการต่อสู้กับความไม่แน่นอนและความแม่นยำ |
ปัญหาเกมการเดา
ปัญหาหลักอยู่ที่วิธีการประเมินโมเดล AI ในปัจจุบัน มาตรฐานการวัดส่วนใหญ่ให้คะแนนตามความแม่นยำเพียงอย่างเดียว คือเปอร์เซ็นต์ของคำถามที่ตอบถูกต้อง สิ่งนี้สร้างแรงจูงใจที่ผิดที่โมเดลได้รับรางวัลจากการเดาแบบสุ่มมากกว่าการพูดว่าไม่รู้ OpenAI เปรียบเทียบสิ่งนี้กับการสอบแบบเลือกตอบที่การปล่อยให้คำตอบว่างรับประกันได้คะแนนศูนย์ แต่การเดาแบบสุ่มอาจโชคดีและได้คะแนน
ชุมชนตอบสนองด้วยปฏิกิริยาที่หลากหลายต่อคำอธิบายนี้ บางคนแย้งว่าปัญหานี้ลึกกว่าวิธีการประเมิน โดยชี้ให้เห็นว่าโมเดลภาษาถูกออกแบบมาเพื่อสร้างเนื้อหาสร้างสรรค์ ไม่ใช่ให้คำตอบที่เป็นข้อเท็จจริง ความตึงเครียดพื้นฐานระหว่างความคิดสร้างสรรค์และความแม่นยำนี้อาจแก้ไขได้ยากกว่าที่ OpenAI เสนอ
ปัญหาการประเมินในปัจจุบัน: เกณฑ์มาตรฐานส่วนใหญ่วัดเพียงความแม่นยำ (เปอร์เซ็นต์ที่ถูกต้อง) ซึ่งกระตุ้นให้เดาคำตอบมากกว่าการยอมรับความไม่แน่นอน
ต้นกำเนิดทางเทคนิคของข้อมูลเท็จ
งานวิจัยของ OpenAI ติดตามการหลอนลวงกลับไปยังกระบวนการฝึกอบรมพื้นฐานที่เรียกว่าการทำนายคำถัดไป ในระหว่างขั้นตอนนี้ โมเดลเรียนรู้จากข้อความจำนวนมหาศาล แต่ไม่ได้รับป้ายกำกับที่ระบุว่าข้อความนั้นเป็นจริงหรือเท็จ พวกมันเห็นเพียงตัวอย่างของภาษาที่คล่องแคล่วและต้องหารูปแบบด้วยตัวเอง
วิธีนี้ใช้ได้ผลดีกับรูปแบบที่สม่ำเสมอเช่นการสะกดและไวยากรณ์ ซึ่งดีขึ้นด้วยข้อมูลการฝึกอบรมมากขึ้น อย่างไรก็ตาม ข้อเท็จจริงที่เป็นไปตามอำเภอใจเช่นวันเกิดของใครบางคนไม่สามารถเรียนรู้จากรูปแบบเพียงอย่างเดียว ชุมชนสังเกตว่าสิ่งนี้สร้างข้อจำกัดพื้นฐาน ข้อมูลบางอย่างจะคาดเดาไม่ได้เสมอ ส่งผลให้เกิดข้อผิดพลาดที่หลีกเลี่ยงไม่ได้ในบางพื้นที่
สาเหตุทางเทคนิคหลัก: การฝึกอบรมการทำนายคำถัดไปขาดป้ายกำกับจริง/เท็จ ทำให้ข้อเท็จจริงที่เป็นไปได้ใดๆ ไม่สามารถทำนายได้จากรูปแบบเพียงอย่างเดียว
ข้อเสนอการปฏิรูปการประเมิน
OpenAI เสนอการแก้ไขที่ตรงไปตรงมา เปลี่ยนวิธีการให้คะแนนโมเดล AI แทนที่จะให้รางวัลเฉพาะคำตอบที่ถูกต้อง การประเมินควรลงโทษคำตอบที่ผิดแต่มั่นใจมากกว่าการแสดงความไม่แน่นอน การทดสอบมาตรฐานบางอย่างใช้แนวทางที่คล้ายกันแล้ว โดยหักคะแนนสำหรับการเดาที่ไม่ถูกต้องเพื่อกีดกันการตอบแบบสุ่ม
อย่างไรก็ตาม การนำแนวทางแก้ไขนี้ไปใช้เผชิญกับความท้าทายในทางปฏิบัติ การฝึกอบรมระบบ AI ให้รู้จักความไม่แน่นอนของตัวเองในระดับใหญ่ยังคงยากในทางเทคนิค ชุมชนชี้ให้เห็นว่าการกำหนดเมื่อโมเดลควรพูดว่าไม่รู้เทียบกับการให้การตอบสนองที่เป็นประโยชน์ต้องการการตระหนักรู้ในตนเองที่ซับซ้อนซึ่งระบบปัจจุบันขาดไป
แนวทางแก้ไขที่เสนอ: ลงโทษข้อผิดพลาดที่มั่นใจมากกว่าการแสดงออกถึงความไม่แน่ใจ คล้ายกับการหักคะแนนในการสอบมาตรฐาน
ความเป็นจริงของตลาดเทียบกับอุดมคติทางเทคนิค
การอภิปรายที่สำคัญได้เกิดขึ้นเกี่ยวกับความคาดหวังของผู้ใช้ สมาชิกชุมชนหลายคนแย้งว่าผู้ใช้ส่วนใหญ่ชอบคำตอบที่รวดเร็วและมั่นใจมากกว่าความไม่แน่นอนที่ระมัดระวัง แม้ว่าคำตอบเหล่านั้นอาจผิดก็ตาม สิ่งนี้สร้างแรงจูงใจทางธุรกิจสำหรับบริษัท AI ในการสร้างระบบที่เดามากกว่าการงดเว้น
ผู้ใช้ LLM หลายคนไม่สนใจความไม่แน่นอน พวกเขาไม่ต้องการได้ยิน 'ไม่รู้' และหากได้รับการตอบสนองนั้นจะเปลี่ยนไปใช้บริการทางเลือกที่ให้คำตอบที่ชัดเจนอย่างรวดเร็ว
ความตึงเครียดระหว่างแนวทางปฏิบัติที่ดีที่สุดทางเทคนิคและความต้องการของตลาดนี้อาจพิสูจน์ได้ว่าท้าทายกว่าการแก้ไขปัญหาทางเทคนิคพื้นฐาน
มองไปข้างหน้า
งานวิจัยของ OpenAI ให้ความชัดเจนที่มีค่าเกี่ยวกับกลไกการหลอนลวง แต่เส้นทางไปข้างหน้ายังคงซับซ้อน บริษัทยอมรับว่าแม้จะมีวิธีการประเมินที่ดีกว่า การสร้างข้อมูลเท็จในระดับหนึ่งจะยังคงอยู่ เป้าหมายไม่ใช่ความสมบูรณ์แบบ แต่เป็นการปรับปรุงความน่าเชื่อถืออย่างมีนัยสำคัญ
ชุมชน AI ในวงกว้างยังคงอภิปรายว่าแนวทางแก้ไขที่เสนอแก้ไขข้อจำกัดพื้นฐานทางสถาปัตยกรรมหรือเป็นเพียงอาการระดับผิวเผิน เมื่อโมเดลภาษามีความทรงพลังมากขึ้นและถูกนำไปใช้อย่างแพร่หลาย การแก้ไขปัญหาความน่าเชื่อถือเหล่านี้กลายเป็นสิ่งสำคัญมากขึ้นสำหรับการรักษาความไว้วางใจของสาธารณะและการรับประกันการใช้งานที่ปลอดภัย
อ้างอิง: Why language models hallucinate