OpenAI เปิดเผยสาเหตุที่โมเดล AI หลอนลวงและเสนอการปฏิรูปการประเมิน

ทีมชุมชน BigGo
OpenAI เปิดเผยสาเหตุที่โมเดล AI หลอนลวงและเสนอการปฏิรูปการประเมิน

OpenAI ได้เผยแพร่งานวิจัยใหม่ที่อธิบายสาเหตุหลักของการหลอนลวงของ AI และเสนอแนวทางแก้ไขที่อาจเปลี่ยนแปลงวิธีการประเมินโมเดลภาษา บริษัทแย้งว่าวิธีการทดสอบในปัจจุบันกระตุ้นให้ระบบ AI เดาอย่างมั่นใจมากกว่าการยอมรับความไม่แน่นอน ส่งผลให้เกิดข้อมูลเท็จมากขึ้น

คำนิยามการหลอนของ OpenAI: ข้อความที่ฟังดูน่าเชื่อถือแต่เป็นเท็จที่สร้างขึ้นโดยโมเดลภาษา ซึ่งแตกต่างจากการสร้างเนื้อหาเชิงสร้างสรรค์

องค์ประกอบนามธรรมนี้สะท้อนถึงความซับซ้อนของระบบ AI และการต่อสู้กับความไม่แน่นอนและความแม่นยำ
องค์ประกอบนามธรรมนี้สะท้อนถึงความซับซ้อนของระบบ AI และการต่อสู้กับความไม่แน่นอนและความแม่นยำ

ปัญหาเกมการเดา

ปัญหาหลักอยู่ที่วิธีการประเมินโมเดล AI ในปัจจุบัน มาตรฐานการวัดส่วนใหญ่ให้คะแนนตามความแม่นยำเพียงอย่างเดียว คือเปอร์เซ็นต์ของคำถามที่ตอบถูกต้อง สิ่งนี้สร้างแรงจูงใจที่ผิดที่โมเดลได้รับรางวัลจากการเดาแบบสุ่มมากกว่าการพูดว่าไม่รู้ OpenAI เปรียบเทียบสิ่งนี้กับการสอบแบบเลือกตอบที่การปล่อยให้คำตอบว่างรับประกันได้คะแนนศูนย์ แต่การเดาแบบสุ่มอาจโชคดีและได้คะแนน

ชุมชนตอบสนองด้วยปฏิกิริยาที่หลากหลายต่อคำอธิบายนี้ บางคนแย้งว่าปัญหานี้ลึกกว่าวิธีการประเมิน โดยชี้ให้เห็นว่าโมเดลภาษาถูกออกแบบมาเพื่อสร้างเนื้อหาสร้างสรรค์ ไม่ใช่ให้คำตอบที่เป็นข้อเท็จจริง ความตึงเครียดพื้นฐานระหว่างความคิดสร้างสรรค์และความแม่นยำนี้อาจแก้ไขได้ยากกว่าที่ OpenAI เสนอ

ปัญหาการประเมินในปัจจุบัน: เกณฑ์มาตรฐานส่วนใหญ่วัดเพียงความแม่นยำ (เปอร์เซ็นต์ที่ถูกต้อง) ซึ่งกระตุ้นให้เดาคำตอบมากกว่าการยอมรับความไม่แน่นอน

ต้นกำเนิดทางเทคนิคของข้อมูลเท็จ

งานวิจัยของ OpenAI ติดตามการหลอนลวงกลับไปยังกระบวนการฝึกอบรมพื้นฐานที่เรียกว่าการทำนายคำถัดไป ในระหว่างขั้นตอนนี้ โมเดลเรียนรู้จากข้อความจำนวนมหาศาล แต่ไม่ได้รับป้ายกำกับที่ระบุว่าข้อความนั้นเป็นจริงหรือเท็จ พวกมันเห็นเพียงตัวอย่างของภาษาที่คล่องแคล่วและต้องหารูปแบบด้วยตัวเอง

วิธีนี้ใช้ได้ผลดีกับรูปแบบที่สม่ำเสมอเช่นการสะกดและไวยากรณ์ ซึ่งดีขึ้นด้วยข้อมูลการฝึกอบรมมากขึ้น อย่างไรก็ตาม ข้อเท็จจริงที่เป็นไปตามอำเภอใจเช่นวันเกิดของใครบางคนไม่สามารถเรียนรู้จากรูปแบบเพียงอย่างเดียว ชุมชนสังเกตว่าสิ่งนี้สร้างข้อจำกัดพื้นฐาน ข้อมูลบางอย่างจะคาดเดาไม่ได้เสมอ ส่งผลให้เกิดข้อผิดพลาดที่หลีกเลี่ยงไม่ได้ในบางพื้นที่

สาเหตุทางเทคนิคหลัก: การฝึกอบรมการทำนายคำถัดไปขาดป้ายกำกับจริง/เท็จ ทำให้ข้อเท็จจริงที่เป็นไปได้ใดๆ ไม่สามารถทำนายได้จากรูปแบบเพียงอย่างเดียว

ข้อเสนอการปฏิรูปการประเมิน

OpenAI เสนอการแก้ไขที่ตรงไปตรงมา เปลี่ยนวิธีการให้คะแนนโมเดล AI แทนที่จะให้รางวัลเฉพาะคำตอบที่ถูกต้อง การประเมินควรลงโทษคำตอบที่ผิดแต่มั่นใจมากกว่าการแสดงความไม่แน่นอน การทดสอบมาตรฐานบางอย่างใช้แนวทางที่คล้ายกันแล้ว โดยหักคะแนนสำหรับการเดาที่ไม่ถูกต้องเพื่อกีดกันการตอบแบบสุ่ม

อย่างไรก็ตาม การนำแนวทางแก้ไขนี้ไปใช้เผชิญกับความท้าทายในทางปฏิบัติ การฝึกอบรมระบบ AI ให้รู้จักความไม่แน่นอนของตัวเองในระดับใหญ่ยังคงยากในทางเทคนิค ชุมชนชี้ให้เห็นว่าการกำหนดเมื่อโมเดลควรพูดว่าไม่รู้เทียบกับการให้การตอบสนองที่เป็นประโยชน์ต้องการการตระหนักรู้ในตนเองที่ซับซ้อนซึ่งระบบปัจจุบันขาดไป

แนวทางแก้ไขที่เสนอ: ลงโทษข้อผิดพลาดที่มั่นใจมากกว่าการแสดงออกถึงความไม่แน่ใจ คล้ายกับการหักคะแนนในการสอบมาตรฐาน

ความเป็นจริงของตลาดเทียบกับอุดมคติทางเทคนิค

การอภิปรายที่สำคัญได้เกิดขึ้นเกี่ยวกับความคาดหวังของผู้ใช้ สมาชิกชุมชนหลายคนแย้งว่าผู้ใช้ส่วนใหญ่ชอบคำตอบที่รวดเร็วและมั่นใจมากกว่าความไม่แน่นอนที่ระมัดระวัง แม้ว่าคำตอบเหล่านั้นอาจผิดก็ตาม สิ่งนี้สร้างแรงจูงใจทางธุรกิจสำหรับบริษัท AI ในการสร้างระบบที่เดามากกว่าการงดเว้น

ผู้ใช้ LLM หลายคนไม่สนใจความไม่แน่นอน พวกเขาไม่ต้องการได้ยิน 'ไม่รู้' และหากได้รับการตอบสนองนั้นจะเปลี่ยนไปใช้บริการทางเลือกที่ให้คำตอบที่ชัดเจนอย่างรวดเร็ว

ความตึงเครียดระหว่างแนวทางปฏิบัติที่ดีที่สุดทางเทคนิคและความต้องการของตลาดนี้อาจพิสูจน์ได้ว่าท้าทายกว่าการแก้ไขปัญหาทางเทคนิคพื้นฐาน

มองไปข้างหน้า

งานวิจัยของ OpenAI ให้ความชัดเจนที่มีค่าเกี่ยวกับกลไกการหลอนลวง แต่เส้นทางไปข้างหน้ายังคงซับซ้อน บริษัทยอมรับว่าแม้จะมีวิธีการประเมินที่ดีกว่า การสร้างข้อมูลเท็จในระดับหนึ่งจะยังคงอยู่ เป้าหมายไม่ใช่ความสมบูรณ์แบบ แต่เป็นการปรับปรุงความน่าเชื่อถืออย่างมีนัยสำคัญ

ชุมชน AI ในวงกว้างยังคงอภิปรายว่าแนวทางแก้ไขที่เสนอแก้ไขข้อจำกัดพื้นฐานทางสถาปัตยกรรมหรือเป็นเพียงอาการระดับผิวเผิน เมื่อโมเดลภาษามีความทรงพลังมากขึ้นและถูกนำไปใช้อย่างแพร่หลาย การแก้ไขปัญหาความน่าเชื่อถือเหล่านี้กลายเป็นสิ่งสำคัญมากขึ้นสำหรับการรักษาความไว้วางใจของสาธารณะและการรับประกันการใช้งานที่ปลอดภัย

อ้างอิง: Why language models hallucinate