ชุมชน AI แตกแยกจากงานวิจัย Apple ที่ตั้งคำถามเกี่ยวกับความสามารถในการใช้เหตุผลของ LLM

BigGo Editorial Team
ชุมชน AI แตกแยกจากงานวิจัย Apple ที่ตั้งคำถามเกี่ยวกับความสามารถในการใช้เหตุผลของ LLM

ชุมชนปัญญาประดิษฐ์กำลังมีการถกเถียงกันอย่างเข้มข้นหลังจากที่ Apple ออกงานวิจัยที่ท้าทายความสามารถในการใช้เหตุผลของ Large Language Models (LLMs) งานวิจัยดังกล่าวได้ศึกษาว่าระบบ AI เหล่านี้จัดการกับปัญหาที่ซับซ้อนอย่างเช่นปริศนา Tower of Hanoi ได้อย่างไร และได้จุดประกายการอภิปรายอย่างกว้างขวางเกี่ยวกับว่าเทคโนโลยี AI ปัจจุบันสามารถใช้เหตุผลได้จริงหรือเพียงแค่เลียนแบบรูปแบบจากข้อมูลการฝึกอบรม

Gary Marcus นักวิจัย AI ที่มีชื่อเสียงและเป็นนักวิจารณ์ ได้ปกป้องผลการวิจัยของ Apple โดยโต้แย้งข้อโต้แย้งทั่วไปเจ็ดข้อจากนักมองโลกในแง่ดี AI การวิเคราะห์ของเขาได้รับทั้งการสนับสนุนและการวิจารณ์จากชุมชนเทคโนโลยี ซึ่งเน้นให้เห็นความแตกแยกอย่างลึกซึ้งเกี่ยวกับความสามารถปัจจุบันและศักยภาพในอนาคตของ AI

ความขัดแย้งหลัก: การจับคู่รูปแบบ เทียบกับ การใช้เหตุผลที่แท้จริง

การถกเถียงหลักหมุนรอบว่า LLMs แสดงให้เห็นการใช้เหตุผลที่แท้จริงหรือการจับคู่รูปแบบที่ซับซ้อน นักวิจารณ์โต้แย้งว่าระบบเหล่านี้ล้มเหลวเมื่อเผชิญกับปัญหาใหม่ที่แท้จริงซึ่งอยู่นอกเหนือจากข้อมูลการฝึกอบรม พวกเขาชี้ไปที่ผลการศึกษาของ Apple ที่พบว่าโมเดล AI ประสบปัญหากับการเปลี่ยนแปลงของปริศนาที่รู้จักกันดี ซึ่งบ่งบอกว่าระบบขาดความเข้าใจพื้นฐาน

อย่างไรก็ตาม ผู้ปกป้องเทคโนโลยี AI ปัจจุบันยืนยันว่าการวิจารณ์นี้มองข้ามคุณค่าในทางปฏิบัติที่เครื่องมือเหล่านี้ให้ พวกเขาโต้แย้งว่าแม้ว่า LLMs จะพึ่งพาการรู้จำรูปแบบมากกว่าการใช้เหตุผลล้วนๆ แต่วิธีการนี้ยังคงให้ผลลัพธ์ที่มีประโยชน์ในการประยุกต์ใช้ในโลกแห่งความเป็นจริงหลายด้าน

ผลการวิจัยสำคัญจากเอกสาร Apple :

  • LLMs มีปัญหาในการแก้ปริศนา Tower of Hanoi ที่มีรูปแบบต่างๆ
  • ประสิทธิภาพลดลงเมื่อปัญหามีความซับซ้อนมากขึ้น
  • ระบบดูเหมือนจะพึ่งพาการจับคู่รูปแบบมากกว่าการใช้เหตุผลที่แท้จริง
  • การแก้ปริศนา Tower of Hanoi ที่เหมาะสมที่สุดต้องใช้ 255 ท่า (อยู่ในขีดจำกัดของ token)

การตอบสนองของชุมชนเผยให้เห็นความตึงเครียดในวิชาชีพ

การอภิปรายได้เปิดเผยความตึงเครียดที่แฝงอยู่ภายในชุมชน AI นักพัฒนาและนักวิจัยบางคนแสดงความหงุดหงิดกับสิ่งที่พวกเขามองว่าเป็นการวิจารณ์มากเกินไปซึ่งอาจเป็นอันตรายต่อความก้าวหน้าและการระดมทุน คนอื่นๆ กังวลว่าการโฆษณาชวนเชื่อความสามารถของ AI มากเกินไปโดยไม่ยอมรับข้อจำกัดอาจนำไปสู่ AI winter อีกครั้ง ซึ่งเป็นช่วงเวลาของการลดการลงทุนและความสนใจในการวิจัยปัญญาประดิษฐ์

นักโฆษณาชวนเชื่อ AI ชอบบ่นว่าผู้เชี่ยวชาญ AI ที่แท้จริงใส่ใจกับการหักล้าง AI ปัจจุบันมากเกินไปแทนที่จะปรับปรุงมัน แต่ความจริงคือการหักล้าง AI ที่แย่คือการปรับปรุง AI

การถกเถียงยังสะท้อนความกังวลเกี่ยวกับความยั่งยืนของโมเดลธุรกิจ AI ปัจจุบัน โดยสมาชิกชุมชนบางคนกังวลว่าความคาดหวังที่ไม่สมจริงอาจนำไปสู่ความผิดหวังของนักลงทุนและการเข้าถึงเครื่องมือ AI ที่ลดลง

มุมมองของชุมชน:

  • นักวิจารณ์: LLMs ขาดการใช้เหตุผลที่แท้จริง พึ่งพาเพียงรูปแบบของข้อมูลการฝึกอบรมเท่านั้น
  • ผู้สนับสนุน: การจับคู่รูปแบบยังคงให้คุณค่าในทางปฏิบัติ
  • ผู้ที่มีจุดยืนกลาง: แนวทาง neurosymbolic แบบผสมผสานอาจจำเป็น
  • ข้อกังวลทางธุรกิจ: วงจรความคาดหวังที่สูงเกินไปไม่สามารถรักษาได้ มีความเสี่ยงของฤดูหนาว AI

ข้อจำกัดทางเทคนิคและทิศทางในอนาคต

ปัญหาทางเทคนิคหลายประการเกิดขึ้นจากการอภิปรายของชุมชน งานวิจัยของ Apple เน้นให้เห็นว่าระบบ AI ปัจจุบันประสบปัญหากับงานอัลกอริทึมที่ต้องการความก้าวหน้าทางตรรกะแบบทีละขั้นตอน แม้ว่าปัญหาจะมีวิธีแก้ไขที่ได้รับการยอมรับแล้วก็ตาม ข้อจำกัดนี้จะชัดเจนมากขึ้นเมื่อปัญหามีความซับซ้อนมากขึ้นหรือเบี่ยงเบนจากตัวอย่างการฝึกอบรม

สมาชิกชุมชนบางคนเสนอว่าแนวทางผสมผสานที่รวมการใช้เหตุผลเชิงสัญลักษณ์กับวิธีการเครือข่ายประสาทเทียมปัจจุบันอาจแก้ไขข้อบกพร่องเหล่านี้ได้ แนวทาง neurosymbolic นี้อาจสามารถจัดการทั้งงานการรู้จำรูปแบบและการใช้เหตุผลเชิงตรรกะได้อย่างมีประสิทธิภาพมากขึ้น

เจ็ดข้อโต้แย้งทั่วไปต่อ Apple Paper:

  1. มนุษย์ก็ยังดิ้นรนกับปัญหาที่ซับซ้อน
  2. ข้อจำกัดของ token ป้องกันไม่ให้หาทางแก้ไขที่เหมาะสม
  3. การโจมตีส่วนบุคคลต่อผู้เขียนงานวิจัย
  4. โมเดลที่ใหญ่กว่าอาจทำงานได้ดีกว่า
  5. ระบบสามารถแก้ปริศนาได้โดยใช้อัลกอริทึม/โค้ด
  6. ผลการวิจัยในงานนี้ไม่ใช่ข้อมูลใหม่
  7. การสรุปผลแบบทั่วไปที่แย่เป็นสิ่งที่รู้กันอยู่แล้ว

ผลกระทบต่อการพัฒนา AI

ความขัดแย้งสะท้อนคำถามที่กว้างขึ้นเกี่ยวกับลำดับความสำคัญในการพัฒนา AI และการอ้างสิทธิ์ทางการตลาด แม้ว่าระบบ AI ปัจจุบันจะแสดงความสามารถที่น่าประทับใจในหลายด้าน แต่การถกเถียงเน้นให้เห็นช่องว่างระหว่างความคาดหวังของสาธารณะและความเป็นจริงทางเทคนิค ความไม่เชื่อมต่อนี้มีผลกระทบในทางปฏิบัติสำหรับธุรกิจและบุคคลที่ตัดสินใจเกี่ยวกับการนำ AI มาใช้และการลงทุน

การอภิปรายยังเผยให้เห็นความท้าทายที่ยังคงอยู่ในการประเมินและทดสอบ AI การกำหนดว่าระบบ AI สามารถจัดการกับปัญหาใหม่ที่แท้จริงได้หรือไม่ยังคงเป็นเรื่องยาก เนื่องจากมักไม่ชัดเจนว่ากรณีทดสอบมีอยู่ในข้อมูลการฝึกอบรมหรือในรูปแบบที่คล้ายกันหรือไม่

การถกเถียงรอบงานวิจัยของ Apple แสดงให้เห็นปัญหาการเติบโตปัจจุบันของสาขา AI เมื่อเทคโนโลยีเหล่านี้กลายเป็นที่แพร่หลายมากขึ้นในชีวิตประจำวันและการดำเนินธุรกิจ การเข้าใจความสามารถและข้อจำกัดที่แท้จริงจึงมีความสำคัญมากขึ้นสำหรับการตัดสินใจอย่างมีข้อมูลเกี่ยวกับการใช้และการพัฒนา

อ้างอิง: Seven replies to the viral Apple reasoning paper - and why they fall short