ชุมชนปัญญาประดิษฐ์กำลังมีการถกเถียงกันอย่างเข้มข้นหลังจากที่ Apple ออกงานวิจัยที่ท้าทายความสามารถในการใช้เหตุผลของ Large Language Models (LLMs) งานวิจัยดังกล่าวได้ศึกษาว่าระบบ AI เหล่านี้จัดการกับปัญหาที่ซับซ้อนอย่างเช่นปริศนา Tower of Hanoi ได้อย่างไร และได้จุดประกายการอภิปรายอย่างกว้างขวางเกี่ยวกับว่าเทคโนโลยี AI ปัจจุบันสามารถใช้เหตุผลได้จริงหรือเพียงแค่เลียนแบบรูปแบบจากข้อมูลการฝึกอบรม
Gary Marcus นักวิจัย AI ที่มีชื่อเสียงและเป็นนักวิจารณ์ ได้ปกป้องผลการวิจัยของ Apple โดยโต้แย้งข้อโต้แย้งทั่วไปเจ็ดข้อจากนักมองโลกในแง่ดี AI การวิเคราะห์ของเขาได้รับทั้งการสนับสนุนและการวิจารณ์จากชุมชนเทคโนโลยี ซึ่งเน้นให้เห็นความแตกแยกอย่างลึกซึ้งเกี่ยวกับความสามารถปัจจุบันและศักยภาพในอนาคตของ AI
ความขัดแย้งหลัก: การจับคู่รูปแบบ เทียบกับ การใช้เหตุผลที่แท้จริง
การถกเถียงหลักหมุนรอบว่า LLMs แสดงให้เห็นการใช้เหตุผลที่แท้จริงหรือการจับคู่รูปแบบที่ซับซ้อน นักวิจารณ์โต้แย้งว่าระบบเหล่านี้ล้มเหลวเมื่อเผชิญกับปัญหาใหม่ที่แท้จริงซึ่งอยู่นอกเหนือจากข้อมูลการฝึกอบรม พวกเขาชี้ไปที่ผลการศึกษาของ Apple ที่พบว่าโมเดล AI ประสบปัญหากับการเปลี่ยนแปลงของปริศนาที่รู้จักกันดี ซึ่งบ่งบอกว่าระบบขาดความเข้าใจพื้นฐาน
อย่างไรก็ตาม ผู้ปกป้องเทคโนโลยี AI ปัจจุบันยืนยันว่าการวิจารณ์นี้มองข้ามคุณค่าในทางปฏิบัติที่เครื่องมือเหล่านี้ให้ พวกเขาโต้แย้งว่าแม้ว่า LLMs จะพึ่งพาการรู้จำรูปแบบมากกว่าการใช้เหตุผลล้วนๆ แต่วิธีการนี้ยังคงให้ผลลัพธ์ที่มีประโยชน์ในการประยุกต์ใช้ในโลกแห่งความเป็นจริงหลายด้าน
ผลการวิจัยสำคัญจากเอกสาร Apple :
- LLMs มีปัญหาในการแก้ปริศนา Tower of Hanoi ที่มีรูปแบบต่างๆ
- ประสิทธิภาพลดลงเมื่อปัญหามีความซับซ้อนมากขึ้น
- ระบบดูเหมือนจะพึ่งพาการจับคู่รูปแบบมากกว่าการใช้เหตุผลที่แท้จริง
- การแก้ปริศนา Tower of Hanoi ที่เหมาะสมที่สุดต้องใช้ 255 ท่า (อยู่ในขีดจำกัดของ token)
การตอบสนองของชุมชนเผยให้เห็นความตึงเครียดในวิชาชีพ
การอภิปรายได้เปิดเผยความตึงเครียดที่แฝงอยู่ภายในชุมชน AI นักพัฒนาและนักวิจัยบางคนแสดงความหงุดหงิดกับสิ่งที่พวกเขามองว่าเป็นการวิจารณ์มากเกินไปซึ่งอาจเป็นอันตรายต่อความก้าวหน้าและการระดมทุน คนอื่นๆ กังวลว่าการโฆษณาชวนเชื่อความสามารถของ AI มากเกินไปโดยไม่ยอมรับข้อจำกัดอาจนำไปสู่ AI winter อีกครั้ง ซึ่งเป็นช่วงเวลาของการลดการลงทุนและความสนใจในการวิจัยปัญญาประดิษฐ์
นักโฆษณาชวนเชื่อ AI ชอบบ่นว่าผู้เชี่ยวชาญ AI ที่แท้จริงใส่ใจกับการหักล้าง AI ปัจจุบันมากเกินไปแทนที่จะปรับปรุงมัน แต่ความจริงคือการหักล้าง AI ที่แย่คือการปรับปรุง AI
การถกเถียงยังสะท้อนความกังวลเกี่ยวกับความยั่งยืนของโมเดลธุรกิจ AI ปัจจุบัน โดยสมาชิกชุมชนบางคนกังวลว่าความคาดหวังที่ไม่สมจริงอาจนำไปสู่ความผิดหวังของนักลงทุนและการเข้าถึงเครื่องมือ AI ที่ลดลง
มุมมองของชุมชน:
- นักวิจารณ์: LLMs ขาดการใช้เหตุผลที่แท้จริง พึ่งพาเพียงรูปแบบของข้อมูลการฝึกอบรมเท่านั้น
- ผู้สนับสนุน: การจับคู่รูปแบบยังคงให้คุณค่าในทางปฏิบัติ
- ผู้ที่มีจุดยืนกลาง: แนวทาง neurosymbolic แบบผสมผสานอาจจำเป็น
- ข้อกังวลทางธุรกิจ: วงจรความคาดหวังที่สูงเกินไปไม่สามารถรักษาได้ มีความเสี่ยงของฤดูหนาว AI
ข้อจำกัดทางเทคนิคและทิศทางในอนาคต
ปัญหาทางเทคนิคหลายประการเกิดขึ้นจากการอภิปรายของชุมชน งานวิจัยของ Apple เน้นให้เห็นว่าระบบ AI ปัจจุบันประสบปัญหากับงานอัลกอริทึมที่ต้องการความก้าวหน้าทางตรรกะแบบทีละขั้นตอน แม้ว่าปัญหาจะมีวิธีแก้ไขที่ได้รับการยอมรับแล้วก็ตาม ข้อจำกัดนี้จะชัดเจนมากขึ้นเมื่อปัญหามีความซับซ้อนมากขึ้นหรือเบี่ยงเบนจากตัวอย่างการฝึกอบรม
สมาชิกชุมชนบางคนเสนอว่าแนวทางผสมผสานที่รวมการใช้เหตุผลเชิงสัญลักษณ์กับวิธีการเครือข่ายประสาทเทียมปัจจุบันอาจแก้ไขข้อบกพร่องเหล่านี้ได้ แนวทาง neurosymbolic นี้อาจสามารถจัดการทั้งงานการรู้จำรูปแบบและการใช้เหตุผลเชิงตรรกะได้อย่างมีประสิทธิภาพมากขึ้น
เจ็ดข้อโต้แย้งทั่วไปต่อ Apple Paper:
- มนุษย์ก็ยังดิ้นรนกับปัญหาที่ซับซ้อน
- ข้อจำกัดของ token ป้องกันไม่ให้หาทางแก้ไขที่เหมาะสม
- การโจมตีส่วนบุคคลต่อผู้เขียนงานวิจัย
- โมเดลที่ใหญ่กว่าอาจทำงานได้ดีกว่า
- ระบบสามารถแก้ปริศนาได้โดยใช้อัลกอริทึม/โค้ด
- ผลการวิจัยในงานนี้ไม่ใช่ข้อมูลใหม่
- การสรุปผลแบบทั่วไปที่แย่เป็นสิ่งที่รู้กันอยู่แล้ว
ผลกระทบต่อการพัฒนา AI
ความขัดแย้งสะท้อนคำถามที่กว้างขึ้นเกี่ยวกับลำดับความสำคัญในการพัฒนา AI และการอ้างสิทธิ์ทางการตลาด แม้ว่าระบบ AI ปัจจุบันจะแสดงความสามารถที่น่าประทับใจในหลายด้าน แต่การถกเถียงเน้นให้เห็นช่องว่างระหว่างความคาดหวังของสาธารณะและความเป็นจริงทางเทคนิค ความไม่เชื่อมต่อนี้มีผลกระทบในทางปฏิบัติสำหรับธุรกิจและบุคคลที่ตัดสินใจเกี่ยวกับการนำ AI มาใช้และการลงทุน
การอภิปรายยังเผยให้เห็นความท้าทายที่ยังคงอยู่ในการประเมินและทดสอบ AI การกำหนดว่าระบบ AI สามารถจัดการกับปัญหาใหม่ที่แท้จริงได้หรือไม่ยังคงเป็นเรื่องยาก เนื่องจากมักไม่ชัดเจนว่ากรณีทดสอบมีอยู่ในข้อมูลการฝึกอบรมหรือในรูปแบบที่คล้ายกันหรือไม่
การถกเถียงรอบงานวิจัยของ Apple แสดงให้เห็นปัญหาการเติบโตปัจจุบันของสาขา AI เมื่อเทคโนโลยีเหล่านี้กลายเป็นที่แพร่หลายมากขึ้นในชีวิตประจำวันและการดำเนินธุรกิจ การเข้าใจความสามารถและข้อจำกัดที่แท้จริงจึงมีความสำคัญมากขึ้นสำหรับการตัดสินใจอย่างมีข้อมูลเกี่ยวกับการใช้และการพัฒนา
อ้างอิง: Seven replies to the viral Apple reasoning paper - and why they fall short