ชุมชนปัญญาประดิษฐ์กำลังมีการถกเถียงอย่างเข้มข้นเกี่ยวกับเส้นทางสู่ปัญญาประดิษฐ์ทั่วไป (AGI) ในขณะที่บางคนโต้แย้งว่าโมเดลภาษาขนาดใหญ่ในปัจจุบันต้องการเพียงวิศวกรรมที่ดีกว่าและสถาปัตยกรรมระบบที่ดีขึ้น คนอื่นๆ เชื่อว่ายังขาดการค้นพบทางวิทยาศาสตร์ที่เป็นพื้นฐาน
ความแตกต่างระหว่างวิศวกรรมกับวิทยาศาสตร์
บทความล่าสุดที่เสนอว่า AGI เป็นปัญหาทางวิศวกรรมเป็นหลักได้จุดประกายการอภิปรายอย่างเข้มข้นในหมู่นักพัฒนาและนักวิจัย บทความดังกล่าวโต้แย้งว่าโมเดลปัจจุบันอย่าง GPT-5 และ Claude กำลังชนกำแพงประสิทธิภาพ และทางแก้ไขอยู่ที่การสร้างระบบที่ดีกว่ารอบๆ โมเดลเหล่านี้มากกว่าการฝึกโมเดลที่ใหญ่กว่า อย่างไรก็ตาม สมาชิกในชุมชนมีความเห็นแตกแยกเกี่ยวกับแนวทางนี้
นักพัฒนาที่มีประสบการณ์หลายคนชี้ไปที่บทเรียนขม - หลักการที่แนะนำว่าวิธีการทั่วไปที่ใช้ประโยชน์จากการคำนวณมากขึ้นจะพิสูจน์ได้ว่ามีประสิทธิภาพมากที่สุด พวกเขาโต้แย้งว่าโซลูชันวิศวกรรมที่ซับซ้อนมักถูกแทนที่ด้วยแนวทางที่เรียบง่ายกว่าที่มีข้อมูลและพลังการคำนวณมากกว่า ความสงสัยนี้เกิดจากการสังเกตรูปแบบที่คล้ายกันในการวิจัย AI หลายทศวรรษ ที่ระบบที่สร้างด้วยมือที่ซับซ้อนถูกเอาชนะโดยวิธีการทางสถิติที่ขยายขนาดขึ้น
องค์ประกอบของระบบ AGI ที่เสนอ:
- บริการจัดการบริบท: กราฟความรู้ที่มีความต่อเนื่องและสามารถค้นหาได้
- บริการหน่วยความจำ: หน่วยความจำเชิงเหตุการณ์และความหมายพร้อมการรวมรวมที่เรียนรู้ได้
- เครื่องมือเวิร์กโฟลว์: การประสานงานแบบกำหนดได้ของส่วนประกอบที่มีความน่าจะเป็น
- ชั้นการประสานงานตัวแทน: ระบบตัวแทนหลายตัวพร้อมการแก้ไขข้อขัดแย้ง
- การควบคุมแบบจำลองเฉพาะทาง: แบบจำลองเฉพาะโดเมนพร้อมอินเทอร์เฟซมาตรฐาน
ปัญหาชิ้นส่วนที่หายไป
การอภิปรายเผยให้เห็นความไม่แน่นอนอย่างลึกซึ้งเกี่ยวกับสิ่งที่หายไปจริงๆ จากระบบ AI ปัจจุบัน สมาชิกในชุมชนบางคนเชื่อว่าช่องว่างนั้นเป็นเรื่องปรัชญามากกว่าเทคนิค โดยตั้งคำถามว่าเราเข้าใจจิตสำนึกหรือปัญญาดีพอที่จะออกแบบวิศวกรรมหรือไม่ คนอื่นๆ มุ่งเน้นไปที่ข้อจำกัดเชิงปฏิบัติ โดยสังเกตว่าแม้แต่งานพื้นฐานอย่างการนับที่เชื่อถือได้หรือการรักษาความจำที่สอดคล้องกันในช่วงเซสชันต่างๆ ยังคงเป็นเรื่องท้าทายสำหรับโมเดลปัจจุบัน
ปัญญาของมนุษย์วิวัฒนาการมาจากสิ่งมีชีวิตที่มีปัญญาน้อยกว่า LLMs มาก และไม่จำเป็นต้องใช้ปรัชญาใดๆ เพียงแค่การลองผิดลองถูกและการแข่งขัน
มุมมองนี้เน้นคำถามพื้นฐาน: เราสามารถลัดเลี่ยงการวิวัฒนาการนับล้านปีผ่านวิศวกรรมที่ฉลาดได้หรือไม่ หรือเราต้องเข้าใจหลักการพื้นฐานก่อน?
ความสามารถปัจจุบันเทียบกับปัญญาที่แท้จริง
ชุมชนแสดงความรู้สึกผสมผสานเกี่ยวกับความสามารถของ AI ปัจจุบัน บางคนชี้ให้เห็นว่าเครื่องมืออย่าง Claude Code แสดงให้เห็นแล้วว่าหลายคนจะพิจารณาว่าเป็น AGI พื้นฐานเมื่อไม่กี่ปีที่ผ่านมา - พวกมันสามารถวางแผน ดำเนินงานที่ซับซ้อน และรักษาบริบทในการโต้ตอบต่างๆ อย่างไรก็ตาม คนอื่นๆ โต้แย้งว่าระบบเหล่านี้เป็นตัวจับคู่รูปแบบที่ซับซ้อนมากกว่าตัวแทนที่ฉลาดอย่างแท้จริง
การถกเถียงขยายไปถึงว่าโมเดลภาษาปัจจุบันสามารถทำหน้าที่เป็นองค์ประกอบสำหรับ AGI หรือเป็นตัวแทนของแนวทางที่แตกต่างโดยพื้นฐานที่จะไม่ขยายไปสู่ปัญญาทั่วไป นักวิจารณ์สังเกตว่าสมองทางชีววิทยาไม่ต้องการข้อมูลการฝึกในระดับอินเทอร์เน็ตเพื่อพัฒนาปัญญา ซึ่งแนะนำว่าวิธีการปัจจุบันอาจไม่มีประสิทธิภาพหรือขาดข้อมูลเชิงลึกที่สำคัญ
ข้อจำกัดของโมเดล AI ปัจจุบันที่ระบุได้:
- การจัดการบริบทจำกัดอยู่ที่หลายพันโทเค็น เทียบกับประสบการณ์หลายปีของมนุษย์
- ขาดความจำที่คงอยู่ข้ามเซสชัน
- ไม่สามารถปรับปรุงความเชื่อเมื่อถูกหักล้างด้วยหลักฐาน
- ประสิทธิภาพต่ำในการจัดการสัญลักษณ์และการคำนวณที่แม่นยำ
- การใช้เหตุผลแบบหลายขั้นตอนไม่น่าเชื่อถือเนื่องจากธรรมชาติแบบสุ่ม
ความท้าทายในการนิยาม
ธีมที่เกิดขึ้นซ้ำในการอภิปรายคือการขาดคำนิยามที่ชัดเจนสำหรับ AGI เอง หากไม่มีเกณฑ์ที่ตกลงกัน จะเป็นการยากที่จะประเมินความก้าวหน้าหรือกำหนดว่าเมื่อไหร่จะบรรลุเป้าหมาย บางคนแนะนำว่า AGI ควรถูกนิยามเป็นสิ่งใดก็ตามที่สามารถแทนที่แรงงานมนุษย์ได้ ในขณะที่คนอื่นๆ จินตนาการถึงความสามารถที่ได้รับแรงบันดาลใจจากนิยายวิทยาศาสตร์มากขึ้น เช่น จิตสำนึกหรือการตระหนักรู้ในตนเอง
ความไม่แน่นอนในการนิยามนี้ทำให้การถกเถียงระหว่างวิศวกรรมกับวิทยาศาสตร์ซับซ้อนขึ้น หากเราไม่รู้ว่าเรากำลังสร้างอะไรอย่างแน่นอน เราจะกำหนดได้อย่างไรว่ามันเป็นปัญหาทางวิศวกรรมหรือต้องการการค้นพบการวิจัยพื้นฐาน? ชุมชนยังคงแตกแยกเกี่ยวกับว่าแนวทางปัจจุบันจะประสบความสำเร็จในที่สุดผ่านการปรับปรุงแบบค่อยเป็นค่อยไป หรือจำเป็นต้องมีการค้นพบใหม่ทั้งหมด
อ้างอิง: AGI is an Engineering Problem