ชุมชนเทคโนโลยีกำลังมีส่วนร่วมในการถกเถียงอย่างเข้มข้นเกี่ยวกับว่าระบบอย่าง ChatGPT ควรจะเรียกว่าปัญญาประดิษฐ์หรือไม่ การอภิปรายนี้ได้รับแรงผลักดันหลังจากการวิพากษ์วิจารณ์ว่าระบบเหล่านี้เป็นเพียงเครื่องมือสร้างข้อความที่ซับซ้อนมากกว่าที่จะเป็นเครื่องจักรที่ฉลาดอย่างแท้จริง
ข้อโต้แย้งเรื่องเครื่องกำเนิดเรื่องไร้สาระ
นักวิจารณ์โต้แย้งว่าโมเดลภาษาขนาดใหญ่ (LLMs) อย่าง ChatGPT ไม่ได้เข้าใจสิ่งที่พวกมันผลิตออกมาจริงๆ แต่กลับทำการค้นหาเชิงความน่าจะเป็นเพื่อหาคำถัดไปที่มีโอกาสมากที่สุดตามรูปแบบในข้อมูลการฝึกอบรม กระบวนการนี้คล้ายกับเครื่องมือค้นหาขั้นสูงที่ทำนายข้อความโดยไม่เข้าใจความหมาย ความกังวลคือการเรียกระบบเหล่านี้ว่า AI ทำให้ผู้คนเข้าใจผิดและไว้วางใจมากเกินกว่าที่ควร
สมาชิกชุมชนคนหนึ่งอธิบายว่า LLMs ไม่สามารถจินตนาการหาทางแก้ไขเหมือนมนุษย์ได้ โดยอ้างอิงคำพูดที่มีชื่อเสียงของ Einstein ที่ว่าจินตนาการสำคัญกว่าความรู้ ต่างจากการแก้ปัญหาของมนุษย์ ระบบเหล่านี้พึ่งพารูปแบบข้อมูลที่มีอยู่เท่านั้น มากกว่าการใช้เหตุผลหรือความคิดสร้างสรรค์อย่างแท้จริง
ข้อโต้แย้งหลักที่ต่อต้านการเรียก ChatGPT ว่า "AI":
- ทำการทำนายข้อความแบบความน่าจะเป็นมากกว่าการเข้าใจ
- ไม่สามารถเข้าใจความหมายของผลลัพธ์ที่ตัวเองสร้างขึ้น
- พึ่งพาแพทเทิร์นของข้อมูลการฝึกที่มีอยู่เดิมทั้งหมด
- ขาดจินตนาการหรือความสามารถในการใช้เหตุผลอย่างแท้จริง
- ดำเนินการด้วย "ความไม่แยแสต่อความจริง"
ปรากฏการณ์ AI Effect
ผู้สนับสนุนโต้แย้งว่าการวิจารณ์นี้แสดงถึงกรณีคลาสสิกของการเลื่อนเสาประตู พวกเขาชี้ไปที่ AI Effect - รูปแบบที่งานต่างๆ ที่คอมพิวเตอร์เชี่ยวชาญจู่ๆ ก็ไม่ถือว่าเป็นตัวอย่างของปัญญาประดิษฐ์อีกต่อไป ปรากฏการณ์นี้เกิดขึ้นซ้ำๆ ตลอดประวัติศาสตร์คอมพิวเตอร์ ตั้งแต่โปรแกรมเล่นหมากรุกไปจนถึงระบบรู้จำเสียง
การถกเถียงสะท้อนคำถามที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับสิ่งที่ถือว่าเป็นปัญญา บางคนโต้แย้งว่าการมุ่งเน้นไปที่ว่า LLMs ฉลาดอย่างแท้จริงหรือไม่นั้นพลาดประเด็นไปโดยสิ้นเชิง โดยเปรียบเทียบกับการถกเถียงว่าฮอทดอกเป็นแซนด์วิชหรือไม่ - น่าสนใจในเชิงเทคนิคแต่ไม่เกี่ยวข้องในทางปฏิบัติ
ข้อโต้แย้งหลักที่สนับสนุน ChatGPT ในฐานะ AI:
- แสดงให้เห็น "ปรากฏการณ์ AI Effect" - การเลื่อนเป้าหมายเมื่อคอมพิวเตอร์บรรลุความสามารถใหม่ๆ
- สร้างพฤติกรรมที่ดูเหมือนมีความฉลาดโดยไม่คำนึงถึงกลไกภายใน
- การเปรียบเทียบกับการรับรู้ของมนุษย์อาจไม่ยุติธรรม เนื่องจากเราไม่เข้าใจจิตสำนึกอย่างสมบูรณ์
- ประโยชน์ใช้สอยในทางปฏิบัติสำคัญกว่าคำนิยามทางปรัชญา
- แสดงสัญญาณของการใช้เหตุผลและการตระหนักรู้ในตนเองในโมเดลรุ่นใหม่
ความกังวลเชิงปฏิบัติเทียบกับปรัชญา
ผู้ใช้หลายคนพบว่าตัวเองติดอยู่ระหว่างความกังวลเชิงปรัชญาและความต้องการในทางปฏิบัติ แม้ว่าบางคนจะยอมรับข้อจำกัดของระบบ AI ปัจจุบัน แต่พวกเขาก็ยังรับรู้ถึงประโยชน์ในการทำงานประจำวัน ความจริงคือเครื่องมือเหล่านี้ได้กลายเป็นสิ่งจำเป็นสำหรับผู้เชี่ยวชาญหลายคน โดยไม่คำนึงถึงว่าจะตรงตามคำนิยามที่เข้มงวดของปัญญาหรือไม่
ฉันจะมีประสิทธิภาพในงานน้อยกว่าคู่แข่งในตลาดงานมากหากฉันไม่ใช้ ChatGPT โดยไม่คำนึงว่ามันจะเป็นซอฟต์แวร์โอเพ่นซอร์สหรือตรงกับคำนิยามปัญญาของเขาหรือไม่
การอภิปรายยังสัมผัสประเด็นที่กว้างขึ้นเช่นเสรีภาพของซอฟต์แวร์และความเป็นส่วนตัวของข้อมูล เนื่องจากผู้ใช้ไม่สามารถรันระบบเหล่านี้ในเครื่องได้และต้องพึ่งพาเซิร์ฟเวอร์ระยะไกลที่ควบคุมโดยบริษัทต่างๆ
ปัญหาการเปรียบเทียบกับมนุษย์
บางทีแง่มุมที่น่าสนใจที่สุดของการถกเถียงนี้เกี่ยวข้องกับการเปรียบเทียบระบบ AI กับการรับรู้ของมนุษย์ บางคนโต้แย้งว่าหากเราไม่สามารถอธิบายได้อย่างสมบูรณ์ว่าปัญญาของมนุษย์ทำงานอย่างไร เราก็ไม่สามารถบอกได้อย่างแน่นอนว่า LLMs ทำงานแตกต่างออกไป คนอื่นๆ ยืนยันว่ามีความแตกต่างที่ชัดเจนระหว่างการจับคู่รูปแบบทางสถิติกับความเข้าใจอย่างแท้จริง แม้ว่าเราจะไม่สามารถวัดจิตสำนึกหรือความหมายได้อย่างแม่นยำ
การแบ่งแยกเชิงปรัชญานี้ยังคงกำหนดรูปแบบวิธีที่สังคมเข้าหาการพัฒนาและการควบคุม AI เมื่อระบบเหล่านี้ซับซ้อนมากขึ้น คำถามเรื่องสิ่งที่ถือว่าเป็นปัญญาจริงจึงมีความสำคัญมากขึ้นทั้งสำหรับการพัฒนาเทคนิคและนโยบายสาธารณะ
การถกเถียงไม่แสดงสัญญาณของการแก้ไข โดยทั้งสองฝ่ายนำเสนอข้อโต้แย้งที่น่าสนใจเกี่ยวกับธรรมชาติของปัญญา ความเข้าใจ และอนาคตของระบบประดิษฐ์ในสังคมมนุษย์
อ้างอิง: Reasons not to use ChatGPT