ชุมชนปัญญาประดิษฐ์กำลังมีส่วนร่วมในการถกเถียงอย่างดุเดือดเกี่ยวกับวิธีการสื่อสารความเสี่ยงด้านความปลอดภัยของ AI ให้กับสาธารณชน การทดลองทางความคิดใหม่ที่เปรียบเทียบ AI ที่มีสติปัญญาเหนือมนุษย์กับเอเลี่ยนที่มี IQ 300 ได้จุดประกายการอภิปรายอย่างรุนแรงเกี่ยวกับว่าข้อโต้แย้งด้านความปลอดภัยของ AI ในปัจจุบันซับซ้อนเกินไปหรือเรียบง่ายเกินไป
ข้อโต้แย้งเรื่องความเสี่ยงของ AI แบบง่าย เทียบกับ แบบซับซ้อน
การถกเถียงมีจุดศูนย์กลางอยู่ที่สองแนวทางในการอธิบายความกังวลด้านความปลอดภัยของ AI ข้อโต้แย้งแบบซับซ้อนแบบดั้งเดิมเกี่ยวข้องกับแนวคิดทางเทคนิคที่ละเอียดอย่างสถานการณ์การเติบโตอย่างรวดเร็ว ความยากลำบากในการปรับแนว และเป้าหมายย่อยที่บรรจบกัน ข้อโต้แย้งแบบง่ายที่ใหม่กว่านี้ตัดรายละเอียดทางเทคนิคเหล่านี้ออกไปและถามคำถามพื้นฐาน: คุณจะกังวลหรือไม่หากเอเลี่ยน 30 ตนที่มี IQ 300 มาลงจอดบนโลกในวันพรุ่งนี้?
แนวทางที่เรียบง่ายนี้ได้แบ่งแยกชุมชน ผู้สนับสนุนโต้แย้งว่ามันตัดผ่านศัพท์เฉพาะและเข้าถึงประเด็นหลักได้อย่างมีประสิทธิภาพมากกว่า นักวิจารณ์อ้างว่ามันพึ่พาภาพลักษณ์นิยายวิทยาศาสตร์มากเกินไปและล้มเหลวในการจัดการกับความท้าทายทางเทคนิคที่แท้จริงของการพัฒนา AI
แนวทางหลักสองแนวทางในการสื่อสารเรื่องความเสี่ยงจาก AI:
การโต้แย้งแบบซับซ้อน:
- สถานการณ์การพัฒนาอย่างรวดเร็ว
- ความท้าทายในการจัดตำแหน่งความยากลำบาก
- ทฤษฎีความตั้งฉาก
- เป้าหมายย่อยที่มาบรรจบกัน
- ความได้เปรียบเชิงกลยุทธ์ที่เด็ดขาด
การโต้แย้งแบบง่าย:
- การทดลองความคิดเรื่องมนุษย์ต่างดาวที่มี IQ 300
- มุ่งเน้นไปที่ความกังวลเกี่ยวกับปัญญาทั่วไป
- หลีกเลี่ยงศัพท์เทคนิค
- ใช้ประโยชน์จากสัญชาตญาณที่มีอยู่เกี่ยวกับปัญญาที่เหนือกว่า
ปฏิกิริยาของชุมชนมีตั้งแต่ความสงสัยไปจนถึงการสนับสนุน
การอภิปรายได้เปิดเผยความขัดแย้งอย่างลึกซึ้งเกี่ยวกับทั้งลักษณะของความเสี่ยงจาก AI และวิธีการสื่อสารเหล่านั้น สมาชิกชุมชนบางคนตั้งคำถามว่าระบบ AI ปัจจุบันก่อให้เกิดภัยคุกคามต่อการดำรงอยู่หรือไม่ โดยมองว่าเป็นอัลกอริทึมการเดาที่ซับซ้อนมากกว่าสติปัญญาเหนือมนุษย์ที่มีศักยภาพ
คนอื่นๆ ชี้ไปที่คำแถลงจากนักวิจัย AI ที่มีชื่อเสียงอย่าง Geoffrey Hinton และ Yoshua Bengio ที่ได้เตือนต่อสาธารณะเกี่ยวกับความเสี่ยงจาก AI ผู้เชี่ยวชาญเหล่านี้ได้ลงนามในคำแถลงที่เรียกร้องให้ความเสี่ยงการสูญพันธุ์จาก AI เป็นความสำคัญระดับโลกควบคู่ไปกับการระบาดใหญ่และสงครามนิวเคลียร์
การพัฒนาเครื่องจักรที่มีสติปัญญาเหนือมนุษย์น่าจะเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ต่อไปของมนุษยชาติ ผู้แสดงความคิดเห็นคนหนึ่งกล่าวโดยอ้างคำพูดของ CEO OpenAI Sam Altman
บุคคลสำคัญที่เตือนเกี่ยวกับความเสี่ยงจาก AI:
- Geoffrey Hinton (อีกนักวิจัยของ Google ที่ลาออกเพื่อพูดอย่างเสรีเกี่ยวกับความเสี่ยงจาก AI)
- Yoshua Bengio (นักวิจัย AI และศาสตราจารย์)
- Sam Altman (CEO ของ OpenAI)
- Bill Gates (ผู้ก่อตั้ง Microsoft)
- Demis Hassabis (CEO ของ DeepMind)
- Ilya Sutskever (อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI)
ปัญหาการวัด IQ
ส่วนสำคัญของการถกเถียงมุ่งเน้นไปที่ข้อจำกัดของการใช้ IQ เป็นตัววัดสติปัญญา นักวิจารณ์โต้แย้งว่าคะแนน IQ เหนือ 200 นั้นไร้ความหมายโดยพื้นฐาน เนื่องจากเกินขอบเขตของการทดสอบมนุษย์ในปัจจุบัน คะแนน IQ ของมนุษย์ที่วัดได้อย่างน่าเชื่อถือสูงสุดจำกัดอยู่ที่ประมาณ 196 ทำให้ IQ 300 เป็นเหมือนคำอุปมามากกว่าเกณฑ์มาตรฐานทางวิทยาศาสตร์
การวิจารณ์ทางเทคนิคนี้เน้นย้ำถึงความท้าทายที่กว้างขึ้นในการสื่อสารความปลอดภัยของ AI: วิธีการอภิปรายเกี่ยวกับระดับสติปัญญาที่ไม่เคยมีมาก่อนโดยไม่มีกรอบการวัดที่เชื่อถือได้
ความกังวลเรื่องความเสี่ยงเชิงปฏิบัติ เทียบกับ เชิงอัตถิภาวนิยม
ชุมชนดูเหมือนจะแบ่งแยกระหว่างผู้ที่มุ่งเน้นไปที่ความเสี่ยงจาก AI เชิงปฏิบัติในทันทีและผู้ที่กังวลเกี่ยวกับภัยคุกคามต่อการดำรงอยู่ในระยะยาว ผู้สนับสนุนความเสี่ยงเชิงปฏิบัติกังวลเกี่ยวกับการแทนที่งาน อคติของอัลกอริทึม และระบบ AI ที่ทำผิดพลาดอันตรายในการประยุกต์ใช้ที่สำคัญอย่างการดูแลสุขภาพหรือการขนส่ง
ผู้สนับสนุนความเสี่ยงต่อการดำรงอยู่โต้แย้งว่าความกังวลเหล่านี้แม้จะถูกต้อง แต่ก็จางหายไปเมื่อเปรียบเทียบกับศักยภาพของ AI ที่มีสติปัญญาเหนือมนุษย์ในการเปลี่ยนแปลงหรือยุติอารยธรรมมนุษย์โดยพื้นฐาน พวกเขาโต้แย้งว่าเมื่อ AI เหนือกว่าสติปัญญามนุษย์ในทุกสาขา มาตรการความปลอดภัยแบบดั้งเดิมอาจกลายเป็นไร้ประสิทธิภาพ
จุดสำคัญของความขัดแย้ง
การถกเถียงได้เปิดเผยสิ่งที่หลายคนมองว่าเป็นความแตกแยกพื้นฐานในการอภิปรายความปลอดภัยของ AI ผู้ที่ยอมรับความเป็นไปได้ของปัญญาประดิษฐ์ทั่วไปในระดับมนุษย์มักจะมีความกังวลในระดับหนึ่งเกี่ยวกับความเสี่ยงจาก AI ผู้ที่ยังคงสงสัยเกี่ยวกับ AI ที่บรรลุสติปัญญาทั่วไปที่แท้จริงมักจะไม่สนใจความกังวลด้านความปลอดภัยว่าเป็นเรื่องก่อนกำหนดหรือเกินจริง
ความแตกแยกนี้บ่งชี้ว่าการอภิปรายความปลอดภัยของ AI ในอนาคตอาจต้องมุ่งเน้นไปที่ว่า AI ขั้นสูงเป็นไปได้หรือไม่ก่อน ก่อนที่จะจัดการกับความเสี่ยงที่อาจเกิดขึ้น การทดลองทางความคิดเรื่องเอเลี่ยน ไม่ว่าจะมีข้อดีอย่างไร ก็ประสบความสำเร็จในการเน้นย้ำความขัดแย้งหลักนี้ภายในชุมชนเทคโนโลยี
การถกเถียงที่กำลังดำเนินอยู่สะท้อนถึงความไม่แน่นอนที่กว้างขึ้นเกี่ยวกับไทม์ไลน์การพัฒนา AI ความสามารถ และระดับความระมัดระวังที่เหมาะสมในขณะที่เทคโนโลยียังคงก้าวหน้าอย่างรวดเร็ว
อ้างอิง: Y'all are over-complicating these Al-risk arguments