การถกเถียงเรื่องความปลอดภัยของ AI แบ่งแยกชุมชนเทคโนโลยีเกี่ยวกับการทดลองทางความคิด "เอเลี่ยน IQ 300"

ทีมชุมชน BigGo
การถกเถียงเรื่องความปลอดภัยของ AI แบ่งแยกชุมชนเทคโนโลยีเกี่ยวกับการทดลองทางความคิด "เอเลี่ยน IQ 300"

ชุมชนปัญญาประดิษฐ์กำลังมีส่วนร่วมในการถกเถียงอย่างดุเดือดเกี่ยวกับวิธีการสื่อสารความเสี่ยงด้านความปลอดภัยของ AI ให้กับสาธารณชน การทดลองทางความคิดใหม่ที่เปรียบเทียบ AI ที่มีสติปัญญาเหนือมนุษย์กับเอเลี่ยนที่มี IQ 300 ได้จุดประกายการอภิปรายอย่างรุนแรงเกี่ยวกับว่าข้อโต้แย้งด้านความปลอดภัยของ AI ในปัจจุบันซับซ้อนเกินไปหรือเรียบง่ายเกินไป

ข้อโต้แย้งเรื่องความเสี่ยงของ AI แบบง่าย เทียบกับ แบบซับซ้อน

การถกเถียงมีจุดศูนย์กลางอยู่ที่สองแนวทางในการอธิบายความกังวลด้านความปลอดภัยของ AI ข้อโต้แย้งแบบซับซ้อนแบบดั้งเดิมเกี่ยวข้องกับแนวคิดทางเทคนิคที่ละเอียดอย่างสถานการณ์การเติบโตอย่างรวดเร็ว ความยากลำบากในการปรับแนว และเป้าหมายย่อยที่บรรจบกัน ข้อโต้แย้งแบบง่ายที่ใหม่กว่านี้ตัดรายละเอียดทางเทคนิคเหล่านี้ออกไปและถามคำถามพื้นฐาน: คุณจะกังวลหรือไม่หากเอเลี่ยน 30 ตนที่มี IQ 300 มาลงจอดบนโลกในวันพรุ่งนี้?

แนวทางที่เรียบง่ายนี้ได้แบ่งแยกชุมชน ผู้สนับสนุนโต้แย้งว่ามันตัดผ่านศัพท์เฉพาะและเข้าถึงประเด็นหลักได้อย่างมีประสิทธิภาพมากกว่า นักวิจารณ์อ้างว่ามันพึ่พาภาพลักษณ์นิยายวิทยาศาสตร์มากเกินไปและล้มเหลวในการจัดการกับความท้าทายทางเทคนิคที่แท้จริงของการพัฒนา AI

แนวทางหลักสองแนวทางในการสื่อสารเรื่องความเสี่ยงจาก AI:

การโต้แย้งแบบซับซ้อน:

  • สถานการณ์การพัฒนาอย่างรวดเร็ว
  • ความท้าทายในการจัดตำแหน่งความยากลำบาก
  • ทฤษฎีความตั้งฉาก
  • เป้าหมายย่อยที่มาบรรจบกัน
  • ความได้เปรียบเชิงกลยุทธ์ที่เด็ดขาด

การโต้แย้งแบบง่าย:

  • การทดลองความคิดเรื่องมนุษย์ต่างดาวที่มี IQ 300
  • มุ่งเน้นไปที่ความกังวลเกี่ยวกับปัญญาทั่วไป
  • หลีกเลี่ยงศัพท์เทคนิค
  • ใช้ประโยชน์จากสัญชาตญาณที่มีอยู่เกี่ยวกับปัญญาที่เหนือกว่า

ปฏิกิริยาของชุมชนมีตั้งแต่ความสงสัยไปจนถึงการสนับสนุน

การอภิปรายได้เปิดเผยความขัดแย้งอย่างลึกซึ้งเกี่ยวกับทั้งลักษณะของความเสี่ยงจาก AI และวิธีการสื่อสารเหล่านั้น สมาชิกชุมชนบางคนตั้งคำถามว่าระบบ AI ปัจจุบันก่อให้เกิดภัยคุกคามต่อการดำรงอยู่หรือไม่ โดยมองว่าเป็นอัลกอริทึมการเดาที่ซับซ้อนมากกว่าสติปัญญาเหนือมนุษย์ที่มีศักยภาพ

คนอื่นๆ ชี้ไปที่คำแถลงจากนักวิจัย AI ที่มีชื่อเสียงอย่าง Geoffrey Hinton และ Yoshua Bengio ที่ได้เตือนต่อสาธารณะเกี่ยวกับความเสี่ยงจาก AI ผู้เชี่ยวชาญเหล่านี้ได้ลงนามในคำแถลงที่เรียกร้องให้ความเสี่ยงการสูญพันธุ์จาก AI เป็นความสำคัญระดับโลกควบคู่ไปกับการระบาดใหญ่และสงครามนิวเคลียร์

การพัฒนาเครื่องจักรที่มีสติปัญญาเหนือมนุษย์น่าจะเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ต่อไปของมนุษยชาติ ผู้แสดงความคิดเห็นคนหนึ่งกล่าวโดยอ้างคำพูดของ CEO OpenAI Sam Altman

บุคคลสำคัญที่เตือนเกี่ยวกับความเสี่ยงจาก AI:

  • Geoffrey Hinton (อีกนักวิจัยของ Google ที่ลาออกเพื่อพูดอย่างเสรีเกี่ยวกับความเสี่ยงจาก AI)
  • Yoshua Bengio (นักวิจัย AI และศาสตราจารย์)
  • Sam Altman (CEO ของ OpenAI)
  • Bill Gates (ผู้ก่อตั้ง Microsoft)
  • Demis Hassabis (CEO ของ DeepMind)
  • Ilya Sutskever (อดีตหัวหน้านักวิทยาศาสตร์ของ OpenAI)

ปัญหาการวัด IQ

ส่วนสำคัญของการถกเถียงมุ่งเน้นไปที่ข้อจำกัดของการใช้ IQ เป็นตัววัดสติปัญญา นักวิจารณ์โต้แย้งว่าคะแนน IQ เหนือ 200 นั้นไร้ความหมายโดยพื้นฐาน เนื่องจากเกินขอบเขตของการทดสอบมนุษย์ในปัจจุบัน คะแนน IQ ของมนุษย์ที่วัดได้อย่างน่าเชื่อถือสูงสุดจำกัดอยู่ที่ประมาณ 196 ทำให้ IQ 300 เป็นเหมือนคำอุปมามากกว่าเกณฑ์มาตรฐานทางวิทยาศาสตร์

การวิจารณ์ทางเทคนิคนี้เน้นย้ำถึงความท้าทายที่กว้างขึ้นในการสื่อสารความปลอดภัยของ AI: วิธีการอภิปรายเกี่ยวกับระดับสติปัญญาที่ไม่เคยมีมาก่อนโดยไม่มีกรอบการวัดที่เชื่อถือได้

ความกังวลเรื่องความเสี่ยงเชิงปฏิบัติ เทียบกับ เชิงอัตถิภาวนิยม

ชุมชนดูเหมือนจะแบ่งแยกระหว่างผู้ที่มุ่งเน้นไปที่ความเสี่ยงจาก AI เชิงปฏิบัติในทันทีและผู้ที่กังวลเกี่ยวกับภัยคุกคามต่อการดำรงอยู่ในระยะยาว ผู้สนับสนุนความเสี่ยงเชิงปฏิบัติกังวลเกี่ยวกับการแทนที่งาน อคติของอัลกอริทึม และระบบ AI ที่ทำผิดพลาดอันตรายในการประยุกต์ใช้ที่สำคัญอย่างการดูแลสุขภาพหรือการขนส่ง

ผู้สนับสนุนความเสี่ยงต่อการดำรงอยู่โต้แย้งว่าความกังวลเหล่านี้แม้จะถูกต้อง แต่ก็จางหายไปเมื่อเปรียบเทียบกับศักยภาพของ AI ที่มีสติปัญญาเหนือมนุษย์ในการเปลี่ยนแปลงหรือยุติอารยธรรมมนุษย์โดยพื้นฐาน พวกเขาโต้แย้งว่าเมื่อ AI เหนือกว่าสติปัญญามนุษย์ในทุกสาขา มาตรการความปลอดภัยแบบดั้งเดิมอาจกลายเป็นไร้ประสิทธิภาพ

จุดสำคัญของความขัดแย้ง

การถกเถียงได้เปิดเผยสิ่งที่หลายคนมองว่าเป็นความแตกแยกพื้นฐานในการอภิปรายความปลอดภัยของ AI ผู้ที่ยอมรับความเป็นไปได้ของปัญญาประดิษฐ์ทั่วไปในระดับมนุษย์มักจะมีความกังวลในระดับหนึ่งเกี่ยวกับความเสี่ยงจาก AI ผู้ที่ยังคงสงสัยเกี่ยวกับ AI ที่บรรลุสติปัญญาทั่วไปที่แท้จริงมักจะไม่สนใจความกังวลด้านความปลอดภัยว่าเป็นเรื่องก่อนกำหนดหรือเกินจริง

ความแตกแยกนี้บ่งชี้ว่าการอภิปรายความปลอดภัยของ AI ในอนาคตอาจต้องมุ่งเน้นไปที่ว่า AI ขั้นสูงเป็นไปได้หรือไม่ก่อน ก่อนที่จะจัดการกับความเสี่ยงที่อาจเกิดขึ้น การทดลองทางความคิดเรื่องเอเลี่ยน ไม่ว่าจะมีข้อดีอย่างไร ก็ประสบความสำเร็จในการเน้นย้ำความขัดแย้งหลักนี้ภายในชุมชนเทคโนโลยี

การถกเถียงที่กำลังดำเนินอยู่สะท้อนถึงความไม่แน่นอนที่กว้างขึ้นเกี่ยวกับไทม์ไลน์การพัฒนา AI ความสามารถ และระดับความระมัดระวังที่เหมาะสมในขณะที่เทคโนโลยียังคงก้าวหน้าอย่างรวดเร็ว

อ้างอิง: Y'all are over-complicating these Al-risk arguments