อุตสาหกรรมปัญญาประดิษฐ์เผชิญกับการวิพากษ์วิจารณ์ที่เพิ่มขึ้นสำหรับการจงใจจำกัดขอบเขตของการอภิปรายจริยธรรม AI โดยนำความสนใจของสาธารณะออกห่างจากประเด็นกังวลเร่งด่วนไปสู่สถานการณ์จมตัวนิยายวิทยาศาสตร์ที่เป็นนามธรรมมากกว่า ซึ่งไม่ก่อให้เกิดภัยคุกคามต่อผลประโยชน์ของบรรษัท
กลยุทธ์การนิยามใหม่ครั้งใหญ่
บริษัทเทคโนโลยีได้ประสบความสำเร็จในการกำหนดกรอบจริยธรรม AI ใหม่ให้หมุนรอบความเสี่ยงในอนาคตที่เป็นสมมติฐานแทนที่จะเป็นประเด็นความรับผิดชอบในปัจจุบัน ในขณะที่สาธารณะกังวลเรื่องการแทนที่งาน การใช้ข้อมูลในทางที่ผิด และการรวมอำนาจของบรรษัท บริษัทต่างๆ กลับมุ่งเน้นทรัพยากรไปที่การป้องกันไม่ให้โมเดล AI สร้างเนื้อหาที่น่ารังเกียจหรือกรณีขอบปรัชญา สิ่งนี้สะท้อนถึงวิธีที่อุตสาหกรรมเทคโนโลยีจัดการกับความกังวลเรื่องความเป็นส่วนตัวในช่วงทศวรรษ 1990 เมื่อบริษัทต่างๆ เปลี่ยนโฟกัสจาก เราทำอะไรกับข้อมูลของคุณ ไปเป็น เราไม่แบ่งปันกับบุคคลที่สาม ซึ่งเป็นความจริงทางเทคนิคแต่ไร้ความหมายในทางปฏิบัติ เนื่องจากกลยุทธ์การซื้อกิจการและการควบรวมกิจการทำให้การแบ่งปันข้อมูลไม่เกี่ยวข้อง
ชุมชนได้สังเกตเห็นว่ารูปแบบนี้ขยายไปไกลกว่าการเบี่ยงเบนความสนใจอย่างง่ายๆ ผู้สังเกตการณ์คนหนึ่งชี้ให้เห็นถึงความขัดแย้งระหว่างวาทกรรมความปลอดภัย AI และความสามารถทางเทคนิค โดยชี้ให้เห็นช่องว่างพื้นฐานระหว่างผู้ที่ตัดสินใจนโยบายและผู้ที่มีความเชี่ยวชาญทางเทคนิคจริงในการดำเนินการป้องกันที่มีความหมาย
เส้นเวลาคู่ขนานระหว่างความเป็นส่วนตัวกับจริยธรรม AI
- ทศวรรษ 1990: การต่อต้านการตลาดทางโทรศัพท์นำไปสู่คำสัญญา "ไม่แบ่งปันข้อมูลกับบุคคลที่สาม"
- ความเป็นจริง: บริษัทต่างๆ หลีกเลี่ยงการแบ่งปันโดยการขายธุรกิจ/ชุดข้อมูลทั้งหมด
- ทศวรรษ 2020: จริยธรรม AI มุ่งเน้นไปที่การควบคุมเนื้อหาและความเสี่ยงเชิงสมมติฐาน
- ความเป็นจริง: ประเด็นหลักเรื่องการใช้ข้อมูล การแทนที่งาน และอำนาจของบริษัทยังคงไม่ได้รับการแก้ไข
ความสามารถทางเทคนิค vs การแสดงละครนโยบาย
ความแตกแยกที่สำคัญได้เกิดขึ้นระหว่างนักวิจัย AI ที่มีทักษะทางเทคนิคและผู้เชี่ยวชาญด้านจริยธรรมที่มุ่งเน้นนโยบาย การอภิปรายในชุมชนเผยให้เห็นความหงุดหงิดกับความคิดริเริ่มด้านความปลอดภัยที่นำโดยบุคคลที่ขาดทักษะทางเทคนิคพื้นฐาน ทำให้เกิดคำถามเกี่ยวกับความสามารถของพวกเขาในการจัดการกับความเสี่ยง AI ที่แท้จริง สิ่งนี้สร้างสถานการณ์อันตรายที่ผู้รับผิดชอบความปลอดภัย AI อาจไม่พร้อมที่จะจัดการกับเหตุฉุกเฉินทางเทคนิคจริงหรือความล้มเหลวของระบบ
การมุ่งเน้นไปที่การควบคุมเนื้อหาและการกรองผลลัพธ์กินทรัพยากรมหาศาลในขณะที่ล้มเหลวในการจัดการกับความกังวลด้านความปลอดภัยหลัก การป้องกันเหล่านี้ถูกเลี่ยงผ่านได้อย่างสม่ำเสมอผ่าน jailbreak prompts ทำให้ความพยายามทั้งหมดดูเหมือนการแสดงละครความปลอดภัยมากกว่าการลดความเสี่ยงอย่างแท้จริง
ปัญหาการปรับตัวที่ถูกเปลี่ยนทิศทาง
บางทีสิ่งที่บ่งบอกมากที่สุดคืออุตสาหกรรมได้ดึงความกังวลที่ชอบธรรมเกี่ยวกับการปรับตัวของ AI มาใช้ - การรับประกันว่าระบบ AI จะให้บริการผลประโยชน์ของมนุษย์แทนที่จะเป็นเป้าหมายของตัวเอง อย่างไรก็ตาม ปัญหาการปรับตัวที่แท้จริงอาจไม่ใช่ระหว่างมนุษย์และเครื่องจักร แต่เป็นระหว่างผลประโยชน์ของบรรษัทและสวัสดิการสาธารณะ บริษัทที่ได้รับเงินทุนจากรัฐบาลจำนวนมหาศาล การเข้าถึงข้อมูลไม่จำกัด และการเคารพกฎระเบียบ เผชิญกับการกำกับดูแลเพียงเล็กน้อยเกี่ยวกับวิธีที่พวกเขาใช้ทรัพยากรเหล่านี้
หากเราให้บริษัทต่างๆ ได้รับการโฆษณาชวนเชื่อไม่รู้จบ ทรัพยากรรัฐบาลและวิทยาศาสตร์เกือบไม่จำกัด ข้อมูลส่วนบุคคลทั้งหมดของเรารวมถึงความคิดและรูปแบบพฤติกรรม เราจะรู้ได้อย่างไรว่าผู้นำของพวกเขาจะทำในสิ่งที่เราต้องการ และจะไม่พยายามโค่นล้มเราและเข้าครอบครองโลก
แนวทางปัจจุบันถือว่าจริยธรรม AI เป็นปัญหาทางเทคนิคที่ต้องการการแก้ไขด้วยอัลกอริทึม ในขณะที่ความเสี่ยงหลักเกิดจากการตัดสินใจของมนุษย์เกี่ยวกับการปรับใช้ AI การเก็บรวบรวมข้อมูล และการรวมตัวของตลาด
การเปรียบเทียบพื้นที่โฟกัสด้านความปลอดภัยของ AI
ลำดับความสำคัญของบริษัท | ความกังวลของสาธารณะ | ความเป็นจริงทางเทคนิค |
---|---|---|
การกรองเนื้อหา | การแทนที่งาน | การ Jailbreak สามารถข้ามตัวกรองได้ |
ความเสี่ยงของ AGI ในเชิงสมมติฐาน | ความเป็นส่วนตัวของข้อมูล | โมเดลที่ถูกฝึกด้วยข้อมูลที่ดึงมา |
การปรับตัวเข้ากับปรัชญา | ความรับผิดชอบของบริษัท | การกำกับดูแลที่จำกัด |
การแสดงความปลอดภัยที่เป็นมิตรต่อ PR | การผูกขาดตลาด | พลวัตของผู้ชนะคือผู้ได้ทั้งหมด |
การต่อต้านของชุมชนและแนวทางทางเลือก
ชุมชนเทคโนโลยีกำลังสนับสนุนการแก้ไขปัญหาเชิงปฏิบัติมากกว่ากรอบทฤษฎีมากขึ้น ผู้ใช้บางคนหันไปใช้โมเดล AI ในเครื่องที่ไม่ถูกเซ็นเซอร์เพื่อหลีกเลี่ยงข้อจำกัดด้านจริยธรรมที่บริษัทกำหนด โดยถือว่าเครื่องมือ AI เหมือนเครื่องคิดเลขหรือโปรแกรมแก้ไขข้อความ - เครื่องมือที่มีประโยชน์ที่ควรปฏิบัติตามคำสั่งของผู้ใช้โดยไม่มีการตัดสินทางศีลธรรม
การพัฒนาโอเพนซอร์สกำลังเป็นแรงถ่วงดุลที่มีศักยภาพ โดยกระจายความสามารถ AI อย่างกว้างขวางมากขึ้นและป้องกันพลวัตตลาดแบบผู้ชนะเอาทั้งหมด แนวทางนี้จัดการกับความกังวลเรื่องการรวมอำนาจได้อย่างมีประสิทธิภาพมากกว่าการกรองเนื้อหาหรือการอภิปรายปรัชญาเกี่ยวกับจิตสำนึกของหุ่นยนต์
หน้าต่างสำหรับการกำกับดูแล AI ที่มีความหมายอาจกำลังปิดลงอย่างรวดเร็ว เมื่อ AI กลายเป็นส่วนหนึ่งของระบบเศรษฐกิจอย่างลึกซึ้ง การดำเนินการกฎระเบียบที่มีอำนาจบังคับใช้จริงกลายเป็นเรื่องยากขึ้นเรื่อยๆ ช่วงเวลาปัจจุบันแสดงให้เห็นถึงโอกาสสุดท้ายที่จะสร้างกรอบที่ให้ความสำคัญกับผลประโยชน์สาธารณะมากกว่าความสะดวกของบรรษัทในการพัฒนาและการปรับใช้ AI
อ้างอิง: AI Ethics is being narrowed on purpose - Just like privacy was