การสนับสนุนร่างกฎหมายควบคุม AI ของ California SB 53 จาก Anthropic ได้จุดประกายการถกเถียงอย่างรุนแรงในชุมชนเทคโนโลยีว่าบริษัทกำลังส่งเสริมความปลอดภัยอย่างแท้จริงหรือมีส่วนร่วมในการควบคุมกิจการเพื่อขัดขวางการแข่งขัน ร่างกฎหมายนี้จะกำหนดให้บริษัท AI ขนาดใหญ่เผยแพร่กรอบความปลอดภัย รายงานเหตุการณ์ และจัดหาการคุ้มครองผู้แจ้งเบาะแส ซึ่งเป็นข้อกำหนดที่สอดคล้องกับสิ่งที่ Anthropic ดำเนินการอยู่แล้ว
ข้อกำหนดสำคัญของ SB 53:
- พัฒนาและเผยแพร่กรอบความปลอดภัยสำหรับการจัดการความเสี่ยงร้ายแรง
- เผยแพร่รายงานความโปร่งใสต่อสาธารณะก่อนการนำโมเดลที่มีประสิทธิภาพสูงมาใช้งาน
- รายงานเหตุการณ์ด้านความปลอดภัยที่สำคัญต่อรัฐภายใน 15 วัน
- จัดหาการคุ้มครองผู้แจ้งเบาะแสสำหรับการละเมิดด้านความปลอดภัย
- เผชิญกับการลงโทษทางการเงินสำหรับการละเมิดกรอบความปลอดภัย
- ใช้กับโมเดลที่ได้รับการฝึกฝนด้วย 10^26 FLOPS หรือมากกว่า
ความสงสัยของชุมชนเกี่ยวกับการควบคุมกิจการ
ชุมชนเทคโนโลยีตอบสนองด้วยความสงสัยอย่างแพร่หลายต่อการสนับสนุนกฎหมายของ Anthropic หลายคนมองว่านี่เป็นกรณีคลาสสิกของการควบคุมกิจการ ที่บริษัทที่มีฐานะมั่นคงสนับสนุนกฎระเบียบที่ทำให้แนวปฏิบัติที่มีอยู่ของพวกเขาเป็นทางการ ขณะเดียวกันก็สร้างอุปสรรคสำหรับคู่แข่งใหม่ การวิจารณ์มุ่งเน้นไปที่การสังเกตว่าเมื่อบริษัทสนับสนุนกฎระเบียบที่พวกเขาต้องปฏิบัติตาม มักจะเป็นสัญญาณว่ากฎเหล่านั้นไม่ได้สร้างภาระให้พวกเขาหรือช่วยกำจัดการแข่งขันได้จริง
อย่างไรก็ตาม สถานการณ์ไม่ได้ตรงไปตรงมาทั้งหมด สมาชิกชุมชนบางคนชี้ให้เห็นว่า OpenAI และบริษัทเวนเจอร์แคปปิตอล Andreessen Horowitz กำลังต่อต้านร่างกฎหมายนี้ ซึ่งทำให้ทฤษฎีต่อต้านการแข่งขันง่ายๆ ซับซ้อนขึ้น การแบ่งแยกระหว่างผู้เล่นหลักนี้บ่งบอกว่าภูมิทัศน์กฎระเบียบอาจมีความละเอียดอ่อนมากกว่าการประสานงานในอุตสาหกรรมแบบบริสุทธิ์
ตำแหน่งของอุตสาหกรรมต่อ SB 53:
- สนับสนุน: Anthropic
- คัดค้าน: OpenAI, Andreessen Horowitz (A16Z)
- ได้ดำเนินการแนวทางปฏิบัติที่คล้ายกันแล้ว: Google DeepMind, Microsoft
- ได้รับการยกเว้น: สตาร์ทอัพและบริษัทขนาดเล็กที่ไม่น่าจะพัฒนาโมเดลที่มีประสิทธิภาพสูง
ข้อกังวลทางเทคนิคและความสามารถของ AI ปัจจุบัน
ส่วนสำคัญของการอภิปรายมุ่งเน้นไปที่ว่าโมเดล AI ปัจจุบันก่อให้เกิดความเสี่ยงร้ายแรงที่ SB 53 มุ่งแก้ไขจริงหรือไม่ นักวิจารณ์โต้แย้งว่าโมเดลที่มีอยู่ยังไม่ใกล้เคียงกับความสามารถในการสร้างเหตุการณ์ที่มีผู้เสียชีวิตจำนวนมากหรือความเสียหายทางการเงินที่มีนัยสำคัญ ทำให้กรอบกฎระเบียบเป็นระบบราชการที่เร็วเกินไป พวกเขาโต้แย้งว่าโมเดลที่ทรงพลังมีอยู่แล้วและสามารถทำงานบนฮาร์ดแวร์ผู้บริโภคได้โดยไม่มีปัญหาใหญ่
โมเดลรุ่นปัจจุบันยังไม่ใกล้เคียงกับความสามารถในการสร้างผลลัพธ์ที่เป็นหายนะใดๆ
ผู้สนับสนุนโต้แย้งว่าโมเดลที่ไม่มีข้อจำกัดพร้อมกับพลังคอมพิวติ้งที่เพียงพออาจสร้างปัญหาที่ไม่เคยมีมาก่อน และการควบคุมเชิงรุกดีกว่าการตอบสนองเชิงรับหลังจากเหตุการณ์เกิดขึ้น
ผลกระทบต่อภูมิทัศน์การแข่งขัน
การถกเถียงเผยให้เห็นข้อกังวลที่ลึกซึ้งยิ่งขึ้นเกี่ยวกับวิธีที่กฎระเบียบอาจปรับโครงสร้างอุตสาหกรรม AI ใหม่ สมาชิกชุมชนกังวลว่าการวางตำแหน่งที่เน้นความปลอดภัยของ Anthropic ทำหน้าที่เป็นทั้งกลยุทธ์การตลาดและคูการแข่งขัน ด้วยการสร้างตัวเองเป็นบริษัท AI ที่ปลอดภัยในขณะเดียวกันก็ฝึกโมเดลที่ล้ำสมัย นักวิจารณ์โต้แย้งว่าพวกเขากำลังได้ประโยชน์ทั้งสองทาง - อ้างสิทธิ์ในจุดยืนทางศีลธรรมขณะเดียวกันก็ติดตามความก้าวหน้าทางเทคโนโลยีเดียวกันกับคู่แข่ง
เกณฑ์ 10^26 FLOPS สำหรับการควบคุมโดยเฉพาะดึงดูดการวิจารณ์ว่าอาจเป็นการกำหนดโดยพลการ โดยมีข้อกังวลว่าอาจพลาดโมเดลที่ทรงพลังบางตัวในขณะที่สร้างภาระต้นทุนการปฏิบัติตามกฎระเบียบให้กับตัวอื่นโดยไม่จำเป็น ข้อกำหนดทางเทคนิคนี้กลายเป็นสิ่งสำคัญในการกำหนดว่าบริษัทใดต้องเผชิญกับต้นทุนการปฏิบัติตามกฎระเบียบ
ผลกระทบต่ออุตสาหกรรมในวงกว้าง
ความขัดแย้งขยายไปเกินกว่าแค่ร่างกฎหมายหนึ่งฉบับไปสู่คำถามเกี่ยวกับวิธีที่อุตสาหกรรม AI ควรได้รับการกำกับดูแล บางคนมอง Pentagon partnerships ล่าสุดของ Anthropic ว่าขัดแย้งกับวาทกรรมความปลอดภัยของพวกเขา โดยมองว่าเป็นหลักฐานว่าการอ้างความปลอดภัย AI ของบริษัทเป็นหลักการตลาดมากกว่าหลักการแท้จริง คนอื่นโต้แย้งว่าการทำงานกับหน่วยงานกลาโหมสอดคล้องกับการพัฒนา AI อย่างรับผิดชอบ
การอภิปรายสะท้อนความตึงเครียดในวงกว้างในชุมชนเทคโนโลยีระหว่างผู้ที่เชื่อว่าการพัฒนา AI ต้องการการกำกับดูแลและผู้ที่มองว่ากฎระเบียบที่เสนอส่วนใหญ่เป็นอุปสรรคที่เร็วเกินไปต่อนวัตกรรม ขณะที่ความสามารถของ AI ยังคงก้าวหน้าอย่างรวดเร็ว การถกเถียงเกี่ยวกับกรอบการกำกับดูแลที่เหมาะสมนี้มีแนวโน้มที่จะทวีความรุนแรงขึ้นในหลายเขตอำนาจศาล
อ้างอิง: Anthropic is endorsing SB 53