Anthropic ปฏิเสธแก้ไขข้อกำหนดโมเดล AI เพื่อให้รัฐบาลสหรัฐใช้ในการเฝ้าระวัง

ทีมชุมชน BigGo
Anthropic ปฏิเสธแก้ไขข้อกำหนดโมเดล AI เพื่อให้รัฐบาลสหรัฐใช้ในการเฝ้าระวัง

Anthropic มีรายงานว่าปฏิเสธที่จะแก้ไขข้อกำหนดการให้บริการเพื่ออนุญาตให้หน่วยงานรัฐบาลสหรัฐใช้โมเดล AI Claude ในกิจกรรมการเฝ้าระวังภายในประเทศ การปฏิเสธนี้ได้จุดประกายการอภิปรายอย่างมีนัยสำคัญในชุมชนเทคโนโลยีเกี่ยวกับความสมดุลระหว่างหลักการความปลอดภัยของ AI และสัญญากับรัฐบาล

สถานการณ์นี้ดูเหมือนจะเกิดจากการเจรจาสัญญาตามปกติที่หน่วยงานรัฐบาลต้องการใช้ Claude เพื่อวัตถุประสงค์ต่างๆ รวมถึงบางอย่างที่จะอยู่ภายใต้ข้อจำกัดปัจจุบันของ Anthropic เกี่ยวกับกิจกรรมการเฝ้าระวัง ซึ่งแตกต่างจากคู่แข่งบางราย Anthropic ยังคงรักษาข้อจำกัดที่กว้างขึ้นโดยไม่มีข้อยกเว้นเฉพาะสำหรับกิจกรรมของหน่วยงานบังคับใช้กฎหมาย

ผู้เล่นหลักและตำแหน่งท่าที:

  • Anthropic: รักษาข้อจำกัดการเฝ้าระวังในวงกว้างโดยไม่มีข้อยกเว้นสำหรับหน่วงานบังคับใช้กฎหมาย
  • OpenAI: ห้าม "การเฝ้าติดตามบุคคลโดยไม่ได้รับอนุญาต" (หมายถึงยินยอมให้มีการเฝ้าติดตามตามกฎหมาย)
  • Microsoft: จำกัด "การเฝ้าระวังอย่างต่อเนื่องหรือการระบุตัวตนแบบเรียลไทม์โดยไม่มีความยินยอมที่ถูกต้อง"
  • รัฐบาลสหรัฐฯ: กำลังแสวงหาเงื่อนไขที่ปรับเปลี่ยนสำหรับการใช้งาน AI ที่เกี่ยวข้องกับการเฝ้าระวัง
การอภิปรายเกี่ยวกับจริยธรรม AI และสัญญาของรัฐบาลขณะที่ Anthropic ปฏิเสธการแก้ไขข้อกำหนดการให้บริการ
การอภิปรายเกี่ยวกับจริยธรรม AI และสัญญาของรัฐบาลขณะที่ Anthropic ปฏิเสธการแก้ไขข้อกำหนดการให้บริการ

การเจรจาสัญญา เทียบกับ จุดยืนหลักการ

ผู้สังเกตการณ์ในชุมชนมีความเห็นแตกต่างกันว่าสิ่งนี้แสดงถึงจุดยืนทางจริยธรรมที่แท้จริงหรือเป็นเพียงการเจรจาทางธุรกิจมาตรฐาน บางคนมองว่าเป็นการอภิปรายสัญญาของรัฐบาลกลางทั่วไปที่หน่วยงานพยายามแก้ไขข้อกำหนดและบริษัทต่อต้าน ความจริงอาจไม่ได้ดราม่าเท่าที่รายงานในตอนแรก โดยมีผู้แสดงความเห็นคนหนึ่งระบุว่าสิ่งนี้อ่านเหมือนการเจรจาสัญญาของรัฐบาลกลางทั่วไปที่มีล้อเสียงอยู่ที่ไหนสักแห่ง

สถานการณ์นี้เน้นย้ำถึงวิธีที่บริษัท AI กำลังนำทางในภูมิทัศน์ที่ซับซ้อนของสัญญารัฐบาลในขณะที่รักษาหลักการจริยธรรมที่ระบุไว้ โมเดลของ Anthropic มีอยู่แล้วผ่านตลาดกลางของรัฐบาลกลาง ซึ่งบ่งบอกว่าบริษัทไม่ได้คัดค้านการใช้งานของรัฐบาลโดยสิ้นเชิง

ข้อจำกัดการใช้งานทั่วทั้งอุตสาหกรรม

การอภิปรายเผยให้เห็นว่าข้อจำกัดการใช้งานในสัญญาซอฟต์แวร์ไม่ใช่เรื่องผิดปกติ ใบอนุญาตซอฟต์แวร์แบบดั้งเดิมหลายรายการมีข้อจำกัดที่คล้ายกัน โดยเฉพาะสำหรับการใช้งานที่มีความปลอดภัยเป็นสำคัญหรือการใช้งานทางทหาร แม้แต่ภาษาโปรแกรมมิ่งทั่วไปอย่าง Java ก็รวมถึงคำเตือนเกี่ยวกับการใช้ในสถานที่นิวเคลียร์ การนำทางอากาศยาน หรือระบบอาวุธ

ทุกอย่างเป็นอันตรายโดยค่าเริ่มต้น นั่นคือประเด็น

แนวทางการป้องกันความรับผิดทางกฎหมายนี้ขยายไปทั่วทั้งอุตสาหกรรมซอฟต์แวร์ ที่บริษัทต่างๆ จำกัดการใช้งานบางอย่างเป็นประจำเพื่อหลีกเลี่ยงความเสี่ยงทางกฎหมายและรักษาการควบคุมวิธีการใช้งานผลิตภัณฑ์ของตน

ตัวอย่างข้อจำกัดในสัญญา:

  • คำเตือนเทคโนโลยี Java เกี่ยวกับการใช้งานในสิ่งอำนวยความสะดวกนิวเคลียร์ การนำทางอากาศยาน ระบบอาวุธ
  • ข้อห้าม iTunes เกี่ยวกับการพัฒนาขีปนาวุธหรือการผลิตอาวุธนิวเคลียร์/เคมี/ชีวภาพ
  • ข้อกำหนดใบอนุญาต JSLint "ต้องใช้เพื่อสิ่งดี ไม่ใช่เพื่อความชั่วร้าย"
  • ข้อกำหนดการรับรองซอฟต์แวร์ที่มีความสำคัญต่อความปลอดภัยของ DoD (การจัดอันดับ LOR , แนวทาง DoD 882 )

ความท้าทายในการจัดซื้อของรัฐบาล

เหตุการณ์นี้เผยให้เห็นความซับซ้อนของการจัดซื้อซอฟต์แวร์ของรัฐบาลสมัยใหม่ หน่วยงานรัฐบาลกลางโดยทั่วไปมีทีมเฉพาะที่ตรวจสอบข้อกำหนดสัญญาทุกข้ออย่างรอบคอบและขอคำชี้แจงเกี่ยวกับภาษาเฉพาะ กระบวนการตรวจสอบอย่างละเอียดนี้บ่งบอกว่าหน่วยงานตระหนักดีถึงข้อจำกัดก่อนที่จะลงนามในข้อตกลง

อย่างไรก็ตาม การเพิ่มขึ้นของบริการ AI ได้นำมาซึ่งความท้าทายใหม่ ซึ่งแตกต่างจากการซื้อซอฟต์แวร์แบบดั้งเดิม โมเดล AI-as-a-service ให้ผู้ให้บริการมองเห็นการใช้งานผลิตภัณฑ์ของตนอย่างต่อเนื่อง ซึ่งอาจทำให้พวกเขาสามารถบังคับใช้ข้อจำกัดแบบเรียลไทม์ได้

ผลกระทบที่กว้างขึ้นต่อการกำกับดูแล AI

ความขัดแย้งนี้ทำให้เกิดคำถามเกี่ยวกับวิธีที่บริษัท AI ควรสร้างความสมดุลระหว่างผลประโยชน์ทางการค้ากับหลักการจริยธรรม ในขณะที่บางคนมองว่าจุดยืนของ Anthropic น่าชื่นชม คนอื่นๆ ตั้งคำถามว่าสิ่งนี้แสดงถึงความมุ่งมั่นที่แท้จริงต่อความปลอดภัยหรือเป็นเพียงกลยุทธ์การเจรจา

สถานการณ์นี้ยังเน้นย้ำถึงความตึงเครียดที่เพิ่มขึ้นระหว่างการนำเครื่องมือ AI มาใช้อย่างรวดเร็วของรัฐบาลและการมุ่งเน้นการพัฒนา AI อย่างรับผิดชอบที่เพิ่มขึ้นของอุตสาหกรรมเทคโนโลยี เมื่อ AI กลายเป็นศูนย์กลางของการดำเนินงานของรัฐบาลมากขึ้น ความขัดแย้งเหล่านี้เกี่ยวกับข้อกำหนดการใช้งานมีแนวโน้มที่จะกลายเป็นเรื่องธรรมดาและมีผลกระทบมากขึ้น

ผลลัพธ์ของข้อพิพาทเฉพาะนี้อาจสร้างแบบอย่างสำหรับวิธีที่บริษัท AI อื่นๆ เข้าหาการเจรจาสัญญารัฐบาลที่คล้ายกันในอนาคต

อ้างอิง: Exclusive: Anthropic inks White House with limits on models' use