สหภาพยุโรปได้เผยแพร่แนวปฏิบัติที่ครอบคลุมสำหรับบริษัท AI ซึ่งเป็นการวางรากฐานสำหรับการอภิปรายอย่างเข้มข้นเกี่ยวกับการที่กฎระเบียบที่เข้มงวดจะปกป้องผู้บริโภคหรือขัดขวางความก้าวหน้าทางเทคโนโลยี กฎใหม่นี้จะมีผลบังคับใช้แบบสมัครใจในวันที่ 2 สิงหาคม และบังคับใช้ภายในเดือนสิงหาคม 2026 โดยมุ่งเป้าไปที่นักพัฒนา AI รายใหญ่อย่าง Google , Meta และ OpenAI ด้วยข้อกำหนดด้านความโปร่งใสและความปลอดภัยที่ไม่เคยมีมาก่อน
ชุมชนเทคโนโลยีแบ่งแยกอย่างลึกซึ้งต่อการพัฒนาเหล่านี้ ในขณะที่บางคนมองว่า EU กำลังใช้แนวทางที่มีวิสัยทัศน์ไปข้างหน้าในการกำกับดูแล AI คนอื่นๆ กลับกังวลเกี่ยวกับการที่ภูมิภาคนี้จะตกหลังมากขึ้นในการแข่งขัน AI ระดับโลก
ไทม์ไลน์สำคัญ:
- 2 สิงหาคม 2025: การปฏิบัติตามแบบสมัครใจเริ่มต้นสำหรับบริษัท AI รายใหญ่
- สิงหาคม 2026: การบังคับใช้ EU AI Act อย่างเต็มรูปแบบเริ่มต้น
- 5-10 วัน: กรอบเวลาที่กำหนดในการรายงานเหตุการณ์ AI ร้ายแรงต่อ EU AI Office
![]() |
---|
การประชุมของผู้มีอำนาจตัดสินใจเพื่ออภิปรายผลกระทบของกฎระเบียบ AI ใหม่ใน European Union |
การปกป้องลิขสิทธิ์กลายเป็นจุดสำคัญ
หนึ่งในข้อกำหนดที่ถกเถียงกันมากที่สุดคือการบังคับให้บริษัท AI สัญญาว่าจะไม่ใช้วัสดุละเมิดลิขสิทธิ์สำหรับการฝึกโมเดลของพวกเขา สิ่งนี้ท้าทายแนวปฏิบัติในอุตสาหกรรมปัจจุบันโดยตรง ซึ่งบริษัทอย่าง Meta ได้ใช้ชุดข้อมูลหนังสือที่ไม่ได้รับอนุญาตและปกป้องแนวปฏิบัตินี้โดยอ้างว่าหนังสือแต่ละเล่มมีคุณค่าการฝึกน้อยมาก
กฎใหม่กำหนดให้บริษัทสร้างระบบภายในสำหรับจัดการข้อร้องเรียนเรื่องลิขสิทธิ์และอนุญาตให้ผู้สร้างเนื้อหาเลือกที่จะไม่เข้าร่วมในชุดข้อมูลการฝึก AI สิ่งนี้แสดงถึงการเปลี่ยนแปลงที่สำคัญจากแนวทางขออภัยทีหลังที่บริษัท AI หลายแห่งใช้อยู่ในปัจจุบัน
ข้อกำหนดความโปร่งใสอาจเปลี่ยนแปลงการพัฒนา AI
กฎระเบียบเรียกร้องการเปิดเผยข้อมูลที่ไม่เคยมีมาก่อนจากบริษัท AI เกี่ยวกับกระบวนการฝึกของพวกเขา บริษัทต้องเปิดเผยข้อมูลรายละเอียดเกี่ยวกับแหล่งข้อมูลของพวกเขา อธิบายการตัดสินใจออกแบบที่สำคัญ และระบุว่าพวกเขาใช้ข้อมูลสาธารณะ ข้อมูลผู้ใช้ หรือข้อมูลสังเคราะห์สำหรับการฝึก
การผลักดันความโปร่งใสนี้ขยายไปถึงโครงสร้างพื้นฐานทางเทคนิคด้วย บริษัทต้องเปิดเผยการใช้พลังงานทั้งหมดสำหรับทั้งการฝึกและการใช้งานโมเดล AI ทำให้หน่วยงานกำกับดูแลสามารถติดตามผลกระทบต่อสิ่งแวดล้อมได้ พวกเขายังต้องเคารพ paywall ของเว็บไซต์และไฟล์ robots.txt ที่จำกัดการรวบรวมข้อมูลอัตโนมัติ
การเปิดเผยข้อมูลที่จำเป็น:
- แหล่งข้อมูลการฝึกอบรมโดยละเอียดและเหตุผล
- การใช้พลังงานทั้งหมดสำหรับการฝึกอบรมและการอนุมาน
- ตัวเลือกการออกแบบโมเดลหลักและคำอธิบายเหตุผล
- มาตรการป้องกันความปลอดภัยทางไซเบอร์
- การติดตามและรายงานเหตุการณ์ร้ายแรง
การติดตามความปลอดภัยและการรายงานเหตุการณ์
แนวปฏิบัตินี้กำหนดโปรโตคอลความปลอดภัยที่เข้มงวดซึ่งกำหนดให้บริษัทติดตามเหตุการณ์ร้ายแรงรวมถึงการละเมิดความปลอดภัยทางไซเบอร์ การหยุดชะงักของโครงสร้างพื้นฐาน และอันตรายที่อาจเกิดขึ้นต่อสุขภาพของมนุษย์ บริษัทมีเวลาเพียง 5-10 วันในการรายงานเหตุการณ์ดังกล่าวต่อสำนักงาน AI ของ EU
มาตรการความปลอดภัยเหล่านี้ยังรวมถึงข้อกำหนดในการป้องกัน jailbreaking ซึ่งเป็นความพยายามที่จะหลีกเลี่ยงการควบคุมความปลอดภัยของ AI และการรักษาการป้องกันความปลอดภัยทางไซเบอร์ที่เพียงพอตลอดระบบของพวกเขา
ชุมชนแบ่งแยกเรื่องผลกระทบต่อนวัตกรรม
ชุมชนเทคโนโลยียังคงแบ่งแยกอย่างรุนแรงเกี่ยวกับการที่กฎระเบียบเหล่านี้จะช่วยหรือเป็นอันตรายต่อการพัฒนา AI ผู้สนับสนุนโต้แย้งว่าการปฏิบัติตามกฎระเบียบตั้งแต่วันแรกสร้างข้อได้เปรียบในการแข่งขันสำหรับระบบ AI ที่สอดคล้องกับ EU โดยเฉพาะสำหรับบริษัทที่มุ่งเป้าไปที่ตลาดยุโรป
โอ้ เราไม่สามารถอธิบายได้ มันเป็นกล่องดำ งั้นก็อธิบายว่าคุณทำมันยังไง ไม่งั้นก็ไม่ได้
นักวิจารณ์กังวลว่าข้อกำหนดการปฏิบัติตามกฎระเบียบที่หนักหน่วงจะผลักดันการพัฒนา AI ออกจากยุโรปทั้งหมด ทำให้ภูมิภาคนี้ต้องพึ่งพาระบบ AI จากต่างประเทศในขณะที่นวัตกรรมในท้องถิ่นได้รับผลกระทบ พวกเขาชี้ไปที่การขาดบริษัทเทคโนโลยีรายใหญ่ของ EU ที่เทียบได้กับยักษ์ใหญ่อเมริกันเป็นหลักฐานว่ากฎระเบียบอาจส่งผลในทางตรงกันข้าม
โครงสร้างการลงโทษ:
- สูงสุด 7% ของยอดขายรายปี: ค่าปรับสูงสุดสำหรับการละเมิด AI Act
- สูงสุด 3% ของยอดขายรายปี: ค่าปรับสำหรับบริษัทที่พัฒนาโมเดล AI ขั้นสูง
- การถอดออกจากตลาด: โมเดล AI สามารถถูกดึงออกจากตลาด EU หากไม่ปฏิบัติตามกฎระเบียบ
โมเดล Open-Source เผชิญอนาคตที่ไม่แน่นอน
กฎใหม่สร้างความท้าทายเฉพาะสำหรับโมเดล AI แบบ open-source ซึ่งผู้สร้างไม่สามารถควบคุมวิธีการใช้โมเดลของพวกเขาหรือติดตามผลลัพธ์ได้ ชุมชนยังคงถกเถียงกันว่าข้อกำหนดเหล่านี้จะห้ามการพัฒนา AI แบบ open-source อย่างมีประสิทธิภาพหรือไม่ หรือความรับผิดชอบจะเปลี่ยนไปที่บริษัทที่ใช้โมเดลเหล่านี้ในผลิตภัณฑ์ของพวกเขา
แนวทางการบังคับใช้ยังคงไม่ชัดเจน โดยบางคนแนะนำว่าผู้ใช้โมเดล open-source จะต้องรับผิดชอบในการปฏิบัติตามกฎระเบียบมากกว่านักพัฒนาดั้งเดิม
มองไปข้างหน้า
เมื่อวันที่การปฏิบัติตามแบบสมัครใจในเดือนสิงหาคม 2025 ใกล้เข้ามา อุตสาหกรรม AI เผชิญจุดตัดสินใจที่สำคัญ บริษัทที่ยอมรับกฎแบบสมัครใจอาจได้รับประโยชน์จากภาระทางการบริหารที่ลดลงในภายหลัง ในขณะที่บริษัทที่ต่อต้านอาจเผชิญกระบวนการปฏิบัติตามกฎระเบียบที่มีค่าใช้จ่ายสูงกว่าเมื่อการบังคับใช้เริ่มต้นในปี 2026
เดิมพันสูงมาก โดยมีค่าปรับที่อาจสูงถึง 7% ของยอดขายประจำปีสำหรับการละเมิด กรอบการกำกับดูแลนี้อาจเปลี่ยนแปลงวิธีการดำเนินงานของบริษัท AI อย่างพื้นฐาน ไม่เพียงแต่ในยุโรปเท่านั้น แต่ทั่วโลก เนื่องจากต้นทุนการปฏิบัติตามกฎระเบียบและข้อกำหนดความโปร่งใสมีอิทธิพลต่อแนวปฏิบัติการพัฒนาทั่วโลก
อ้างอิง: Everything tech giants will hate about the EU's new AI rules