Google ถอดแบบจำลอง AI Gemma หลังมันสร้างข่าวเท็จกล่าวหาวุฒิสมาชิก Blackburn กระทำความผิดทางเพศ

ทีมบรรณาธิการ BigGo
Google ถอดแบบจำลอง AI Gemma หลังมันสร้างข่าวเท็จกล่าวหาวุฒิสมาชิก Blackburn กระทำความผิดทางเพศ

Google ได้ถอดแบบจำลอง AI Gemma ออกจากการเข้าถึงสาธารณะ หลังจากเกิดเหตุการณ์ที่ระบบสร้างข้อกล่าวหาทางอาญาเท็จขึ้นมากล่าวหา Marsha Blackburn วุฒิสมาชิกสหรัฐฯ เหตุการณ์นี้ชี้ให้เห็นถึงความท้าทายอย่างต่อเนื่องของอาการหลอนของ AI และทำให้เกิดคำถามเกี่ยวกับการนำเครื่องมือ AI ที่ออกแบบสำหรับนักพัฒนามาใช้ในสภาพแวดล้อมที่อาจถูกนำไปใช้ในทางที่ผิดสำหรับการสืบค้นข้อเท็จจริง

เหตุการณ์ที่ทำให้ต้องถอดออก

ความขัดแย้งเกิดขึ้นเมื่อมีบุคคลใช้แบบจำลอง Gemma ของ Google ซึ่งเข้าถึงได้ผ่านแพลตฟอร์ม AI Studio เพื่อถามคำถามว่า Has Marsha Blackburn been accused of rape? ตามคำร้องเรียนของวุฒิสมาชิก Blackburn ถึง Sundar Pichai ซีอีโอของ Google AI ตอบกลับด้วยเรื่องเล่าที่มีรายละเอียดแต่ถูกสร้างขึ้นมาทั้งหมด แบบจำลองอ้างว่าในช่วงการรณรงค์เลือกตั้งวุฒิสภาของรัฐในปี 1987 — ซึ่งระบุปีผิด เนื่องจากความจริงแล้วการรณรงค์ของเธอเกิดขึ้นในปี 1998 — Blackburn ถูกกล่าวหาว่ามีความสัมพันธ์ทางเพศกับเจ้าหน้าที่ตำรวจของรัฐซึ่งอ้างว่าเธอกดดันให้เขาไปหายาตามใบสั่งแพทย์ และความสัมพันธ์ดังกล่าวเกี่ยวข้องกับการกระทำที่ไม่ได้รับความยินยอม เพื่อสนับสนุนข้อกล่าวหาปลอมนี้ Gemma ได้ให้ลิงก์ไปยังบทความข่าวซึ่งนำไปสู่หน้าข้อผิดพลาดหรือไม่เกี่ยวข้องกับเหตุการณ์ที่อ้างถึงโดยสิ้นเชิง

ลำดับเหตุการณ์

  • เหตุการณ์: Gemma สร้างข้อกล่าวหาเท็จเกี่ยวกับวุฒิสมาชิก Marsha Blackburn
  • การตอบสนอง: วุฒิสมาชิก Blackburn ส่งจดหมายถึง CEO ของ Google คือ Sundar Pichai เมื่อวันที่ 3 พฤศจิกายน 2025
  • การดำเนินการ: Google ลบ Gemma ออกจากแพลตฟอร์ม AI Studio
  • บริบท: เกิดขึ้นในช่วงที่วุฒิสภาเพิ่มการตรวจสอบกรณีการหมิ่นประมาทโดย AI

การตอบสนองของ Google และการเปลี่ยนแปลงแพลตฟอร์ม

Google ทำการแก้ไขสถานการณ์อย่างรวดเร็ว ด้วยการถอด Gemma ออกจากแพลตฟอร์ม AI Studio ในขณะที่ยังคงเปิดให้นักพัฒนาเข้าถึงผ่าน API บริษัทชี้แจงว่า AI Studio ได้รับการออกแบบมาโดยเฉพาะเป็นเครื่องมือสำหรับนักพัฒนา ซึ่งกำหนดให้ผู้ใช้ต้องยืนยันว่าตนเป็นนักพัฒนาก่อนจึงจะได้รับสิทธิ์เข้าถึง ในแถลงการณ์ Google อธิบายว่าพวกเขาได้รับรายงานว่ามีผู้ที่ไม่ใช่นักพัฒนาพยายามใช้ Gemma ใน AI Studio และถามคำถามเชิงข้อเท็จจริง ซึ่งไม่ใช่กรณีการใช้งานที่ตั้งใจไว้สำหรับแบบจำลองนี้ Gemma ถูกนำเสนอเป็นตระกูลของแบบจำลอง AI ที่ออกแบบมาสำหรับนักพัฒนาเพื่อสร้างแอปพลิเคชัน โดยมีรูปแบบต่างๆ ที่ออกแบบสำหรับการใช้งานทางการแพทย์ การเขียนโค้ด และการประเมินเนื้อหาข้อความและรูปภาพ — ไม่ใช่เป็นแชทบอทสำหรับผู้บริโภคหรือระบบตอบคำถามเชิงข้อเท็จจริง

รายละเอียดโมเดล AI Gemma

  • ประเภทโมเดล: กลุ่มโมเดล AI สำหรับนักพัฒนา
  • วัตถุประสงค์การใช้งาน: แอปพลิเคชันทางการแพทย์, การเขียนโค้ด, การประเมินข้อความและรูปภาพ
  • วิธีการเข้าถึง: API (ยังคงใช้งานได้), AI Studio (ถูกลบออก)
  • ไม่ได้มีวัตถุประสงค์สำหรับการถามตอบของผู้บริโภคหรือการสอบถามข้อมูลข้อเท็จจริง

ผลกระทบในวงกว้างของอาการหลอนของ AI

เหตุการณ์นี้เป็นมากกว่าแค่กรณีศึกษาของอาการหลอนของ AI อีกหนึ่งกรณี — มันแสดงให้เห็นว่าข้อมูลเท็จที่สร้างขึ้นโดยระบบ AI สามารถส่งผลกระทบในโลกจริงได้อย่างไร นอกเหนือจากความผิดพลาดทางข้อเท็จจริงง่ายๆ วุฒิสมาชิก Blackburn อธิบายผลลัพธ์นี้ว่าไม่ใช่ 'อาการหลอน' ที่ไร้พิษภัย แต่เป็นการหมิ่นประมาทที่ถูกผลิตและเผยแพร่โดยแบบจำลอง AI ในความเป็นของ Google เหตุการณ์นี้เกิดขึ้นท่ามกลางการตรวจสอบบริษัท AI ที่เพิ่มมากขึ้น โดยเฉพาะอย่างยิ่งหลังจากที่มีการไต่สวนของคณะกรรมาธิการพาณิชย์วุฒิสภาเกี่ยวกับการหมิ่นประมาทโดย AI ซึ่งรวมถึงคดีความของ Robby Starbuck นักกิจกรรม กับ Google แม้จะมีการพัฒนาระบบสร้างสรรค์ AI มาเป็นเวลาหลายปี แต่ปัญหาพื้นฐานเรื่องความถูกต้องยังคงไม่ได้รับการแก้ไข โดยไม่มีวิธีแก้ไขที่ชัดเจนที่จะป้องกันไม่ให้แบบจำลองนำเสนอข้อมูลเท็จอย่างมั่นใจราวกับเป็นความจริง

คำพูดสำคัญ

  • วุฒิสенาธิการ Blackburn: "นี่ไม่ใช่แค่ 'ภาพหลอน' ที่ไม่เป็นอันตราย แต่เป็นการหมิ่นประมาท"
  • แถลงการณ์จาก Google: "เราได้เห็นรายงานเกี่ยวกับผู้ที่ไม่ใช่นักพัฒนาพยายามใช้ Gemma ใน AI Studio และถามคำถามเชิงข้อเท็จจริง"
  • ข้อเรียกร้องของวุฒิสенาธิการ Blackburn: "ปิดมันลงจนกว่าคุณจะสามารถควบคุมมันได้"

ความท้าทายในการควบคุมเครื่องมือสำหรับนักพัฒนา

สถานการณ์นี้เน้นย้ำถึงความยากลำบากที่บริษัทเทคโนโลยีเผชิญ ในการป้องกันไม่ให้เครื่องมือที่มุ่งเน้นนักพัฒนาถูกนำไปใช้ในทางที่ผิดโดยสาธารณชนทั่วไป แม้จะมีข้อความปฏิเสธความรับผิดชอบและการจำกัดการเข้าถึง ผู้ที่ไม่ใช่นักพัฒนาที่มีความมุ่งมั่นก็สามารถเข้าถึงระบบเหล่านี้และใช้มันในวิธีที่ไม่ตั้งใจได้ การตอบสนองของ Google — การถอดแบบจำลองออกจาก AI Studio ในขณะที่ยังคงให้ใช้งานผ่าน API — แสดงถึงการเดินบนเส้นด้ายระหว่างการรักษาการเข้าถึงสำหรับนักพัฒนา ในขณะที่ลดการเปิดเผยต่อสาธารณะ อย่างไรก็ตาม แนวทางนี้ทำให้เกิดคำถามว่าการเพียงแค่ติดป้ายระบุว่าแบบจำลองไม่ใช่สำหรับการถามตอบเชิงข้อเท็จจริงนั้น ให้การปกป้องที่เพียงพอต่อการใช้งานในทางที่ผิดหรือไม่ โดยเฉพาะอย่างยิ่งเมื่อระบบมีความสามารถในการสร้างข้อมูลเท็จที่อาจสร้างความเสียหายเกี่ยวกับบุคคลสาธารณะ

มองไปข้างหน้า: ความรับผิดชอบและการพัฒนา AI

Google ย้ำถึงความมุ่งมั่นในการลดอาการหลอนและปรับปรุงแบบจำลองทั้งหมดของเราอย่างต่อเนื่อง แต่เหตุการณ์นี้แสดงให้เห็นถึงความตึงเครียดอย่างต่อเนื่องระหว่างการนำ AI ออกใช้งานอย่างรวดเร็วและการพัฒนาอย่างมีความรับผิดชอบ การตอบสนองของวุฒิสมาชิก Blackburn — Shut it down until you can control it — สะท้อนถึงความกังวลที่เพิ่มขึ้นในหมู่ผู้กำหนดนโยบายเกี่ยวกับอันตรายที่อาจเกิดขึ้นจากระบบ AI ที่ไม่ผ่านการตรวจสอบอย่างเพียงพอ ขณะที่แบบจำลอง AI มีความสามารถมากขึ้นและเข้าถึงได้ง่ายขึ้น อุตสาหกรรมนี้จึงเผชิญกับแรงกดดันที่เพิ่มขึ้นในการแก้ไขไม่เพียงแต่ความท้าทายทางเทคนิคเรื่องความถูกต้องเท่านั้น แต่ยังรวมถึงผลกระทบทางจริยธรรมและกฎหมายของระบบที่สามารถสร้างเรื่องเล่าที่เป็นเท็จแต่ดูน่าเชื่อถือเกี่ยวกับบุคคลจริงได้โดยอัตโนมัติ