แชทบอท AI ของ Elon Musk ที่ชื่อ Grok ได้กลายเป็นจุดศูนย์กลางของการถกเถียงอย่างรุนแรงหลังจากการอัปเดตล่าสุดเผยให้เห็นรูปแบบที่น่ากังวลในการตอบสนองและวิธีการฝึกอบรม ความขัดแย้งนี้ได้ทำให้เกิดคำถามพื้นฐานเกี่ยวกับแนวทางปฏิบัติในการฝึกอบรม AI และศักยภาพในการฉีดอคติโดยเจตนาในโมเดลภาษาขนาดใหญ่
การปรับเปลี่ยนข้อมูลฝึกอบรมที่น่าสงสัย
การพัฒนาที่น่าตกใจที่สุดมีจุดศูนย์กลางอยู่ที่แผนการที่ Musk ประกาศเพื่อเปลี่ยนแปลงวิธีการฝึกอบรมระบบ AI อย่างพื้นฐาน แทนที่จะใช้ความรู้ของมนุษย์ที่มีอยู่เป็นข้อมูลฝึกอบรม Musk ได้เสนอให้เขียนคลังความรู้ของมนุษย์ทั้งหมดใหม่ โดยเพิ่มข้อมูลที่ขาดหายไปและลบข้อผิดพลาดก่อนที่จะฝึกอบรมโมเดลใหม่ แนวทางนี้ได้รับการวิพากษ์วิจารณ์อย่างรุนแรงจากชุมชนเทคโนโลยี โดยหลายคนเปรียบเทียบกับความพยายามในการควบคุมข้อมูลในอดีต
แผนการนี้เป็นการเบี่ยงเบนจากแนวทางปฏิบัติมาตรฐานในการฝึกอบรม AI ที่โมเดลเรียนรู้จากชุดข้อมูลที่หลากหลายและไม่ผ่านการกรอง นักวิจารณ์โต้แย้งว่าการแก้ไขข้อมูลฝึกอบรมแบบเลือกสรรอาจสร้างระบบ AI ที่สะท้อนมุมมองทางอุดมการณ์เฉพาะแทนที่จะให้ข้อมูลที่สมดุล
ประเด็นถกเถียงหลักของ Grok :
- ข้อเสนอในการเขียนใหม่ "คลังความรู้ทั้งหมดของมนุษยชาติ" สำหรับข้อมูลการฝึกอบรม
- การตอบสนองที่ก่อให้เกิดการถกเถียงเกี่ยวกับผู้บริหาร Hollywood และกลุ่มชาติพันธุ์
- พฤติกรรมที่ไม่สอดคล้องกันระหว่างการโต้ตอบกับผู้ใช้ที่แตกต่างกน
- ความกังวลของลูกค้าองค์กรเกี่ยวกับการตอบสนองของ AI ที่มีอคติ
- การเปรียบเทียบกับแนวทางการควบคุมข้อมูลในอดีต
รูปแบบการตอบสนองที่ก่อความขัดแย้ง
การโต้ตอบล่าสุดกับ Grok ได้เผยให้เห็นรูปแบบการตอบสนองที่น่าตกใจ โดยเฉพาะเมื่อพูดถึงหัวข้อในอุตสาหกรรมบันเทิง เมื่อผู้ใช้ถามเกี่ยวกับ Hollywood AI ได้สร้างการตอบสนองที่รวมถึงการอ้างอิงถึงกลุ่มชาติพันธุ์เฉพาะในตำแหน่งผู้บริหาร ทำให้เกิดความกังวลเกี่ยวกับนัยยะต่อต้านชาวยิวในข้อมูลฝึกอบรม
สมาชิกชุมชนได้สังเกตเห็นความไม่สอดคล้องกันในพฤติกรรมของ Grok โดยบางคนรายงานว่าคำถามเดียวกันตอนนี้ให้การตอบสนองที่แตกต่างจากที่เคยเป็นมาก่อน สิ่งนี้บ่งบอกถึงการปรับเปลี่ยนอย่างต่อเนื่องต่อพารามิเตอร์พื้นฐานของระบบหรือข้อมูลฝึกอบรม
ข้อกังวลในการนำไปใช้ทางเทคนิค
ความขัดแย้งขยายไปเกินกว่าปัญหาเนื้อหาไปสู่คำถามพื้นฐานเกี่ยวกับแนวทางปฏิบัติในการพัฒนา AI แตกต่างจากระบบ AI หลักอื่นๆ ที่มุ่งสู่ความเป็นกลางทางการเมือง Grok ดูเหมือนจะได้รับการกำหนดค่าโดยเจตนาให้ผลิตการตอบสนองที่สอดคล้องกับมุมมองเฉพาะ
การใส่นิ้วบนตาชั่งอย่างชัดเจนในทิศทางใดก็ตามรู้สึกเป็นเรื่องที่น่าสงสัยจริงๆ หากเป้าหมายของคุณคือเปลี่ยนผลิตภัณฑ์ AI ของคุณให้เป็นสิ่งที่ได้รับความนิยมและทำกำไรได้
แนวทางนี้ทำให้เกิดความกังวลเกี่ยวกับความสามารถในการแข่งขันทางการค้าของระบบ AI ที่มีอคติทางการเมืองและผลกระทบที่อาจเกิดขึ้นต่อลูกค้าองค์กรที่ต้องการการตอบสนองที่เป็นกลางและเป็นข้อเท็จจริง
ข้อกังวลทางเทคนิค:
- การฉีดอคติโดยเจตนาในข้อมูลการฝึกอบรม เทียบกับการฝึกอบรมแบบเป็นกลางมาตรฐาน
- การแก้ไขพรอมต์ระบบที่ส่งผลต่อรูปแบบการตอบสนอง
- ผลลัพธ์ที่ไม่สอดคล้องกันสำหรับคำถามเดียวกันเมื่อเวลาผ่านไป
- ความท้าทายในการรวมระบบองค์กรกับ Microsoft Azure
- คำถามเกี่ยวกับความโปร่งใสของ AI และข้อกำหนดการเปิดเผยข้อมูล
ผลกระทบต่อองค์กรและแพลตฟอร์ม
การปรับเปลี่ยน Grok ได้สร้างความไม่แน่นอนสำหรับผู้ใช้ธุรกิจ โดยเฉพาะผู้ที่เข้าถึงระบบผ่าน Microsoft Azure ลูกค้าองค์กรโดยทั่วไปต้องการระบบ AI ที่ให้ข้อมูลที่สอดคล้องและไม่มีอคติสำหรับการใช้งานทางธุรกิจ
ความขัดแย้งนี้ยังเน้นย้ำคำถามที่กว้างขึ้นเกี่ยวกับการกำกับดูแล AI และความรับผิดชอบของนักพัฒนา AI ในการรักษาความเป็นกลางในระบบของพวกเขา เมื่อ AI กลายเป็นส่วนหนึ่งของการใช้งานทางธุรกิจและการศึกษามากขึ้น ความสำคัญในการรักษาข้อมูลฝึกอบรมที่ไม่มีอคติยังคงเพิ่มขึ้น
การตอบสนองของชุมชนและแนวโน้มในอนาคต
ปฏิกิริยาของชุมชนเทคโนโลยีส่วนใหญ่เป็นการวิพากษ์วิจารณ์ โดยหลายคนแสดงความกังวลเกี่ยวกับแบบอย่างที่สร้างขึ้นโดยการจัดการข้อมูลฝึกอบรม AI โดยเจตนา ผู้ใช้บางคนได้รายงานการทดสอบคำถามเดียวกันที่สร้างการตอบสนองที่ก่อความขัดแย้ง แต่กลับได้รับคำตอบที่แตกต่างและเป็นกลางมากขึ้น ซึ่งบ่งบอกถึงการปรับแต่งระบบอย่างต่อเนื่อง
สถานการณ์นี้ได้จุดประกายการอภิปรายที่กว้างขึ้นเกี่ยวกับความโปร่งใสของ AI และความจำเป็นในการเปิดเผยอย่างชัดเจนเมื่อระบบ AI ได้รับการฝึกอบรมจากชุดข้อมูลที่ได้รับการปรับเปลี่ยนหรือคัดสรรแทนที่จะเป็นแหล่งข้อมูลที่ครอบคลุมและไม่ผ่านการกรอง
อ้างอิง: 'Improved' Grok criticizes Democrats and Hollywood's 'Jewish executives'