บทความวิชาการฉบับใหม่จาก University of Cambridge ได้จุดประกายความขัดแย้งอย่างรุนแรงด้วยการโต้แย้งว่าวลีที่ใช้กันทั่วไป AI อาจเขียนสิ่งนี้ได้ เป็นรูปแบบหนึ่งของการเลือกปฏิบัติทางชนชั้นมากกว่าการวิพากษ์วิจารณ์ที่ชอบด้วยกฎหมาย งานวิจัยที่ตีพิมพ์โดย Advait Sarkar ชี้ให้เห็นว่าสิ่งที่หลายคนมองว่าเป็นการควบคุมคุณภาพนั้น จริงๆ แล้วเป็นวิธีที่คนงานด้านความรู้ชนชั้นกลางใช้เพื่อปกป้องสถานะที่มีสิทธิพิเศษของตน
รายละเอียดงานวิจัย:
- ผู้เขียน: Advait Sarkar ( University of Cambridge และ University College London )
- หัวข้อ: "AI Could Have Written This: Birth of a Classist Slur in Knowledge Work"
- แนวคิดหลัก: "การดูหมิ่น AI" ในฐานะรูปแบบหนึ่งของการสร้างขอบเขตโดยผู้ทำงานด้านความรู้
- ข้อโต้แย้งหลัก: การวิพากษ์วิจารณ์เนื้อหาที่สร้างโดย AI เกิดจากความวิตกกังวลเรื่องชนชั้นมากกว่าความกังวลเรื่องคุณภาพ
ข้อโต้แย้งหลัก: ความวิตกกังวลทางชนชั้นเทียบกับการควบคุมคุณภาพ
บทความของ Sarkar นำเสนอแนวคิดเรื่อง AI shaming - การตัดสินงานที่สงสัยว่าถูกสร้างโดย AI ในแง่ลบ ตามงานวิจัยนี้ ปรากฏการณ์ดังกล่าวเกิดจากความวิตกกังวลทางชนชั้นในหมู่คนงานด้านความรู้ที่กลัวจะสูญเสียตำแหน่งที่มีสิทธิพิเศษ บทความโต้แย้งว่าวลีอย่าง AI อาจเขียนสิ่งนี้ได้ ทำหน้าที่เป็นการสร้างขอบเขตเพื่อรักษาความสามัคคีทางชนชั้นและจำกัดการเข้าถึงอาชีพด้านความรู้
การตอบสนองจากชุมชนวิชาการส่วนใหญ่มีลักษณะวิพากษ์วิจารณ์อย่างหนัก ผู้แสดงความคิดเห็นหลายคนมองว่าบทความนี้เป็นความพยายามที่จะปกป้องงานคุณภาพต่ำจากการวิพากษ์วิจารณ์ที่ชอบด้วยกฎหมายโดยการนำเสนอใหม่ให้เป็นการเลือกปฏิบัติ การตอบสนองที่ตรงประเด็นหนึ่งสะท้อนความรู้สึกดังนี้:
สิ่งนี้ดูเหมือนการอุปถัมภ์อย่างมาก: ต่อผู้เขียนโดยการปกป้องงานที่ด้อยคุณภาพอย่างชัดเจน เพราะพื้นเพของพวกเขาทำให้เป็น 'ไปไม่ได้' ที่จะทำงานดีๆ
ข้อกังวลทางเทคนิคเทียบกับทฤษฎีสังคม
การถกเถียงเผยให้เห็นความแตกแยกพื้นฐานระหว่างผู้ที่เน้นคุณภาพทางเทคนิคและผู้ที่เน้นพลวัตทางสังคม นักวิจารณ์โต้แย้งว่าบทความนี้เพิกเฉยต่อข้อกังวลที่แท้จริงเกี่ยวกับเนื้อหาที่สร้างโดย AI รวมถึงแนวโน้มในการผลิตงานที่มีปริมาณมากแต่ยากต่อการตรวจสอบ และความท้าทายที่สิ่งนี้สร้างขึ้นสำหรับความรับผิดชอบในสภาพแวดล้อมการทำงานระดับมืออาชีพ
ผู้แสดงความคิดเห็นหลายคนเน้นปัญหาในทางปฏิบัติของการสื่อสารที่ช่วยเหลือโดย AI โดยเฉพาะในสถานที่ทำงานที่ใช้หลายภาษา ซึ่งเครื่องมือ AI สามารถทำให้การเขียนของผู้ที่ไม่ใช่เจ้าของภาษามีไวยากรณ์ที่ถูกต้องมากขึ้น แต่ก็ทำให้ดูเย่อหยิ่งและเข้าใจยากมากขึ้นด้วย สิ่งนี้สร้างความขัดแย้งที่เครื่องมือแปลที่ออกแบบมาเพื่อช่วยเหลือกลับขัดขวางการสื่อสารที่ชัดเจน
ประเด็นการตอบสนองจากชุมชน:
- ข้อกังวลด้านเทคนิค: เน้นไปที่ความรับผิดชอบ ความท้าทายในการตรวจสอบ และการควบคุมคุณภาพ
- ปัญหาการสื่อสار: เครื่องมือ AI ทำให้การเขียนของผู้ที่ไม่ใช่เจ้าของภาษาดูโอ่อ่าและยากต่อการถอดรหัสมากขึ้น
- การวิจารณ์วิธีการ: ขาดหลักฐานเชิงประจักษ์ ทำงานย้อนกลับจากข้อสรุป
- ข้อโต้แย้งเรื่องศัพท์: การใช้คำว่า "คำดูถูก" สำหรับการวิจารณ์ที่ชอบด้วยกฎหมายถือว่าไม่เหมาะสม
คำถามเรื่องความแท้จริง
ส่วนสำคัญของการอภิปรายมุ่งเน้นไปที่ความสัมพันธ์ระหว่างความพยายามและคุณค่าในงานด้านความรู้ บางคนโต้แย้งว่าหากใช้ความพยายามเพียงเล็กน้อยในการสร้างเนื้อหา ผู้อ่านไม่ควรคาดหวังให้ลงทุนความพยายามในการบริโภคมัน มุมมองนี้ถือว่าความพยายามของมนุษย์เป็นองค์ประกอบสำคัญของงานทางปัญญาที่มีคุณค่า
อย่างไรก็ตาม คนอื่นๆ ได้โต้แย้งมุมมองนี้โดยเปรียบเทียบกับการถกเถียงในอดีตเกี่ยวกับการถ่ายภาพเทียบกับการวาดภาพ โดยชี้ให้เห็นว่าเทคโนโลยีใหม่มักจะเผชิญกับความต่อต้านที่คล้ายกันก่อนที่จะได้รับการยอมรับ
ความน่าเชื่อถือทางวิชาการถูกโจมตี
บทความนี้เผชิญกับการวิพากษ์วิจารณ์อย่างรุนแรงเกี่ยวกับวิธีการและข้อสรุป ผู้แสดงความคิดเห็นหลายคนกล่าวหาว่ามันทำงานย้อนหลังจากข้อสรุปที่กำหนดไว้ล่วงหน้าและใช้ภาษาที่ยั่วยุอย่างไม่เหมาะสม การใช้คำอย่าง คำดูถูก สำหรับสิ่งที่หลายคนถือว่าเป็นการวิพากษ์วิจารณ์ที่ชอบด้วยกฎหมายนั้นเป็นที่ถกเถียงกันโดยเฉพาะ
งานวิจัยนี้ยังถูกวิพากษ์วิจารณ์ว่าขาดหลักฐานเชิงประจักษ์และอาศัยกรอบทฤษฎีเป็นหลักโดยไม่มีข้อมูลที่เพียงพอมาสนับสนุนข้อเรียกร้อง ผู้แสดงความคิดเห็นบางคนเสนอว่าบทความนี้เองเป็นตัวอย่างของการเขียนแบบ AI ที่มันพยายามปกป้อง - เต็มไปด้วยศัพท์เฉพาะแต่ขาดเนื้อหาสาระ
ความขัดแย้งนี้เน้นความตึงเครียดที่กว้างขึ้นในแวดวงวิชาการเกี่ยวกับบทบาทของเครื่องมือ AI และมาตรฐานสำหรับการประเมินงานทางปัญญาในยุคของปัญญาประดิษฐ์ที่ซับซ้อนมากขึ้น
อ้างอิง: AI Could Have Written This: Birth of a Classist Slur in Knowledge Work