ในโลกของเนื้อหาที่สร้างขึ้นโดย AI ที่กำลังพัฒนาอย่างรวดเร็ว บริษัท xAI ของ Elon Musk ได้เปิดตัว Grokipedia โดยวางตำแหน่งให้เป็นทางเลือกของ Wikipedia ที่สัญญาว่าจะตอบโต้กับอคติแบบ woke ที่ถูกกล่าวอ้าง อย่างไรก็ตาม ผู้ใช้ยุคแรกและผู้เชี่ยวชาญด้านเทคโนโลยีกำลังรายงานปัญหาที่สำคัญเกี่ยวกับความถูกต้อง รูปแบบการเขียน และความน่าเชื่อถือของการอ้างอิงของแพลตฟอร์ม ซึ่งทำให้เกิดคำถามว่า AI พร้อมที่จะรับมือกับงานที่ซับซ้อนในการรวบรวมความรู้ของมนุษย์แล้วหรือไม่
ความกังวลเกี่ยวกับความถูกต้องรบกวนสารานุกรม AI ใหม่
ความกังวลเร่งด่วนที่สุดที่ล้อมรอบ Grokipedia อยู่ที่ความถูกต้องของข้อเท็จจริง ผู้ใช้ที่ตรวจสอบบทความเกี่ยวกับหัวข้อที่พวกเขารู้จักดีกำลังพบข้อผิดพลาดและความไม่สอดคล้องกันมากมาย ผู้แสดงความคิดเห็นหนึ่งคนระบุว่าเมื่อตรวจสอบหัวข้อที่พวกเขาเคยวิจัยด้วยตนเอง บทความบน Grokipedia แย่ยิ่งกว่าบน Wikipedia ด้วยซ้ำ โดยไม่สามารถเล่าเรื่องราวที่เชื่อมโยงกันได้และอ้างอิงถึงแหล่งข้อมูลที่ไม่น่าเชื่อถือเช่นผู้ใช้ Reddit สุ่มๆ ปัญหาพื้นฐานดูเหมือนจะเป็นว่าแบบจำลองภาษาขนาดใหญ่ (LLMs) แม้จะเก่งในการสร้างข้อความที่ฟังดูน่าเชื่อถือ แต่ก็ต่อสู้กับความน่าเชื่อถือของข้อเท็จจริงและความสอดคล้องทางตรรกะ
ทำไมเราถึงต้องการเทคโนโลยีที่เก่งในการสรุปพอๆ กับการสร้างเรื่องเพ้อฝันมาเขียนรายการสารานุกรม? คุณไม่มีทางเชื่อใจให้มันซื่อตรงกับแหล่งข้อมูลได้
ปัญหานี้เห็นได้ชัดเป็นพิเศษเมื่อตรวจสอบการอ้างอิง ผู้ใช้หลายคนรายงานว่าการอ้างอิงของ Grokipedia มักไม่สนับสนุนข้อกล่าวอ้างที่ควรจะยืนยัน โดยบางการอ้างอิงนำไปสู่เนื้อหาที่ไม่เกี่ยวข้องกันโดยสิ้นเชิงหรือแหล่งข้อมูลที่ไม่น่าเชื่อถือที่ได้คะแนนต่ำบนมาตราส่วนความน่าเชื่อถือ
ประเด็นสำคัญที่ผู้ใช้งานรายแรกๆ ระบุพบ:
- ข้อผิดพลาดเชิงข้อเท็จจริงในเกือบทุกย่อหน้าที่ตรวจสอบ
 - การอ้างอิงที่ไม่สนับสนุนข้อความที่กล่าวอ้าง
 - การอ้างอิงไปยังแหล่งข้อมูลที่ไม่น่าเชื่อถือ (Reddit, บล็อกส่วนตัว, เว็บไซต์ที่มีความน่าเชื่อถือต่ำ)
 - บทความยาวกว่าเทียบเท่าของ Wikipedia 3-5 เท่า แต่มีข้อมูลที่เป็นประโยชน์น้อยกว่า
 - อ편견ทางการเมืองที่สม่ำเสมอโดยสนับสนุนมุมมองฝ่ายขวา
 - รูปแบบการเขียนที่สร้างโดย AI ซึ่งถูกอธิบายว่าฟุ่มเฟือยและอ่านยาก
 
แหล่งข้อมูลที่น่าสงสัยและปัญหาการอ้างอิง
ความน่าเชื่อถือของแหล่งข้อมูลของ Grokipedia ได้กลายเป็นจุดโต้แย้งหลักภายในชุมชนเทคโนโลยี ผู้ใช้ค้นพบว่าบทความจำนวนมากอ้างอิงถึงแหล่งข้อมูลที่น่าสงสัย รวมถึงบล็อกส่วนบุคคล กลุ่มนักคิดสายอนุรักษนิยม และแม้แต่โพสต์โซเชียลมีเดีย ผู้แสดงความคิดเห็นหนึ่งคนเน้นย้ำว่าบทความจำนวนมากที่ครอบคลุมหัวข้อเกี่ยวกับเอเชียอ้างอิงถึง factsanddetails.com เว็บไซต์ที่ได้คะแนนเพียง 12.2 จาก 100 บนมาตราส่วนความน่าเชื่อถือของ scamdetector ผู้ใช้อีกคนพบโพสต์ Tumblr ของตัวเองถูกอ้างอิงเป็นแหล่งข้อมูลที่มีอำนาจในหัวข้อเฉพาะทาง
วิธีการอ้างอิงเองก็ดูเหมือนจะมีข้อบกพร่อง ไม่เหมือนระบบอ้างอิงที่คัดสรรอย่างระมัดระวังของ Wikipedia Grokipedia ดูเหมือนจะสร้างการอ้างอิงแบบอัลกอริทึมโดยไม่มีการยืนยันที่เหมาะสม สิ่งนี้นำไปสู่สถานการณ์ที่แหล่งข้อมูลไม่สนับสนุนข้อกล่าวอ้างที่กำลังทำอยู่จริง หรือที่ความเชื่อมโยงระหว่างเนื้อหาแหล่งที่มาและเนื้อหาที่สร้างขึ้นนั้นอ่อนแอที่สุด การยอมรับของแพลตฟอร์มว่าเนื้อหาปรับมาจาก Wikipedia ทำให้คำถามเกี่ยวกับความคิดดั้งเดิมและการเพิ่มมูลค่าซับซ้อนยิ่งขึ้น
การเปรียบเทียบความน่าเชื่อถือของแหล่งข้อมูล:
- Wikipedia: ใช้แหล่งข้อมูลที่เชื่อถือได้ซึ่งได้รับการยอมรับ พร้อมกระบวนการแก้ไขที่โปร่งใส
 - Grokipedia: อ้างอิงแหล่งข้อมูลที่มีคุณภาพหลากหลาย รวมถึงสถาบันวิจัย โซเชียลมีเดีย และบล็อกส่วนตัว
 - ตัวอย่าง: factsanddetails.com ถูกใช้อย่างกว้างขวางทั้งที่มีคะแนนความน่าเชื่อถือเพียง 12.2/100
 
อคติทางการเมืองและการวางตำแหน่งทางอุดมการณ์
แม้จะถูกตลาดว่าเป็นยาแก้พิษสำหรับอคติที่ถูกกล่าวอ้างของ Wikipedia แต่ Grokipedia ดูเหมือนจะมีแนวโน้มทางอุดมการณ์ของตัวเองที่ชัดเจน การวิเคราะห์บทความหลายบทความเผยให้เห็นรูปแบบที่สม่ำเสมอของการต่อต้านตำแหน่งก้าวหน้าในขณะที่สนับสนุนมุมมองสายอนุรักษนิยม แพลตฟอร์มมักจะรวมข้อโต้แย้งต่อสิ่งที่มันระบุว่าเป็นตำแหน่งแบบก้าวหน้าหรือ woke แม้ว่าข้อโต้แย้งเหล่านี้จะมาจากแหล่งที่ขับเคลื่อนโดยอุดมการณ์มากกว่าความเห็นพ้องทางวิชาการกระแสหลัก
อคตินี้แสดงออกมาในรูปแบบที่ละเอียดอ่อนตลอดทั้งเนื้อหา บทความเกี่ยวกับบุคคลและหัวข้อที่มีข้อโต้แย้งมักรวมกรอบความสงสัยของตำแหน่งก้าวหน้าในขณะที่นำเสนอมุมมองสายอนุรักษนิยมอย่างเอื้ออำนวยมากขึ้น การเลือกว่าจะรวมข้อโต้แย้งใดและให้น้ำหนักอย่างไรดูเหมือนจะเอียงอย่างเป็นระบบ ทำให้เกิดคำถามว่าแพลตฟอร์มสามารถบรรลุเป้าหมายที่ระบุไว้ในการมีอคติน้อยกว่าคู่แข่งที่แก้ไขโดยมนุษย์ได้หรือไม่
ข้อจำกัดทางเทคนิคและคุณภาพการเขียน
เหนือกว่าความกังวลทางการเมือง ผู้ใช้กำลังรายงานปัญหาที่สำคัญเกี่ยวกับการดำเนินการทางเทคนิคพื้นฐานของ Grokipedia ร้อยแก้วที่สร้างโดย AI ถูกอธิบายว่ายืดยาว อ่านยาก และขาดโครงสร้างการเล่าเรื่องที่ชัดเจนของเนื้อหาที่มนุษย์เขียน บทความมีแนวโน้มที่จะยาวกว่าบทความใน Wikipedia ขณะที่ให้ข้อมูลจริงน้อยกว่า เต็มไปด้วยสิ่งที่ผู้แสดงความคิดเห็นหนึ่งคนเรียกว่าคำที่ยืดยาวอย่างน่าอับอายที่พยายามฟังดูมีอำนาจโดยไม่ได้พูดอะไรมากนักจริงๆ
รูปแบบการเขียนแสดงลักษณะคลาสสิกของ LLM: การใช้ em dash มากเกินไป โครงสร้างประโยคที่ซ้ำซาก และมุมมองจากที่ไหนสักแห่งในน้ำเสียงทางวิชาการที่หลายคนพบว่าอ่านแล้วเหนื่อย ไม่เหมือนบรรณาธิการมนุษย์ที่สามารถจัดลำดับความสำคัญของข้อมูลตามความสำคัญและความเกี่ยวข้อง AI ดูเหมือนจะรวมทุกอย่างที่พบออนไลน์ ส่งผลให้บทความที่ทั้งละเอียดและไม่ให้ข้อมูลในเวลาเดียวกัน
การตอบสนองของชุมชนและแนวโน้มในอนาคต
การตอบสนองของชุมชนเทคโนโลยีต่อ Grokipedia นั้นเต็มไปด้วยความสงสัย หลายคนมองว่ามันเป็นอีกตัวอย่างของเทคโนโลยี AI ที่ถูกนำไปใช้ก่อนที่มันจะพร้อมสำหรับช่วงเวลาสำคัญ ในขณะที่คนอื่นๆ มองว่ามันเป็นโครงการที่มีแรงจูงใจทางการเมืองมากกว่าความพยายามจริงๆ ในการปรับปรุงการเข้าถึงความรู้ การเปรียบเทียบกับ Wikipedia รุ่นแรกดูเหมือนไม่เพียงพอสำหรับผู้สังเกตการณ์หลายคน เนื่องจากข้อจำกัดเริ่มต้นของ Wikipedia มาจากการขาดเนื้อหามากกว่าปัญหาพื้นฐานเกี่ยวกับความถูกต้องและความน่าเชื่อถือ
ผู้แสดงความคิดเห็นบางคนกำลังกังวลในวงกว้างเกี่ยวกับความหมายของฐานความรู้ที่สร้างโดย AI ความสามารถในการสร้างบทความนับล้านอย่างรวดเร็วด้วยอคติที่ละเอียดอ่อนสามารถเป็นเครื่องมืออันทรงพลังสำหรับการจัดการมวลชน โดยเฉพาะเมื่อถูกควบคุมโดยหน่วยงานเดียวที่มีแนวโน้มทางอุดมการณ์ที่ชัดเจน ดังที่ผู้แสดงความคิดเห็นหนึ่งคนระบุไว้ สิ่งนี้สร้างกลไกที่สมบูรณ์แบบสำหรับการสร้างผู้ติดตามที่เชื่อฟังผู้นำที่ผลักดันผลประโยชน์และวาระของตัวเอง
แม้จะมีข้อกังวลเหล่านี้ ชนกลุ่มน้อยเล็กๆ เห็นศักยภาพในแนวคิดนี้ โดยโต้แย้งว่าเวอร์ชันแรกๆ ของเทคโนโลยีใหม่มักมีข้อจำกัดที่สำคัญที่พัฒนาขึ้นเมื่อเวลาผ่านไป อย่างไรก็ตาม ความท้าทายพื้นฐานในการรับรองความถูกต้องของข้อเท็จจริง การได้มาซึ่งแหล่งที่เหมาะสม และมุมมองที่สมดุลอาจพิสูจน์ได้ว่ายากที่จะเอาชนะด้วยเทคโนโลยี AI ในปัจจุบัน
การเปิดตัวของ Grokipedia เป็นกรณีทดสอบที่สำคัญสำหรับความสามารถของ AI ในการจัดการงานการรวบรวมความรู้ที่ซับซ้อน แม้เทคโนโลยีจะแสดงถึงความหวังสำหรับการใช้งานบางอย่าง การใช้งานในปัจจุบันแสดงให้เห็นว่าการสร้างเนื้อหาสารานุกรมที่เชื่อถือได้และสมดุลยังคงเป็นความท้าทายที่สำคัญ ในขณะที่ AI ยังคงพัฒนาต่อไป การอภิปรายรอบๆ กรณีการใช้งานที่เหมาะสมและรั้วกั้นที่จำเป็นน่าจะทวีความรุนแรงขึ้น โดยมี Grokipedia ทำหน้าที่เป็นตัวอย่างแรกเริ่มของทั้งศักยภาพและข้อผิดพลาดของระบบความรู้ที่สร้างโดย AI
อ้างอิง: Grokipedia
