ในขณะที่ปัญญาประดิษฐ์ถูกฝังลึกเข้าไปในการบริโภคข้อมูลในชีวิตประจำวันของเรามากขึ้น ความจริงที่น่าวิตกเกี่ยวกับความน่าเชื่อถือของเนื้อหาข่าวที่สร้างโดย AI ก็กำลังปรากฏให้เห็น การศึกษาอย่างรอบคอบล่าสุดเปิดเผยว่าเกือบครึ่งหนึ่งของคำตอบข่าวจาก AI มีข้อผิดพลาดที่สำคัญ ทำให้เกิดความกังวลอย่างจริงจังเกี่ยวกับความพร้อมของเทคโนโลยีในการทำหน้าที่เป็นแหล่งข่าวหลักสำหรับผู้ใช้หลายล้านคนทั่วโลก
![]() |
|---|
| การพึ่งพาเทคโนโลยี AI ในการรับข่าวสารทำให้เกิดความกังวลเกี่ยวกับความแม่นยำและความน่าเชื่อถือ |
ขอบเขตที่น่าตกใจของความไม่ถูกต้องในข่าว AI
การศึกษาของ European Broadcasting Union ที่ตรวจสอบคำตอบที่สร้างโดย AI กว่า 3,000 คำตอบ ใน 14 ภาษา ได้เปิดเผยรูปแบบของการบิดเบือนข้อมูลและการรายงานที่ไม่สมบูรณ์ การวิจัยซึ่งทดสอบผู้ช่วย AI ยอดนิยม รวมถึง ChatGPT, Google Gemini, Microsoft Copilot, Claude และ Perplexity พบว่า 45% ของคำตอบมีข้อผิดพลาดอย่างน้อยหนึ่งข้อผิดพลาดที่สำคัญ ในขณะที่ 81% ที่น่าตกใจแสดงให้เห็นปัญหาบางรูปแบบ ตั้งแต่ข้อมูลที่ล้าสมัยไปจนถึงการใช้วาจาที่ทำให้เข้าใจผิดและการอ้างอิงแหล่งที่มามีปัญหา การค้นพบเหล่านี้กลายเป็นเรื่องที่น่ากังวลเป็นพิเศษเมื่อพิจารณาว่าผู้ใช้ Gen Z 15% อาศัยแชทบอทสำหรับการบริโภคข่าวตามข้อมูลของ Reuters Institute ซึ่งเน้นย้ำว่ามีการนำระบบที่ไม่สมบูรณ์เหล่านี้มาใช้เป็นแหล่งข้อมูลหลักอย่างรวดเร็วเพียงใด
อัตราข้อผิดพลาดหลักในการตอบกลับข่าวสารของ AI
- 45% ของการตอบกลับมีข้อผิดพลาดสำคัญอย่างน้อยหนึ่งข้อ
- 81% แสดงปัญหาในรูปแบบต่างๆ (ข้อมูลล้าสมัย ถ้อยคำที่ทำให้เข้าใจผิด ปัญหาเกี่ยวกับแหล่งที่มา)
- 31% มีปัญหาร้ายแรงเกี่ยวกับแหล่งที่มา (การอ้างอิงที่ปลอม ขาดหายไป หรืออ้างอิงไม่ถูกต้อง)
- 20% มีข้อมูลที่ผิดพลาดร้ายแรง
ปัญหาร้ายแรงเกี่ยวกับแหล่งที่มาและข้อเท็จจริงปรากฏขึ้น
แง่มุมที่น่าวิตกที่สุดของการวิจัยเปิดเผยข้อบกพร่องพื้นฐานในวิธีการที่ระบบ AI จัดการกับการยืนยันข้อมูลและการระบุแหล่งที่มา ประมาณ 31% ของคำตอบถูกติดธงว่ามีปัญหาเรื่องแหล่งที่มาอย่างร้ายแรง รวมถึงการอ้างอิงที่ถูกสร้างขึ้น, หายไป, หรืออ้างอิงไม่ถูกต้อง น่าตกใจยิ่งกว่านั้น 20% มีข้อเท็จจริงที่ไม่ถูกต้องครั้งใหญ่ เช่น การรายงานเหตุการณ์ปัจจุบันผิดพลาดหรือการอ้างคำพูดผิดบุคคลให้กับบุคคลสาธารณะ ตัวเลขภายในจากการศึกษาบ่งชี้ว่า Google Gemini มีปัญหากับประเด็นการอ้างอิงเป็นพิเศษ ในขณะที่ ChatGPT และ Claude แสดงผลการทำงานที่ไม่สม่ำเสมอขึ้นอยู่กับรุ่นเฉพาะที่กำลังทดสอบ ความล้มเหลวในการอ้างอิงเหล่านี้สร้างสภาพแวดล้อมที่อันตรายซึ่งผู้ใช้อาจรับข้อมูลที่บิดเบือนโดยไม่รู้ตัวซึ่งนำเสนอด้วยน้ำเสียงที่มั่นใจซึ่งเป็นลักษณะเฉพาะของคำตอบจาก AI
![]() |
|---|
| ความสำคัญของความโปร่งใสในการอ้างอิงแหล่งที่มาในเนื้อหาที่สร้างโดย AI ไม่ควรประมาทเลย เนื่องจากการตอบกลับหลายอย่างขาดความน่าเชื่อถือ |
การทดสอบในโลกจริงเผยให้เห็นข้อจำกัดในทางปฏิบัติ
เมื่อนำไปทดสอบด้วยคำถามข่าวจริง ข้อจำกัดของระบบ AI ในปัจจุบันก็ปรากฏชัดเจนอย่างน่าตกใจ ในการตรวจสอบเชิงปฏิบัติโดยถามเกี่ยวกับการพัฒนาล่าสุดเกี่ยวกับข้อตกลงเพดานหนี้ของสหรัฐฯ Claude ปรากฏเป็นผู้ที่มีประสิทธิภาพน่าเชื่อถือที่สุดโดยระบุกรอบเวลาของการเจรจาล่าสุดได้อย่างถูกต้องและให้ข้อมูลบริบทที่แม่นยำ อย่างไรก็ตาม ChatGPT แสดงข้อบกพร่องร้ายแรงโดยอ้างอิงบทความข่าวจากอนาคต—อ้างอิงวันที่ในปี 2025 ราวกับว่าเป็นปัจจุบัน—ซึ่งบ่อนทำลายความน่าเชื่อถืออย่างรุนแรง ในขณะเดียวกัน Google Gemini ก่อให้เกิดความสับสนโดยผสมผสานประเด็นแยกกันโดยไม่มีคำอธิบายที่ชัดเจน แสดงให้เห็นว่าระบบ AI สามารถสร้างเรื่องเล่าที่ทำให้เข้าใจผิดได้อย่างไร แม้จะประกอบด้วยองค์ประกอบของข้อมูลที่เป็นข้อเท็จจริง
การเปรียบเทียบประสิทธิภาพในการทดสอบจริง (คำถามเกี่ยวกับเพดานหนี้สาธารณะของสหรัฐฯ)
- Claude: แม่นยำที่สุด - ระบุกรอบเวลาและบริบทได้อย่างถูกต้อง
- ChatGPT: อ้างอิงบทความข่าวจากวันที่ในอนาคต ทำให้ความน่าเชื่อถือลดลง
- Google Gemini: ผสมประเด็นที่แยกจากกันโดยไม่มีคำอธิบายที่ชัดเจน
ภัยคุกคามที่เพิ่มขึ้นต่อความไว้วางใจของสาธารณะและความซื่อสัตย์ของสื่อ
เหนือไปจากประสบการณ์ของผู้ใช้แต่ละคน ความไม่ถูกต้องเหล่านี้ก่อให้เกิดภัยคุกคามในวงกว้างต่อการสนทนาสาธารณะและความสมบูรณ์ของระบบนิเวศสื่อ การวิจัยคู่ขนานของ BBC พบว่าเมื่อ AI แสดงเนื้อหาของสำนักข่าวผิดเพี้ยนไป ผู้ใหญ่ 42% จะโทษทั้ง AI และแหล่งที่มาต้นทาง หรือไว้วางใจแหล่งข่าวน้อยลง สร้างภาระที่ไม่เป็นธรรมให้กับองค์กรข่าวที่ถูกต้องตามกฎหมาย พลวัตนี้มีปัญหาเป็นพิเศษเนื่องจากผู้เผยแพร่ต้องเผชิญกับความท้าทายสองประการ ได้แก่ การสูญเสียการเข้าชมไปยังอินเทอร์เฟซแชทของ AI ในขณะที่การรายงานต้นฉบับของพวกเขาอาจถูกบิดเบือนหรือถูกตัดการอ้างอิงที่เหมาะสม สถานการณ์นี้สร้างพายุที่สมบูรณ์แบบซึ่งการสื่อสารมวลชนที่น่าเชื่อถือต้องได้รับความเดือดร้อน ในขณะที่บทสรุปจาก AI ที่มีข้อบกพร่องกลับได้รับความสำคัญ
สถิติความไว้วางใจของผู้ใช้และผลกระทบ
- ผู้ใช้ Gen Z 15% พึ่งพาแชทบอทสำหรับข่าวสาร (Reuters Institute)
- ผู้ใหญ่ 42% จะโทษแหล่งข่าวต้นฉบับหรือไว้วางใจน้อยลงหาก AI นำเสนอเนื้อหาผิดเพี้ยน
- ผู้ใหญ่ชาวอังกฤษมากกว่าหนึ่งในสามไว้วางใจ AI ในการสรุปข่าวอย่างแม่นยำ
- ผู้ใหญ่อายุต่ำกว่า 35 ปีเกือบครึ่งหนึ่งไว้วางใจการสรุปข่าวโดย AI
กลยุทธ์เชิงปฏิบัติสำหรับการบริโภคข่าว AI อย่างปลอดภัย
สำหรับผู้ใช้ที่ยังคงใช้ผู้ช่วย AI ในการรวบรวมข่าว กลยุทธ์การป้องกันหลายประการสามารถช่วยลดความเสี่ยงของข้อมูลที่บิดเบือนได้ การใช้คำสั่งใหม่เพื่อขอแหล่งที่มาเชื่อถือได้ล่าสุดและประทับเวลาที่เฉพาะเจาะจงอย่างชัดเจนสามารถปรับปรุงคุณภาพของคำตอบได้อย่างมีนัยสำคัญ การขอให้มีลิงก์ไปยังสำนักข่าวที่จัดตั้งแล้วและการตรวจสอบข้ามข้อมูลข้ามแพลตฟอร์ม AI หลายแห่งช่วยระบุความคลาดเคลื่อนที่อาจบ่งชี้ถึงความไม่ถูกต้อง ที่สำคัญที่สุด ผู้ใช้ควรปฏิบัติต่อบทสรุปจาก AI เป็นจุดเริ่มต้นของการตรวจสอบมากกว่าคำตอบที่ชัดเจนเสมอ และควรยืนยันข้อกล่าวอ้างที่น่าประหลาดใจโดยปรึกษาบทความต้นฉบับโดยตรง แนวทางปฏิบัตินี้มีความสำคัญมากขึ้นเรื่อยๆ เนื่องจากระบบ AI ถูกผนวกลึกเข้าไปในเบราว์เซอร์ แว่นตาอัจฉริยะ และเทคโนโลยีประจำวันอื่นๆ
เส้นทางสู่ความก้าวหน้าสำหรับ AI และความซื่อสัตย์ของข่าว
สถานะปัจจุบันของข่าวที่สร้างโดย AI เน้นย้ำถึงความต้องการอย่างเร่งด่วนสำหรับความโปร่งใสที่มากขึ้น ระบบการอ้างอิงที่ได้รับการปรับปรุง และการให้ความรู้ผู้ใช้ที่ซับซ้อนมากขึ้น แม้ว่าเทคโนโลยีจะให้ความสะดวกสบายที่ไม่สามารถปฏิเสธได้ อัตราความผิดพลาด 45% แสดงให้เห็นว่ามันยังไม่สามารถแทนที่กระบวนการยืนยันข่าวแบบดั้งเดิมได้ ในขณะที่นักพัฒนา AI กำลังทำงานเพื่อแก้ไขปัญหาความแม่นยำพื้นฐานเหล่านี้ ผู้ใช้ต้องรักษาความสงสัยที่ดีต่อสุขภาพและตระหนักว่าแนวทางที่ปลอดภัยที่สุดสำหรับข่าวด่วนอาจยังคงเกี่ยวข้องกับการหลีกเลี่ยงบทสรุปจาก AI ทั้งหมด เพื่อสนับสนุนการปรึกษาการรายงานต้นฉบับโดยตรงจากแหล่งข่าวที่เชื่อถือได้


