ค่ารักษาพยาบาลพุ่ง ผู้คนนับล้านหันไปพึ่ง ChatGPT ให้คำปรึกษาด้านสุขภาพ ก่อให้เกิดความกังวลเรื่องความปลอดภัย

ทีมบรรณาธิการ BigGo
ค่ารักษาพยาบาลพุ่ง ผู้คนนับล้านหันไปพึ่ง ChatGPT ให้คำปรึกษาด้านสุขภาพ ก่อให้เกิดความกังวลเรื่องความปลอดภัย

รายงานใหม่จาก OpenAI เผยให้เห็นแนวโน้มที่น่าตกใจ: ผู้คนมากกว่า 40 ล้านคนทั่วโลกกำลังใช้ ChatGPT สำหรับคำถามที่เกี่ยวข้องกับการดูแลสุขภาพ การเพิ่มขึ้นอย่างรวดเร็วนี้เกิดขึ้นในช่วงเวลาวิกฤตในสหรัฐอเมริกา ซึ่งการหมดอายุของเงินอุดหนุนภายใต้ Affordable Care Act ได้ทำให้ผู้คนนับล้านต้องเผชิญกับเบี้ยประกันภัยที่สูงขึ้นอย่างมาก ในขณะที่ AI เข้ามามีบทบาทเป็นที่ปรึกษาด้านการแพทย์ที่พร้อมให้บริการตลอดเวลา ผู้เชี่ยวชาญกำลังตั้งคำถามอย่างเร่งด่วนเกี่ยวกับความปลอดภัยและความน่าเชื่อถือของการเปลี่ยนแปลงสู่ดิจิทัลครั้งนี้ โดยชี้ให้เห็นถึงศักยภาพของแชทบอทในการให้ข้อมูลที่คลาดเคลื่อนจนเป็นอันตราย

ขนาดของบทบาท AI ในการดูแลสุขภาพ

ตามรายงานของ OpenAI ที่แชร์กับ Axios มากกว่า 5% ของข้อความทั้งหมดที่ส่งถึง ChatGPT ทั่วโลกเกี่ยวข้องกับหัวข้อด้านการดูแลสุขภาพ ด้วยแพลตฟอร์มที่ประมวลผลคำสั่งประมาณ 2.5 พันล้านครั้งต่อวัน ณ กลางปี 2025 ตัวเลขนี้แปลว่ามีคำถามด้านสุขภาพอย่างน้อย 125 ล้านคำถามที่ AI ตอบทุกวัน รายงานซึ่งอ้างอิงจากข้อมูลการโต้ตอบแบบไม่ระบุตัวตนและการสำรวจผู้ใช้ บ่งชี้ว่าผู้คนกำลังใช้แชทบอทสำหรับงานที่ละเอียดอ่อนหลากหลายประเภท ซึ่งรวมถึงการอธิบายอาการเพื่อหาการวินิจฉัย การขอคำแนะนำการรักษา การดำเนินการอุทธรณ์การปฏิเสธการคุ้มครองจากบริษัทประกัน และการตรวจสอบใบเรียกเก็บเงินทางการแพทย์เพื่อหาค่าใช้จ่ายส่วนเกินที่น่าสงสัย สิ่งที่น่าสังเกตคือ ประมาณ 70% ของการสนทนาเกี่ยวกับการดูแลสุขภาพเหล่านี้เกิดขึ้นนอกเวลาทำการของคลินิกมาตรฐาน ซึ่งเน้นย้ำบทบาทของ AI ในฐานะแหล่งข้อมูลที่พร้อมให้บริการตลอด 24 ชั่วโมง สำหรับผู้ใช้ที่ไม่สามารถเข้าถึงผู้เชี่ยวชาญที่เป็นมนุษย์ได้

ข้อมูลการใช้ ChatGPT ด้านสุขภาพทั่วโลก (ข้อมูลจากรายงานของ OpenAI):

  • ผู้ใช้รวมสำหรับคำแนะนำทางการแพทย์: มากกว่า 40 ล้านคนทั่วโลก
  • ส่วนแบ่งของข้อความค้นหาทั้งหมด: มากกว่า 5% ของข้อความ ChatGPT ทั้งหมดเกี่ยวข้องกับสุขภาพ
  • ประมาณการข้อความค้นหาด้านสุขภาพรายวัน: อย่างน้อย 125 ล้านข้อความ (คำนวณจากข้อความค้นหารวม 2.5 พันล้านข้อความต่อวันในเดือนกรกฎาคม 2025)
  • การใช้ในช่วงนอกเวลาทำการ: ประมาณ 70% ของบทสนทนาเกี่ยวกับสุขภาพเกิดขึ้นนอกเวลาทำการปกติของคลินิก
  • ข้อความค้นหาเกี่ยวกับประกันสุขภาพในสหรัฐอเมริกา: 1.5 ถึง 2 ล้านข้อความต่อสัปดาห์
  • ข้อความค้นหาจากพื้นที่ "ถิ่นกันดารทางโรงพยาบาล": เกือบ 600,000 ข้อความต่อสัปดาห์

พายุที่สมบูรณ์แบบ: ค่าใช้จ่ายที่เพิ่มขึ้นและการเข้าถึง AI

การพึ่งพา AI สำหรับคำแนะนำทางการแพทย์นี้กำลังทวีความรุนแรงขึ้นท่ามกลางภูมิหลังของความไม่มั่นคงด้านการดูแลสุขภาพที่เพิ่มขึ้น โดยเฉพาะในสหรัฐอเมริกา การหมดอายุของเงินอุดหนุนเพิ่มเติมภายใต้ Affordable Care Act เมื่อเร็วๆ นี้ ส่งผลให้เบี้ยประกันรายเดือนโดยเฉลี่ยเพิ่มขึ้น 114% สำหรับผู้ลงทะเบียนมากกว่า 20 ล้านคน จากการสำรวจความคิดเห็นของ Gallup ในเดือนธันวาคม 2025 พบว่ามีชาวอเมริกันเพียง 16% เท่านั้นที่พอใจกับระบบการดูแลสุขภาพ ซึ่งเป็นตัวเลขที่ต่ำที่สุดเป็นประวัติการณ์ ด้วยระบบที่ซับซ้อนอยู่แล้วและถูกถ่วงด้วยต้นทุนการบริหารที่สูงและการคุ้มครองที่สับสน ผู้คนจำนวนมากจึงหันไปพึ่ง AI เนื่องจากความจำเป็น ข้อมูลของ OpenAI แสดงให้เห็นว่าในสหรัฐอเมริกาเพียงประเทศเดียว ChatGPT จัดการข้อความที่เกี่ยวข้องกับประกันสุขภาพระหว่าง 1.5 ถึง 2 ล้านข้อความต่อสัปดาห์ แนวโน้มนี้ยังเด่นชัดในพื้นที่ที่ขาดแคลนบริการ โดยมีคำถามด้านสุขภาพเกือบ 600,000 คำถามต่อสัปดาห์ที่มาจาก "พื้นที่ทะเลทรายของโรงพยาบาล" ซึ่งคือชุมชนชนบทที่อยู่ห่างจากศูนย์การแพทย์ที่ใกล้ที่สุดเกิน 30 นาที

บริบทระบบสาธารณสุขสหรัฐอเมริกา (ต้นปี 2026):

  • ผลกระทบจากเงินอุดหนุน ACA: การหมดอายุของเงินอุดหนุนนำไปสู่การเพิ่มขึ้นของเบี้ยประกันรายเดือนโดยเฉลี่ย 114% สำหรับผู้ลงทะเบียนกว่า 20 ล้านคน
  • ความพึงพอใจต่อระบบ: ผลสำรวจของ Gallup ในเดือนธันวาคม 2025 พบว่ามีชาวอเมริกันเพียง 16% เท่านั้นที่พึงพอใจกับระบบสาธารณสุข
  • ประชากรที่ไม่มีประกันสุขภาพ: ประมาณ 27 ล้านคน ตามข้อมูลจาก CDC

ความเสี่ยงวิกฤตของ AI Hallucination และอคติ

ในขณะที่ AI นำเสนอความพร้อมใช้งานตลอดเวลา แต่ก็มีข้อบกพร่องที่สำคัญและอาจเป็นอันตรายได้ ความเสี่ยงหลักอยู่ที่ "การหลอนประสาท" หรือ "hallucination" ซึ่งโมเดลภาษาขนาดใหญ่เช่น ChatGPT สร้างข้อมูลที่ฟังดูน่าเชื่อถือแต่กลับเป็นข้อมูลที่ถูกแต่งขึ้นมาทั้งหมด การศึกษาฉบับหนึ่งในเดือนกรกฎาคม 2025 ที่โพสต์บน arXiv พบว่าแชทบอทชั้นนำ รวมถึง GPT-4o ของ OpenAI เองและ Llama ของ Meta ตอบคำถามทางการแพทย์ด้วยข้อมูลที่ไม่ถูกต้องจนเป็นอันตราย 13% ของเวลา ผู้เขียนการศึกษากล่าวเตือนว่า "ผู้ป่วยนับล้านอาจได้รับคำแนะนำทางการแพทย์ที่ไม่ปลอดภัย" ยิ่งไปกว่านั้น การวิจัยยังแสดงให้เห็นว่าโมเดลเหล่านี้สามารถสร้างคำแนะนำที่มีอคติได้ โดยอิงตามเชื้อชาติ รายได้ หรือรสนิยมทางเพศของผู้ป่วย ความเสี่ยงทางกฎหมายก็เพิ่มสูงขึ้นเช่นกัน โดย OpenAI เผชิญกับคดีความหลายคดีในปี 2025 ที่อ้างว่า ChatGPT มีส่วนทำให้เกิดอันตรายทางจิตใจและการฆ่าตัวตาย ส่งผลให้บริษัทถอนความสามารถของ AI ในการให้คำแนะนำทางการแพทย์อย่างชัดเจนในนโยบายการใช้งานเมื่อเดือนพฤศจิกายนของปีนั้น

ข้อมูลความปลอดภัยของโมเดล AI (จากการศึกษา arXiv, กรกฎาคม 2025):

  • อัตราการตอบสนองที่ไม่ถูกต้องจนเป็นอันตราย: 13% สำหรับทั้งโมเดล GPT-4o ของ OpenAI และโมเดล Llama ของ Meta เมื่อตอบคำถามทางการแพทย์

การเดินทางสู่อนาคตของ AI ในทางการแพทย์

สำหรับตอนนี้ ฉันทามติในหมู่ผู้สังเกตการณ์คือ AI สร้างสรรค์ควรได้รับการปฏิบัติเป็นแหล่งข้อมูลเบื้องต้น ไม่ใช่ผู้มีอำนาจชี้ขาดสุดท้าย มันสามารถมีประโยชน์สำหรับการทำความเข้าใจศัพท์ทางการแพทย์พื้นฐานหรือภาพรวมของกระบวนการประกันภัย คล้ายกับ WebMD ที่โต้ตอบได้มากขึ้น อย่างไรก็ตาม มันไม่สามารถทดแทนผู้เชี่ยวชาญทางการแพทย์ที่มีใบอนุญาตได้ โดยเฉพาะสำหรับการวินิจฉัยโรคเรื้อรังหรือการรักษาอาการบาดเจ็บร้ายแรง OpenAI ระบุว่ากำลังทำงานเพื่อปรับปรุงความปลอดภัยของโมเดลในการตอบคำถามด้านสุขภาพ ในขณะที่ภูมิทัศน์การดูแลสุขภาพท้าทายผู้บริโภคมากขึ้น ความตึงเครียดระหว่างความสะดวกสบายของ AI กับความจำเป็นเร่งด่วนสำหรับข้อมูลทางการแพทย์ที่ถูกต้องและปลอดภัยจะทวีความรุนแรงขึ้นเท่านั้น สถานการณ์ปัจจุบันทำหน้าที่เป็นเครื่องเตือนใจที่ชัดเจนว่า ในขณะที่ AI สามารถเป็นเครื่องมืออันทรงพลังสำหรับข้อมูล แต่ก็ต้องการการกำกับดูแลจากมนุษย์อย่างตื่นตัว โดยเฉพาะในเรื่องที่เกี่ยวกับชีวิตและสุขภาพ