รัฐ Illinois ห้ามใช้ AI ในการบำบัด ขณะที่ CEO ของ OpenAI เตือนความเสี่ยงด้านความเป็นส่วนตัวในการใช้ ChatGPT สำหรับการรักษาสุขภาพจิต

ทีมบรรณาธิการ BigGo
รัฐ Illinois ห้ามใช้ AI ในการบำบัด ขณะที่ CEO ของ OpenAI เตือนความเสี่ยงด้านความเป็นส่วนตัวในการใช้ ChatGPT สำหรับการรักษาสุขภาพจิต

ภูมิทัศน์ด้านกฎระเบียบสำหรับปัญญาประดิษฐ์ในการดูแลสุขภาพจิตกำลังพัฒนาอย่างรวดเร็ว ขณะที่รัฐต่างๆ กำลังต่อสู้กับความเสี่ยงและประโยชน์ของเครื่องมือบำบัดที่ขับเคลื่อนด้วย AI รัฐ Illinois ได้เข้าร่วมกับ Nevada และ Utah ในการจำกัดการใช้ AI ในสภาพแวดล้อมการบำบัด ขณะที่ CEO ของ OpenAI คือ Sam Altman ได้ยอมรับต่อสาธารณะถึงข้อกังวลด้านความเป็นส่วนตัวที่สำคัญในการใช้ ChatGPT สำหรับการสนับสนุนสุขภาพจิต

รัฐ Illinois ดำเนินการจำกัดการบำบัดด้วย AI อย่างครอบคลุม

ผู้ว่าการรัฐ Illinois คือ JB Pritzker ได้ลงนามในกฎหมาย Wellness and Oversight for Psychological Resources Act เมื่อวันที่ 1 สิงหาคม 2024 ทำให้รัฐนี้เป็นรัฐที่สามที่จำกัดการใช้ AI ในการประยุกต์ใช้เพื่อการบำบัด กฎหมายดังกล่าวห้ามการใช้ปัญญาประดิษฐ์ในการให้บริการสุขภาพจิตและการตัดสินใจเพื่อการบำบัด แม้ว่าผู้เชี่ยวชาญด้านสุขภาพพฤติกรรมที่มีใบอนุญาตจะยังสามารถใช้เทคโนโลยี AI สำหรับงานด้านการบริหารและบริการสนับสนุนเสริมได้ Mario Treto Jr. เลขานุการของกรมการเงินและการควบคุมวิชาชีพของรัฐ Illinois เน้นย้ำว่าประชาชนสมควรได้รับการดูแลสุขภาพที่มีคุณภาพจากผู้เชี่ยวชาญที่มีคุณสมบัติ มากกว่าโปรแกรมคอมพิวเตอร์ที่สร้างการตอบสนองโดยการดึงข้อมูลจากทั่วอินเทอร์เน็ต

รัฐที่มีข้อจำกัดเกี่ยวกับการบำบัดด้วย AI

รัฐ สถานะ บทบัญญัติหลัก
Illinois ออกกฎหมายแล้ว (สิงหาคม 2024) ห้ามใช้ AI ในการตัดสินใจด้านสุขภาพจิต อนุญาตให้ใช้ในงานบริหารเท่านั้น
Nevada ออกกฎหมายแล้ว (มิถุนายน 2024) จำกัดการใช้ AI ในโรงเรียนและการดูแลสุขภาพจิต
Utah ออกกฎหมายแล้ว (มีนาคม 2024) ควบคุมแชทบอท AI ด้านสุขภาพจิต
California เสนอร่างกฎหมาย จะสร้างกลุ่มทำงานด้านสุขภาพจิตและ AI
New Jersey เสนอร่างกฎหมาย จะห้ามการโฆษณา AI ในฐานะผู้เชี่ยวชาญสุขภาพจิตที่ได้รับใบอนุญาต
Pennsylvania เสนอร่างกฎหมาย จะกำหนดให้ต้องได้รับความยินยอมจากผู้ปกครองสำหรับบริการสุขภาพจิตเสมือนจริงในโรงเรียน

การเคลื่อนไหวระดับรัฐที่เพิ่มขึ้นต่อต้านการบำบัดด้วย AI

โมเมนตัมด้านการควบคุมกำลังสร้างขึ้นในหลายรัฐ Nevada ผ่านกฎหมายในเดือนมิถุนายนที่จำกัดการใช้ AI ในโรงเรียนและจำกัดการประยุกต์ใช้โดยผู้ให้บริการดูแลสุขภาพจิตและพฤติกรรม Utah ออกกฎระเบียบที่คล้ายกันในเดือนมีนาคม โดยเฉพาะเจาะจงไปที่แชทบอทสุขภาพจิตที่ใช้เทคโนโลยี AI อีกสามรัฐกำลังพิจารณาข้อจำกัดของตนเองอย่างจริงจัง California เสนอให้สร้างกลุ่มทำงานด้านสุขภาพจิตและ AI, New Jersey จะห้ามการโฆษณา AI เป็นการทดแทนผู้เชี่ยวชาญด้านสุขภาพจิตที่มีใบอนุญาต และ Pennsylvania พยายามกำหนดให้ต้องได้รับความยินยอมจากผู้ปกครองก่อนที่โรงเรียนจะสามารถให้บริการสุขภาพจิตเสมือนจริงแก่เด็กได้

CEO ของ OpenAI ยอมรับช่องโหว่ด้านความเป็นส่วนตัว

Sam Altman CEO ของ OpenAI ได้แสดงความกังวลอย่างมากเกี่ยวกับการใช้ ChatGPT สำหรับการบำบัด ในการสัมภาษณ์พอดแคสต์เมื่อเดือนกรกฎาคม Altman เตือนว่าการสนทนากับ ChatGPT ไม่จำเป็นต้องเป็นความลับและสังเกตเห็นการขาดการป้องกันทางกฎหมายสำหรับข้อมูลส่วนบุคคลที่ละเอียดอ่อนที่แบ่งปันกับระบบ AI เขาอธิบายว่าหากกระบวนการทางกฎหมายกำหนดให้ OpenAI เปิดเผยข้อมูล ปัจจุบันไม่มีเหตุผลในการปกป้องสิ่งที่ผู้ใช้อาจพิจารณาว่าเป็นการสื่อสารเพื่อการบำบัดที่เป็นความลับ

การวิจัยเผยให้เห็นข้อจำกัดของการบำบัดด้วย AI

การศึกษาของ Stanford University ที่เผยแพร่ไม่นานก่อนการสัมภาษณ์ของ Altman พบว่าแชทบอทบำบัดด้วย AI ไม่ได้เตรียมพร้อมอย่างเพียงพอที่จะทดแทนผู้ให้บริการสุขภาพจิตที่เป็นมนุษย์ การวิจัยเผยให้เห็นว่าระบบเหล่านี้แสดงออกถึงการตีตราและให้คำแถลงที่ไม่เหมาะสมเกี่ยวกับภาวะสุขภาพจิตที่ร้ายแรง รวมถึงการตอบสนองต่อผู้ใช้ที่ประสบกับอาการหลงผิด ความคิดฆ่าตัวตาย อาการประสาทหลอน และโรคย้ำคิดย้ำทำ การค้นพบเหล่านี้เน้นย้ำถึงความเสี่ยงที่อาจเกิดขึ้นจากการนำระบบ AI ไปใช้ในบริบทสุขภาพจิตที่ละเอียดอ่อนโดยไม่มีการป้องกันที่เหมาะสม

ประเด็นสำคัญด้านความเป็นส่วนตัวและความปลอดภัยที่ระบุพบ

  • ช่องโหว่ด้านความเป็นส่วนตัว: เซสชันการบำบัดของ ChatGPT อาจไม่สามารถรักษาความลับได้
  • ช่องว่างการคุ้มครองทางกฎหมาย: ไม่มีพื้นฐานทางกฎหมายในปัจจุบันที่จะคุ้มครองข้อมูลละเอียดอ่อนที่แบ่งปันกับ AI
  • การแสดงออกถึงการตีตรา: แชทบอท AI แสดงอคติต่อภาวะสุขภาพจิตบางประเภท
  • การตอบสนองที่ไม่เหมาะสม: ระบบให้คำแถลงที่ไม่เหมาะสมเกี่ยวกับภาวะร้ายแรง (ภาพหลอน ความคิดฆ่าตัวตาย การประสาทหลอน OCD)
  • ความเสี่ยงในการทดแทน: ระบบ AI ไม่ได้เตรียมพร้อมอย่างเพียงพอที่จะทดแทนผู้ให้บริการสุขภาพจิตมนุษย์

ผลกระทบที่กว้างขึ้นสำหรับ AI ในการดูแลสุขภาพ

การบรรจบกันของข้อจำกัดระดับรัฐและการยอมรับของอุตสาหกรรมถึงข้อจำกัดส่งสัญญาณถึงจุดสำคัญสำหรับการประยุกต์ใช้ AI ในการดูแลสุขภาพ แม้ว่าเทคโนโลยีจะให้ประโยชน์ที่เป็นไปได้สำหรับการสนับสนุนด้านการบริหารและบริการเสริม แนวโน้มการควบคุมในปัจจุบันเน้นย้ำถึงคุณค่าที่ไม่สามารถทดแทนได้ของความเชี่ยวชาญของมนุษย์ในการรักษาสุขภาพจิต ขณะที่รัฐต่างๆ มากขึ้นพิจารณากฎหมายที่คล้ายกัน อุตสาหกรรม AI เผชิญกับแรงกดดันที่เพิ่มขึ้นในการแก้ไขข้อกังวลด้านความเป็นส่วนตัวและพัฒนาการป้องกันที่แข็งแกร่งยิ่งขึ้นสำหรับการประยุกต์ใช้ในการดูแลสุขภาพที่ละเอียดอ่อน