วงการกฎหมายกำลังเผชิญกับวิกฤตที่ไม่คาดคิด เมื่อเครื่องมือปัญญาประดิษฐ์สร้างรายการอ้างอิงคดีความปลอมๆ ที่ทนายความนำยื่นต่อศาลมากขึ้นเรื่อยๆ ในขณะที่ AI สัญญาว่าจะปฏิวัติการวิจัยทางกฎหมาย แต่แนวโน้มการหลอน (hallucination) ของมัน ซึ่งหมายถึงการสร้างบรรทัดฐานทางกฎหมายที่ฟังดูน่าเชื่อแต่เป็นเรื่องแต่งขึ้นมาทั้งหมด ได้สร้างคลื่นแห่งความอับอายทางวิชาชีพและการตำหนิจากผู้พิพากษา ชุมชนนักกฎหมายกำลังต่อสู้กับวิธีการใช้ประโยชน์จากพลังของ AI ในขณะที่หลีกเลี่ยงข้อผิดพลาดของมัน
ต้นทุนของมนุษย์จากข้อผิดพลาดของ AI
ผลกระทบในโลกจริงกำลังปรากฏออกมาจากความผิดพลาดของ AI เหล่านี้ คู่ความหนึ่งแบ่งปันประสบการณ์กับทนายความที่ใช้ AI และมาถึงศาลด้วยความเข้าใจในบันทึกคดีที่ผิดไปอย่างสิ้นเชิง ส่งผลให้ทนายความถูกผู้พิพากษาดุด่าเสียหาย รูปแบบนี้ขยายเกินไปกว่าทนายความมืออาชีพ ไปยังคู่ความที่สู้คดีด้วยตัวเอง (pro se litigants) โดยบางคนหันไปใช้ AI เป็นทางเลือกที่ประหยัดแทนการจ้างทนายความที่มีค่าใช้จ่ายสูง
เดิมพันทางการเงินอาจมีขนาดมหาศาล ผู้แสดงความคิดเห็นหนึ่งบรรยายถึงการใช้งบประมาณ 250,000 ดอลลาร์สหรัฐ ไปกับทนายความแบบดั้งเดิมก่อนจะเปลี่ยนมาใช้การสู้คดีด้วยตัวเองโดยได้รับความช่วยเหลือจาก AI และในที่สุดก็ประหยัดเงินได้ 800,000 ดอลลาร์สหรัฐ ในการตกลงระงับข้อพิพาท อย่างไรก็ตาม แนวทางนี้มีความเสี่ยงอย่างมีนัยสำคัญ ดังที่ผู้ใช้อีกคนระบุหลังจากเผชิญกับการฟ้องค้านซึ่งจำเป็นต้องจ้างทนายความมาทบทวนคำฟ้องที่สร้างขึ้นโดย AI
เหตุใดผู้เชี่ยวชาญจึงตกหลุมพรางการหลอนของ AI
ปรากฏการณ์นี้ไม่จำกัดอยู่แค่ผู้เริ่มต้นทางกฎหมาย ทนายความที่มีประสบการณ์ก็ถูกจับได้เช่นกัน ซึ่งทำให้เกิดคำถามว่าผู้เชี่ยวชาญสามารถทำผิดพลาดพื้นฐานเช่นนี้ได้อย่างไร คำตอบอยู่ที่ทั้งประสิทธิภาพที่น่าหลงใหลของ AI และความเข้าใจผิดพื้นฐานเกี่ยวกับวิธีการทำงานของเครื่องมือเหล่านี้
ฉันได้พบกับหลายคนตอนนี้ที่ใช้ LLM โดยคิดว่ามันเป็นเพียง Google ที่ดีกว่าและไม่เคยได้ยินเกี่ยวกับอาการหลอน (hallucinations) มาก่อน
ผู้ใช้หลายคนเข้าใกล้เครื่องมือ AI ทางกฎหมายด้วยความคิดแบบเดียวกับที่พวกเขาใช้กับเครื่องมือค้นหาทั่วไป โดยไม่รู้ว่าแบบจำลองภาษาขนาดใหญ่ (large language models) ไม่ได้ดึงข้อมูล แต่สร้างข้อความที่ฟังดูน่าเชื่อถือตามรูปแบบ ความเข้าใจผิดนี้เป็นอันตรายอย่างยิ่งในสาขากฎหมาย ซึ่งบรรทัดฐานและความถูกต้องคือสิ่งสำคัญที่สุด
ช่องว่างการตรวจสอบความถูกต้อง
ปัญหาหลักไม่ใช่การใช้ AI สำหรับการวิจัยทางกฎหมาย แต่เป็นการล้มเหลวในการตรวจสอบผลลัพธ์ ดังที่ผู้เชี่ยวชาญทางกฎหมายอธิบาย ถ้า AI ให้รายการอ้างอิงคดีกับผม ผมจะเข้าไปใน Westlaw และค้นหาอ่านคดีนั้นจริงๆ 只有在那个时候,如果它支持我的论点,我才会把它纳入我的提交材料中。 (Only then do I include it in my submission if it supports my argument.) กระบวนการตรวจสอบนี้จำเป็นเพราะเครื่องมือ AI มักจะสร้างคดีที่ฟังดูน่าเชื่อถือแต่ไม่มีอยู่จริง
ปัญหายังทวีความรุนแรงขึ้นจากสิ่งที่ผู้แสดงความคิดเห็นหนึ่งอธิบายว่าเป็น อคติทางการยืนยัน (confirmation bias) ทนายความอาจมีแนวโน้มที่จะเชื่อเนื้อหาที่สร้างโดย AI ที่สอดคล้องกับทฤษฎีทางกฎหมายของพวกเขา อย่างไรก็ตาม ไม่เหมือนสาขาอื่นที่ข้อมูลอาจเป็นอัตวิสัย รายการอ้างอิงทางกฎหมายโดยทั่วไปแล้วเป็นข้อเท็จจริงที่สามารถตรวจสอบได้ คดีนั้นมีอยู่จริงและพูดในสิ่งที่ AI อ้าง หรือไม่มีอยู่
ใครคือกลุ่มที่เปราะบางที่สุด?
ข้อมูลชี้ให้เห็นว่าทนายความผู้ปฏิบัติงานเดี่ยวและสำนักงานขนาดเล็กมีสัดส่วนที่ไม่สมส่วนในเหตุการณ์การหลอนของ AI รูปแบบนี้อาจสะท้อนถึงข้อจำกัดด้านทรัพยากร – การปฏิบัติงานขนาดเล็กอาจขาดกระบวนการทบทวนที่เข้มงวดเหมือนบริษัทใหญ่ หรือรู้สึกถึงความกดดันมากขึ้นในการทำงานอย่างมีประสิทธิภาพ อย่างไรก็ตาม ผู้แสดงความคิดเห็นบางคนตั้งคำถามว่าสิ่งนี้สะท้อนถึงอัตราการใช้งานที่สูงกว่าจริงหรือไม่ หรือเพียงแค่บริษัทขนาดเล็กต้องเผชิญกับการตรวจสอบที่มากขึ้นเมื่อเกิดข้อผิดพลาด
เครื่องมือเองก็แสดงรูปแบบที่ชัดเจน โดยมี ChatGPT โดดเด่นในรายงานอาการหลอน จากการวิเคราะห์หนึ่งพบว่า ChatGPT มีส่วนเกี่ยวข้องในมากกว่าครึ่งหนึ่งของกรณีที่ได้รับการบันทึก ตามมาด้วยเครื่องมืออื่นๆ เช่น Claude และแพลตฟอร์ม AI เฉพาะทางกฎหมายต่างๆ สิ่งนี้น่าจะสะท้อนถึงทั้งส่วนแบ่งการตลาดและวิธีการที่เครื่องมือเหล่านี้ถูกนำไปตลาดให้กับผู้เชี่ยวชาญทางกฎหมาย
การกระจายตัวของขนาดสำนักงานในเหตุการณ์ AI Hallucination:
- สำนักงานทนายความเดี่ยว: เป็นส่วนใหญ่ของกรณี
- สำนักงานขนาดเล็ก (ทนายความ 2-15 คน): เป็นส่วนที่มีนัยสำคัญ
- สำนักงานขนาดใหญ่ (ทนายความ 100+ คน): พบได้น้อยมาก
- ทนายความภาครัฐ: พบเป็นกรณีเฉพาะ
อนาคตของ AI ในวงการกฎหมาย
แม้จะมีความเสี่ยง ผู้เชี่ยวชาญทางกฎหมายหลายคนมองว่า AI เป็นส่วนหนึ่งของอนาคตที่หลีกเลี่ยงไม่ได้ กุญแจสำคัญคือการพัฒนาพฤติกรรมและการป้องกันที่ดียิ่งขึ้น บางคนแนะนำทางออกทางเทคนิค เช่น การดึงและตรวจสอบเอกสารที่อ้างอิงโดยอัตโนมัติ ในขณะที่คนอื่นๆ เน้นย้ำถึงความจำเป็นในการศึกษาที่ดีขึ้นเกี่ยวกับข้อจำกัดของ AI
การตอบสนองของอุตสาหกรรมกฎหมายจะมีความสำคัญอย่างยิ่ง เมื่อศาลตระหนักถึงอาการหลอนของ AI มากขึ้น พวกเขามีแนวโน้มที่จะกำหนดข้อกำหนดการตรวจสอบที่เข้มงวดมากขึ้น บางเขตอำนาจศาลอาจพัฒนากฎเกณฑ์เฉพาะสำหรับการยื่นคำร้องที่ได้รับความช่วยเหลือจาก AI ในขณะที่สภาทนายความอาจสร้างข้อกำหนดการศึกษาต่อเนื่องที่มุ่งเน้นไปที่จริยธรรมและแนวทางปฏิบัติที่ดีที่สุดของ AI
สถานการณ์ปัจจุบันเป็นตัวแทนของช่วงเวลาการเปลี่ยนผ่านที่เทคโนโลยีได้แซงหน้ามาตรฐานทางวิชาชีพ ดังที่ผู้แสดงความคิดเห็นหนึ่งระบุ ในท้ายที่สุด ความรับผิดชอบสุดท้ายอยู่ที่ทนายความที่จะต้องแน่ใจว่าเธอสามารถยืนอยู่เบื้องหลังทุกคำของทุกคำร้องที่ยื่นเหนือลายเซ็นของเธอได้ ไม่มีเครื่องมือใด ไม่ว่าจะก้าวหน้าแค่ไหน ที่จะเปลี่ยนความรับผิดชอบพื้นฐานทางวิชาชีพนี้
