ระบบ AI ที่อ้างว่าสามารถแก้ปัญหาหนึ่งที่ใหญ่ที่สุดของปัญญาประดิษฐ์ทางกฎหมายได้ ก่อให้เกิดทั้งความตื่นเต้นและความสงสัย ในขณะที่ผู้สร้าง Arbitrus.ai อวดอิงเกี่ยวกับความสม่ำเสมอที่สมบูรณ์แบบในการตัดสินคำถามทางกฎหมาย ชุมชนกำลังขุดคุ้ยถึงผลกระทบในทางปฏิบัติและคำถามที่ยังไม่มีคำตอบที่ล้อมรอบเทคโนโลยีใหม่นี้
คำสัญญาของผู้พิพากษา AI ที่มีความสม่ำเสมอ
ข้ออ้างหลักจากผู้สร้าง Arbitrus คือระบบ AI ของพวกเขา ซึ่งสร้างขึ้นในฐานะตัวแยกประเภท (classifier) แทนที่จะเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) นั้น ให้ความสม่ำเสมอที่สมบูรณ์แบบ across การใช้ถ้อยคำที่แตกต่างกันของคำถามทางกฎหมายเดียวกัน สิ่งนี้แก้ไขปัญหา prompt variance โดยตรง ซึ่งได้รับการสาธิตอย่างโด่งดังในการวิจัยของ Jonathan Choi ที่ซึ่ง LLMs อย่าง ChatGPT ให้คำตอบที่แตกต่างกันกับคำถามทางกฎหมายเดียวกัน ขึ้นอยู่กับวิธีการใช้คำ บริษัทระบุว่าระบบของพวกเขาบรรลุความสม่ำเสมอที่สมบูรณ์แบบนี้ด้วย zero hallucinations ในการทดสอบภายในของพวกเขา โดยวางตำแหน่งมันเป็นเครื่องมือที่มีศักยภาพสำหรับการตัดสินใจทางกฎหมายที่เชื่อถือได้
ฉันชอบแนวคิดของ Arbitrus.ai แต่ว่าพวกเขาต้องการเงิน 2,500 ดอลลาร์สหรัฐ ต่อครั้งเพื่อทดสอบมัน ฉันหวังว่าพวกเขาจะมีเวอร์ชันทดลองให้ได้ลองเล่น
เปรียบเทียบ: LLMs กับ Arbitrus Classifier
ด้าน | LLMs (เช่น ChatGPT) | Arbitrus Classifier |
---|---|---|
ความสม่ำเสมอ | มีความแปรปรวนสูงในการตอบสนอง | อ้างว่ามีความสม่ำเสมอที่สมบูรณ์แบบ |
การหลอนลวง | เกิดขึ้นบ่อยครั้ง | อ้างว่าไม่มีการหลอนลวงเลย |
การให้เหตุผลทางกฎหมาย | คุณภาพแปรผัน | รวมการให้เหตุผลในผลลัพธ์ |
การเข้าถึง | เข้าถึงได้อย่างกว้างขวาง | ราคา 2,500 ดอลลาร์สหรัฐต่อการใช้งาน |
ความโปร่งใส | สถาปัตยกรรมแบบเปิด | เทคโนโลยีที่เป็นกรรมสิทธิ์ |
รูปแบบธุรกิจและตลาดเป้าหมาย
ในขณะที่บทความแรกวางตำแหน่ง Arbitrus ว่าเป็นตัวแทนที่อาจมาแทนที่ผู้เชี่ยวชาญทางกฎหมายมนุษย์ การตรวจสอบของชุมชนเปิดเผยว่ารูปแบบธุรกิจที่แท้จริงนั้นมุ่งเน้นไปที่การอนุญาโตตุลาการส่วนตัว (private arbitration) มากขึ้น ระบบนี้ถูกทำการตลาดในฐานะระบบศาลส่วนตัวที่มีผู้พิพากษาเป็น AI ซึ่งมีเป้าหมายเพื่อให้ทางเลือกที่เร็วกว่าและถูกกว่ากับศาลสาธารณะหรือการอนุญาโตตุลาการแบบดั้งเดิมของ AAA สิ่งนี้ชี้แจงว่าเทคโนโลยีนี้ไม่ได้กำหนดเป้าหมายไปที่สำนักงานกฎหมายหรือผู้พิพากษาโดยตรง แต่เป็นคู่กรณีที่ขัดแย้งกันซึ่งแสวงหาการแก้ไขข้อพิพาทที่มีประสิทธิภาพนอกระบบดั้งเดิม จุดราคาที่ 2,500 ดอลลาร์สหรัฐ สำหรับการใช้บริการถูกบันทึกไว้ว่าเป็นอุปสรรคสำคัญสำหรับการทดลองใช้แบบไม่เป็นทางการ
ความกังวลเรื่องความโปร่งใสและความไว้วางใจ
ชุมชนทางกฎหมายได้ตั้งคำถามสำคัญเกี่ยวกับวิธีที่ Arbitrus จัดการกับประเด็นวิกฤตเรื่องความโปร่งใสและความสามารถในการอธิบาย (explainability) ผู้เชี่ยวชาญทางกฎหมายมักต้องการเหตุผลที่ชัดเจนเบื้องหลังการตัดสินใจ ไม่ใช่แค่ผลลัพธ์แบบทวิภาค (binary outcomes) ในขณะที่เอกสารของบริษัทบ่งชี้ว่าระบบของพวกเขาส่งออกเหตุผลทางกฎหมายพร้อมกับการตัดสินใจ แต่ลักษณะที่เป็นกรรมสิทธิ์ (proprietary) ของเทคโนโลยีของพวกเขายกข้อกังวลขึ้นมา ดังที่ผู้แสดงความคิดเห็นหนึ่งระบุ ทนายความที่มีความสามารถส่วนใหญ่มีมาตรฐานสูงเมื่อพูดถึงการไว้วางใจผลลัพธ์ AI/ML ใดๆ ก็ตาม ชี้ให้เห็นว่าการสร้างความไว้วางใจภายในชุมชนทางกฎหมายจะเป็นความท้าทายที่สำคัญ
ข้อกังวลหลักของชุมชนเกี่ยวกับ Arbitrus.ai:
- ความโปร่งใส: ตัวจำแนกประเภทให้เหตุผลทางกฎหมายที่สามารถอธิบายได้อย่างไร?
- การเข้าถึง: ราคา 2,500 ดอลลาร์สหรัฐฯ จำกัดการทดสอบและการนำไปใช้
- ความไว้วางใจ: ผู้เชี่ยวชาญด้านกฎหมายต้องการความมั่นใจสูงในผลลัพธ์ของ AI
- เทคโนโลยี: ลักษณะที่เป็นกรรมสิทธิ์ป้องกันการตรวจสอบอิสระ
- การประยุกต์ใช้: มุ่งเน้นไปที่การอนุญาโตตุลาการเอกชน ไม่ได้มาแทนที่ทนายความหรือผู้พิพากษา
คำถามเกี่ยวกับเทคโนโลยีที่เป็นกรรมสิทธิ์
บางทีจุดสนใจของการอภิปรายที่สำคัญที่สุดอาจอยู่ที่ว่าตัวแยกประเภทที่ Arbitrus ใช้เป็นประเภทใด บริษัทระบุอย่างชัดเจนว่าข้อมูลนี้เป็นกรรมสิทธิ์และเป็นส่วนหนึ่งของ moat ของ Fortuna หมายความว่าพวกเขาถือว่ามันเป็นข้อได้เปรียบทางการแข่งขันที่พวกเขาไม่เต็มใจที่จะเปิดเผย สิ่งนี้สร้างความตึงเครียดระหว่างความจำเป็นสำหรับความโปร่งใสในการประยุกต์ใช้ทางกฎหมายและความเป็นจริงทางการค้าในการปกป้องทรัพย์สินทางปัญญา ชุมชนได้บันทึกไว้ว่าแม้แต่ LLMs ก็สามารถถูกมองเป็นตัวแยกประเภทได้ ทำให้ความแตกต่างระหว่างแนวทางของพวกเขากับเทคโนโลยีที่มีอยู่นั้นค่อนข้างไม่ชัดเจนหากไม่มีรายละเอียดทางเทคนิคเพิ่มเติม
การปรากฏตัวของระบบ AI อย่าง Arbitrus แสดงถึงการพัฒนาที่สำคัญในเทคโนโลยีกฎหมาย แต่ก็ยังเน้นย้ำถึงความสมดุลที่ซับซ้อนระหว่างนวัตกรรมทางเทคโนโลยีและมาตรฐานที่เข้มงวดซึ่งจำเป็นสำหรับการประยุกต์ใช้ทางกฎหมาย แม้คำสัญญาของการแก้ไขทางกฎหมายที่สม่ำเสมอและมีราคาไม่แพงจะน่าดึงดูด แต่คำถามเกี่ยวกับความโปร่งใส ความไว้วางใจ และการเข้าถึงในทางปฏิบัติจะต้องได้รับการแก้ไขก่อนที่ระบบดังกล่าวจะได้รับการยอมรับอย่างกว้างขวางในชุมชนทางกฎหมาย
อ้างอิง: LLMs are Bad Judges. So use Our Classifier Instead.