你會雇用一位剛因使用 AI 而被制裁的律師嗎?

(SeaPRwire) – 律師紛紛使用人工智慧撰寫法律摘要並協助準備法庭辯護,然而效果卻不盡理想。
阿拉巴馬州一名家庭成員因信託糾紛敗訴,原因在於他們的律師提交了一些根本不存在的案例引用。阿拉巴馬州最高法院駁回其上訴,稱其行為極其不當,並禁止該律師在沒有共同律師簽名的情況下再次向該法院提交文件。
同年,俄勒岡州的一名聯邦法官對兩名律師處以11萬美金的罰款——這是美國法律史上因AI「幻覺」(hallucination)而開出的最高罰單——因為他們提交了23項虛假的案例引用和八項虛構的引述。此案最終被駁回。
紐約市,一名法官最近裁定,一名被告使用通用型AI聊天機器人來協助準備案件時,已放棄了律師與客戶之間的保密特權。如果你將自己的辯護策略輸入AI系統,政府即可 subpoena(傳票)索取這些資料、閱讀內容,並將其用作不利於你的證據。
根據律師兼數據科學家達米安·沙爾羅坦(Damien Charlotin)建立的資料庫顯示,目前全球已有超過1,300起案例中,法院或仲裁機構曾針對法律文件中由AI產生的「幻覺」提出評論。每一宗案例背後都有一位支付費用給律師、信任法律體系的客戶;而多數時候,也都有律師盲目信賴一項能夠自信生成文本卻無自我驗證能力的技術。
並非所有AI都一樣。通用型大型語言模型如ChatGPT或Claude,它們是在開放網路上訓練而成;而業界專用的法律AI工具則連接到律師過去數十年來一直在使用的相同資料庫,兩者之間存在真實差異。遺憾的是,華爾街一直難以分辨兩者的差別。
當Anthropic recently(最近)為Claude推出法律外掛程式後,科技股市場隨即出現約2850億美金的拋售潮。然而世界各地法庭內部的混亂狀況卻訴說著截然不同的故事:解決法律領域的人工智慧問題,遠比調整標準大型語言模型困難得多。
我在三個司法管轄區擔任過律師,如今則是全球最大法律科技公司LexisNexis的總顧問。
我目前最常聽到的問題是:「哪種AI最強大?」我的看法是這個問題問錯了。正確的問題應該是:「哪種AI能在法庭上被信任?」在法律領域中,這兩者並非同一回事。
律師對客戶與法院同時負有責任。《美國律師協會》已指出《職業行為示範規則》中的五項規則直接受到AI應用的影響,包括專業能力、保密義務、對法庭的誠實陳述以及監督責任。
當律師提交含有「幻覺」的案例引用時,不僅辜負了自己的客戶,更違背了對法庭的承諾。實際上,此舉還會破壞整個司法體系所依賴的紀錄完整性。
此問題的結構性根源不僅限於律師所使用的模型類型。通用型AI設計用來產生看似正確的答案——這在大多數情境下已是大部分工作的目標——但在法律領域卻是錯誤的方向。該模型無法確認其所引用的案例是否存在、所述內容是否與摘要相符,或是該案例是否仍是具約束力的權威來源。這種差距屬於架構層面的問題,而非僅需透過下一次訓練就能解決的能力缺陷。其結果是具體且嚴重的:律師遭罰款、訴訟被駁回、被告被移交檢方起訴。
對於任何法律AI工具的評估標準,不應只是它在基準測試上的表現,而應關注其建構基礎以及律師能否在公開法庭上追溯、核實並承擔起對產出內容的責任。
AI改變法律實務的方式有兩種:一是壓縮(compression),即同樣的工作更快完成;二是擴張(expansion),也就是以前不可能做到的新工作。AI在法律領域的擴張潛力巨大,但必須建立在一個不會虛構基本法律的基礎上。基於 decades(數十年)的法官個人判決傾向數據所構建的訴訟策略,並非現有任務的加速版本,而是全新類型的業務。同樣地,將法規監測功能嵌入交易文件中,使其能即時更新法律變動,也是如此。此類例子還有很多,且每週都在增加。
市場終究會反映 profession(專業)早已知曉的事實。在法律領域中,答錯的成本是由某人的自由、資產或家庭的未來來承擔的。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
