精選解讀|「AI 律師」沒有突然出現,先變的是法律工作被拆成可交付的流程段

當「法律任務」的基準測試分數上升、專業工具商把稽核與核可做進產品,關鍵問題就從「能不能取代」轉成「誰能把責任與證據鏈做完整」

· 精選解讀,產業趨勢,AI 轉型,政策與倫理,AI 落地應用
InfoAI 全球AI新聞摘要與解讀

你以為 AI 不能當律師,其實是在看「責任可追溯性」能不能被系統化

如果你問企業法務最怕什麼,多半不是多打一份合約,而是出事時說不清楚。哪一段條款是誰改的?改動依據是什麼?當時參考了哪些資料?最後是誰簽字?在法律這種高責任工作裡,錯一次通常不只是答錯,而是流程、客戶承諾、法遵與聲譽一起被牽動。也因此,過去幾年大家說「AI 還當不了律師」,聽起來一直很合理。

但外媒的這篇〈Maybe AI agents can be lawyers after all〉的重點,並不是在宣稱「AI 律師上線」,而是在提醒:某些原本很硬的判斷基準,開始出現鬆動的跡象。

外媒引用 Mercor 的 APEX-Agents Leaderboard 指出,在「法律、企業分析」等專業任務上,先前不少模型在一次作答(one-shot trials)的表現多在 25% 以下;Anthropic 的 Opus 4.6 出來後,one-shot 接近 30%。如果允許多次嘗試(原文意思是再多給幾次解題機會),平均可以到 45%。Mercor 執行長 Brendan Foody 甚至用「從 18.4% 到 29.8% 很瘋狂」形容這個跳升。這些分數當然不等於「可以直接交付」,但它是一個值得記下的訊號:法律這塊原本被視為最後防線的專業領域,開始出現可觀測的鬆動。

01|第一個問題其實不是「會不會取代律師」,而是「哪些工作本來就像流程」

很多人把「律師」想成一個不可拆解的整體,所以問題很自然就落在「AI 能不能取代」。但在企業內部,最花時間的往往不是最後那個簽字判斷,而是大量的文字整理與對照:條款比對、版本差異、文件摘錄、風險清單初稿、把過往先例整理成可用的摘要。這些工作不是不需要專業,而是更像「先把資料整理好,讓人可以做判斷」,而且結果可以被第二個人覆核。

所以,更合理的理解是:所謂「AI 律師」先從把準備工作自動化開始,讓人把時間留給真正需要判斷、也需要承擔責任的部分。

02|真正的門檻也不是「模型多強」,而是「出了事能不能追得回去」

對企業來說,AI 進流程最麻煩的,從來不是偶爾不準,而是出了事後沒辦法復盤。你不知道它為什麼寫出那段文字,也不知道誰看過、誰改過、誰批准過。法律領域真正稀缺的資源,其實是「可追溯、可簽核、可復盤」,而不是單一的一次模型分數。

這也解釋了為什麼專業工具與內容大廠的策略會長成另一種樣子。路透社近來的報導提到,Thomson Reuters 會持續擴大代理能力;同一篇也提到生成式 AI 已占其合約基礎價值約 28%,上一季約 24%。報導並描述 Westlaw Advantage 是一個 agentic AI 產品,且該公司雇用約 2,700 名受訓法律專業人員支援內容與訓練。把這幾個訊號放在一起看,你會更清楚:市場買的不是「會寫字的 AI」,而是「能把流程做得可追溯的 AI」。

同時,專業團體也在補上「怎麼用才不踩線」的討論。Council of Bars and Law Societies of Europe(CCBE)的指引把生成式 AI 放進專業倫理與義務的脈絡,談機會、風險與責任。這類文件通常不是在叫你放心用,而是在提醒你:可以用,但要把責任與風險安排清楚。


03|現階段比較像「AI 幫你做準備」,不是「AI 取代你簽字」

如果你把「AI 律師」想成能自己接案、自己出法律意見、自己承擔責任,那現階段不成立。TechCrunch 這篇也不是這個意思。它真正想講的是:代理型系統在更貼近實務的任務條件下,開始在法律相關任務上看見一些進步。

因此,比較接近現實的用法,是把它放在「準備簽字前」那一段,先讓它做整理、比對、摘要與初稿;最後要不要採用、怎麼改,仍然由人決定。

04|接下來可能會走出兩條路:保守導入,或把服務做成產品去碰制度邊界

當法律工作被拆成流程段後,市場大概會分出兩種路線。

路線 A:AI 做整理,人做核可。

重點不是把人拿掉,而是把人放到更關鍵的位置。實務上會把核可點與稽核紀錄設好:哪些步驟一定要人工批准、輸出要附哪些來源、版本差異要怎麼保留。像 The Law Society 那類指引的語境,也往往是在提醒組織理解機會與風險、注意資料與技術風險,並把責任安排清楚。

路線 B:把某些法律服務包成產品,試著不按時數收費。

這條路更容易碰到制度摩擦,例如未經授權執業(UPL)與責任歸屬。National Conference of State Legislatures(NCSL)在談 UPL 規範現代化時,會把「AI 驅動法律服務工具」與「司法可近性」放在同一個框架裡,主張在保護公眾與支持創新之間找到新的治理方式。保守一點的讀法是:制度端可能會調整規範來容納新工具,但前提仍是公眾保護與責任界線。

05|那你要怎麼判斷一個工具「值不值得放進流程」

把判斷拉回到可執行的層面,你可以先抓兩個檢查點。

第一,採購條款有沒有把「可追溯」寫進去。

供應商能不能說清楚:稽核紀錄怎麼留、核可點怎麼設、輸出如何回查來源。

第二,產品介面能不能讓你一眼看懂「發生了什麼」。

你打開系統時,看不看得到來源、改動差異、這一步是誰批准、哪一版被採用。

如果這兩點做不到,再強的模型也很難進到法律這種高責任流程。

06|對企業來說,接下來三個更務實的問題

第一,你們的法務工作裡,哪些是「可以被第二人覆核」的文字流程?先列出來,再談導入。

第二,你們要把 AI 放在哪些核可點之前?哪些步驟必須人工批准、哪些輸出一定要附來源?

第三,你們打算怎麼復盤錯誤?如果發現輸出有問題,能不能回到同一份文件、同一個版本差異、同一個核可紀錄,把它重新處理並留下紀錄?

總結|法律領域的「代理化」不是一夜之間的奇蹟,而是流程被重新設計

Mercor 的 APEX-Agents Leaderboard 顯示,Opus 4.6 在法律與企業分析等專業任務的表現出現躍升,one-shot 接近 30%,多次嘗試平均約 45%。這不代表你可以把法律意見交給 AI,但代表「把某些準備工作交給 AI」開始變得更合理。

另一方面,路透社給了另一個角度:專業工具商把代理能力、內容資產與合約價值的成長綁在一起,並把「可追溯、可稽核」做成產品競爭點。當你在產品裡看見核可點、稽核紀錄與引用回查,你才會真的敢把 AI 放進流程。

更值得追問的是:你要把 AI 用在「準備簽字前」的哪一段?你能不能用採購條款與介面設計去驗證供應商是否把責任鏈做完整?這兩個問題一旦答得出來,「AI 律師」就不再是一句口號,而會變成一個可被管理、可被稽核的流程改造。

FAQ

Q1:這是不是代表「AI 已經能當律師」?

不是。這篇討論談的其實是「基準測試出現什麼訊號」。在某些法律相關任務上,模型表現確實有進步,特別是在允許多次嘗試的情境下,但這和「可以獨立執業」或「直接出具法律意見」之間,還隔著很長一段距離。比較合理、也比較安全的用法,是先把它放在整理、比對、摘要與初稿這些準備工作,最後的判斷與簽字,仍然由人來負責。

Q2:分數只有 30% 或 45%,為什麼還值得關注?

因為很多法務流程,本來就不是一次作答就交付。現實中的法律工作,更像是不斷補資料、修版本、再交由人審核。外媒用 one-shot 和「多給幾次嘗試」做對照,其實是在暗示代理型系統在多輪整理情境下的差異。對企業來說,這代表的不是「把責任外包給 AI」,而是有機會減少大量前置整理時間。

Q3:企業要怎麼比較安全地導入這類工具?

重點應該放在「責任鏈怎麼設」。在挑工具之前,先把內部規則講清楚:哪些步驟一定要人工批准?輸出要不要附來源?版本差異與操作紀錄要不要保留?The Law Society 的相關指引語境,其實也是在提醒這件事:導入不是只看效率,而是要理解資料與技術風險,並把責任安排清楚。

Q4:這會怎麼改變法律服務的收費方式?

一個可能的方向是,可重複、可流程化的工作更容易被商品化,市場可能會從單純按時數計費,往「工具+人工審核」的混合模式移動。路透社提到 Thomson Reuters 把代理能力擴張,和合約基礎價值占比成長放在同一段敘事裡,其實就是在傳遞一個訊號:「專業級 AI」正在被當成正式產品線來經營,而不只是附加功能。

Q5:制度面最可能卡在哪裡?

主要會卡在三個地方:未經授權執業(UPL)、責任歸屬,還有一般人對 AI 輸出的過度信任。NCSC 把 UPL 規範現代化,和 AI 法律工具、司法可近性放在同一個框架裡討論,代表制度端可能會嘗試調整規範來容納新工具,但前提仍然是公眾保護與責任界線不能模糊。

參考資料:

  • Maybe AI agents can be lawyers after all

  • Thomson Reuters reports fourth-quarter revenue rise, shares slip

  • CCBE guide on the use of generative AI by lawyers (PDF)

  • Generative AI: the essentials (The Law Society)

  • Modernizing unauthorized practice of law regulations to embrace technology, improve access to justice (NCSC)

相關閱讀推薦:

文/ InfoAI 編輯部

AI 時代的思考力革命|AI 素養,不是學技術,而是拿回主導權的能力升級。與 AI 一起思考,成為能定義方向的人

版權聲明與授權須知

本內容由 InfoAI 擁有著作權。如有引用、轉載或任何商業用途的需求,請來信聯絡: contentpower688@gmail.com

用內容建立信任
用洞察塑造品牌

在 AI 時代,真正有力量的行銷不是廣告聲量,而是持續輸出的深度思考。InfoAI 把全球 AI 趨勢與報告,轉譯成清楚、精準、有觀點的內容,讓企業不只是跟上變化,而是成為洞察的提供者,讓品牌變成被信任的決策夥伴。如果你不想只是「談 AI」,而是想「透過 AI 影響市場與客戶」,那就從內容開始。歡迎來信: contentpower688@gmail.com

如果你覺得這篇解讀對你有幫助,歡迎訂閱 InfoAI 電子報,我們將持續為你精選 全球 AI 新聞與趨勢洞察,幫助你看懂新聞背後的真正意義。也別忘了加入透過[QRCode]/[按鈕]加入 Line 社群 ,隨時掌握值得關注的 AI 發展與專業觀點。

Section image

AI 協作聲明

本篇文章由 InfoAI 團隊策劃,並透過人工智慧工具協助資料整理與內容撰寫,最終內容由編輯進行人工審閱與優化。

Section image

InfoAI 讀懂 AI 如何改變世界

全球AI新聞精選與解讀

Section image

Content Power 重構並流動知識

重新提煉知識轉化價值