AI聊天機器人引用假法律案件

AI聊天機器人引用了假法律案件在法律實踐中引起了人們的關注:依靠生成AI工具而無需嚴格驗證的風險。在最近的一項事件中,著名律師事務所Latham&Watkins的一名律師提交了聯邦法院申請,該文件引用了由人類AI Chatbot製造的不存在的案件,該案件是由人類人類製定的。該活動類似於2023年的Chatgpt不幸,涉及虛假的法律引用。這種情況不僅威脅到專業的信譽,而且還提出了有關將人工智能融入法律等敏感行業的重大道德,程序和技術問題。

關鍵要點

  • Latham&Watkins律師使用Claude AI進行法院簡介,並在不知不覺中援引虛擬法律案件。
  • 該事件發生在其他與AI相關的法律失誤之後,包括Matos訴Today的Chatgpt案。
  • 法律界面臨著對人工智能素養,道德培訓和更強大的審查程序的緊急要求。
  • 人類的克勞德(Claude)雖然比chatgpt更具安全意識,但仍然容易產生不准確的內容。

另請閱讀:AI律師:人工智能會確保所有人正義嗎?

當律師使用擬人化的聊天機器人克勞德(Claude)幫助起草聯邦法院提交時,發生了AI生成的錯誤信息的最新案件。該文件包括引用偽造的法律案件。審查後,法官和反對律師無法找到引用的案件。這引發了審查和正式反應。未能驗證克勞德的產出會導致專業的尷尬和可能的法律影響。

這一事件與2023年的情況相媲美,當時Matos訴Empire的律師今天提交了包含Chatgpt造成的幾個虛擬案件的簡介。在向法院提交AI衍生的內容之前,這兩項事件都涉及事實檢查不足。

什麼是AI幻覺?

定義: 一個 AI幻覺 當生成AI模型產生實際上不准確,捏造或邏輯上不一致的內容時,就會發生。在法律寫作中,這可能包括發明的案件,錯誤引用的裁決或虛假陳述法規。

另請閱讀:更聰明的AI,出現了風險的幻覺

由擬人化開發的克勞德(Claude)的設計具有“憲法AI”架構,可將產出與道德標准保持一致。雖然它的銷售比Chatgpt更安全,但它仍然產生了一種虛擬的引文,該引文令人信服,最初未被發現。這說明了未經驗證的AI使用的持續危險。

下表比較了生成AI引起的最顯著的法律幻覺事件:

特徵克勞德事件Chatgpt事件(Matos訴今天的帝國)
日期2024年3月2023年5月
法律公司涉及Latham&WatkinsLevidow,Levidow&Oberman(位於紐約)
使用的AI工具克勞德(擬人化)chatgpt(Openai)
錯誤類型假法律案件引用引用了六個虛擬先例
司法反應審查和道德問題駁回摘要,建議進行製裁

法律專業人員和AI研究人員對與克勞德有關的事件做出了迅速反應。法律倫理學家表示關注的是,律師在不進行足夠的監督的情況下依靠生成的AI工具來依靠生成的AI工具。美國律師協會(ABA)重申,不管它是否源於AI工具,都要求律師驗證其提交內容的準確性。

密歇根大學法學院的法律學者麗莎·費爾德曼(Lisa Feldman)教授說:“這些錯誤不僅令人尷尬。它們代表了專業責任的違反行為,以勤奮和能力代表客戶和法院。”

AI工具通常作為簡化法律工作的解決方案。儘管如此,這些事件仍突出了未能驗證AI生產的材料如何損害法律體系所需的專業水平。

另請閱讀:最低幻覺速率的頂級AI模型

道德和責任:問責制在哪裡?

問責制問題超出了個人律師。當虛假的先例由於AI生成的內容而輸入法院記錄時,仍必須分配責任。是在開發商,律師事務所還是使用該技術的律師?

大多數法律框架,包括ABA模型規則1.1(能力)和規則3.3(對法​​庭的坦率),對律師承擔全部責任。換句話說,即使AI生成了內容,律師仍然對其準確性負責。法院明確表示,工具不能取代人類的盡職調查。

專家觀點:律師事務所的最佳實踐

法律技術顧問Rajeev Choudhary博士概述了在法律工作流程中使用AI工具的三種基本實踐:

  • 驗證協議: AI產生的每個句子都必須針對已建立和可信的法律來源進行驗證。
  • 培訓和人工智能掃盲: 必須教育律師,以了解AI生成的錯誤信息以做出明智的決定的風險。
  • AI審核日誌: 公司應記錄並存儲與AI系統的所有互動,以啟用審查並保持問責制。

2023(5月): Chatgpt為Matos訴今天的帝國案創建了六個假引用。律師面臨專業製裁。
2023(10月): 一名紐約聯邦法官向法院訴訟中的AI綁定的風險告知法律專業人員。
2024(3月): Claude AI在Latham&Watkins法院提交的文件中提到了一個虛擬案件。這引起了整個行業的關注。

  • AI可以用來起草法律文件嗎? 是的。 AI可以協助起草,但是律師必須在法律程序中使用所有內容之前仔細審查和驗證所有內容。
  • 法律寫作中的AI幻覺是什麼? 當AI創建發明或不准確的信息時,就會發生這種情況。在法律背景下,這包括不存在的判例法或扭曲的法規。
  • Chatgpt或其他人工智能以前是否引起了法律問題? 是的。 Chatgpt在2023年引起了偽造的法律引用。現在,克勞德(Claude)增加了這些問題。
  • 使用AI工具的律師的道德準則是什麼? 律師必須驗證所有內容,維護準確性,並繼續對提交的材料負責,無論AI參與如何。

另請閱讀:人工智能和建築

法律職業必須駕馭關鍵時刻。 Claude和Chatgpt等生成的AI工具可以提供效率,但如果不謹慎使用,它們也會帶來重大危險。這個最近的案件強調了審查協議,培訓和道德監督的重要性。法律制度需要信任和精確。不管AI工具多麼複雜,都必須受到人類判斷的約束。律師不能將問責制委託給算法。最終的責任將永遠取決於人,而不是計劃。

參考

  • 路透社:律師引用了人工智能工具產生的假法庭案件
  • Gizmodo:另一個AI聊天機器人剛欺騙了律師
  • 邊緣:克勞德·艾(Claude AI)在聯邦申請中引用了假法律先例
  • Brynjolfsson,Erik和Andrew McAfee。 第二個機器時代:在精彩技術時期的工作,進步和繁榮。 WW Norton&Company,2016年。
  • 馬庫斯,加里和歐內斯特·戴維斯。 重新啟動AI:建立人工智能我們可以信任。 Vintage,2019年。
  • 羅素,斯圖爾特。 人類兼容:人工智能和控制問題。維京,2019年。
  • 韋伯,艾米。 大九人:科技泰坦和他們的思維機器如何扭曲人類。 PublicAffairs,2019年。
  • 丹尼爾·克雷維爾(Crevier)。 AI:尋找人工智能的動盪歷史。基本書籍,1993年。

Source link

Scroll to Top