哥倫比亞的一名法官使用ChatGPT做出法院裁決,這顯然是第一次在人工智能文本生成器的幫助下做出法律裁決--或者至少是我們第一次知道。根據2023年1月30日的一份法庭文件,主持卡塔赫納市第一巡回法庭的胡安-曼努埃爾-帕迪利亞-加西亞法官說,他用人工智能工具提出有關該案件的法律問題,並將其答復納入他的裁決。
"這個決定的論據將根據人工智能(AI)的使用來確定,"加西亞在決定中寫道,"因此,我們進入這些程序,並提出的部分法律問題。"
"包括這些人工智能產生的文本的目的絕不是要取代法官的決定,"他補充說。"我們真正追求的是在證實人工智能提供的信息後優化起草判決書的時間。"
該案件涉及與一傢醫療保險公司的爭議,即一名自閉癥兒童是否應獲得醫療保障。根據法庭文件,輸入人工智能工具的法律問題包括:"自閉癥未成年人是否可以免於支付其治療費用?"和"憲法法院的判例是否在類似案件中做出過有利的裁決?"
加西亞在裁決中包括聊天機器人的全部回答,這顯然是有法官第一次承認這樣做。法官還在判詞中寫入他自己對適用的法律先例的見解,並體積人工智能被用來"擴展所通過的決定的論點"。在詳細介紹與大赦國際的交流後,法官隨後采用大赦國際的答復和他自己的法律論據作為其決定的理由。
哥倫比亞法律並不禁止在法庭裁決中使用人工智能,但像ChatGPT這樣的系統以給出有偏見的、歧視性的、或純粹錯誤的答案而聞名。這是因為語言模型對文本沒有實際的"理解",它隻是根據用於訓練系統的數百萬個例子的概率來合成句子。
ChatGPT的創建者OpenAI已經實施過濾器,以消除一些更有問題的回應。但開發者警告說,該工具仍然有很大的局限性,不應該被用來做重要的決策。
雖然本案顯然是法官首次承認使用ChatGPT這樣的人工智能文本生成器,但一些法院已經開始使用自動決策工具來決定量刑或刑事被告是否被保釋,這是具有爭議性的。這些系統在法院的使用受到人工智能倫理學傢的嚴厲批評,他們指出,這些系統經常強化種族主義和性別歧視的陳規定型觀念,並放大預先存在的不平等形式。
盡管哥倫比亞法院的文件表明,人工智能主要用於加快起草文書,而且其反應經過事實核查,但這很可能是一個跡象,表明更多的事情正在發生。