在最近的一起法庭案件中,一名律师依靠ChatGPT进行法律研究,结果提交了虚假信息。这一事件揭示了人工智能在法律领域的潜在风险,包括错误信息的传播。
该案件围绕着一名男子就所谓的人身伤害起诉一家航空公司。原告的法律团队提交了一份简报,引用了几个以前的法庭案件来支持他们的论点,试图为他们的主张建立一个法律先例。然而,航空公司的律师发现,一些引用的案例并不存在,并迅速提醒主审法官。
主审此案的Kevin Castel法官对这种情况表示惊讶,称其为"史无前例的情况"。在一份命令中,法官要求原告的法律团队做出解释。
首席律师的同事Steven Schwartz承认利用ChatGPT搜索类似的法律先例。在一份书面声明中,Schwartz表示深感遗憾,他"以前从未将人工智能用于法律研究,不知道其内容可能是虚假的"。
该文件所附的截图显示了Schwartz和ChatGPT之间的对话。在提示中,Schwartz问一个具体的案例,即Varghese诉中国南方航空股份有限公司,是否真实。
ChatGPT肯定了其真实性,表示该案件可以在LexisNexis和Westlaw等法律参考数据库中找到。然而,随后的调查显示,该案件并不存在,导致人们对ChatGPT提供的其他案件产生进一步怀疑。
鉴于这一事件,涉案的两位律师,即来自Levidow, Levidow & Oberman律师事务所的Peter LoDuca和Steven Schwartz,已被传唤参加即将于6月8日举行的纪律听证会,解释他们的行为。
这一事件在法律界引发了关于在法律研究中适当使用人工智能工具的讨论,并需要制定全面的准则来防止类似事件的发生。
来源:NYT