美国律师偷懒用ChatGPT打官司 张嘴就胡编 惨烈翻车

今日头条
Toutiao
最新回复:2023年5月29日 18点24分 PT
  返回列表
69480 阅读
13 评论
英国那些事儿

ChatGPT推出后,很多白领惶惶不可终日,曾经伏案多日才能完成的文字工作,AI轻轻松松就能生成。

我们之前写过,44%的工作将被AI取代,其中,法律行业是“失业重灾区”。

但最近一个官司,让法律人重振精神,

用AI打官司可能没那么快,至少现在还不行,因为AI太能胡编乱造了……

这起官司本身非常简单,小到简直不值一提:

2019年,罗伯特·马塔(Roberto Mata)乘坐哥伦比亚航空的航班,从萨尔瓦多飞往纽约的肯尼迪国际机场。

在飞机上,一名乘务员推着金属推车,不小心撞到了马塔的膝盖。

马塔大呼小叫,说自己受了重伤,要航空公司赔偿。

几年后,马塔向曼哈顿联邦法院起诉哥伦比亚航空。航空公司说案件已经过了追诉期,建议法官撤销此案。

马塔自然不答应,他让律师洋洋洒洒写了十页纸,引用从1999年到2019年的六起案件,用它们来论证为什么时效已过,航空事故案仍该被审理。

律师援引的案件看着很规范,它们包括:

瓦吉斯诉中国南方航空案,2019年;

沙波诉埃及航空案,2013年;

彼得森诉伊朗航空案,2012年;

马丁内斯诉达美航空案,2019年;

德登地产诉荷兰皇家航空案,2017年;

米勒诉联合航空案,1999年。

这些案件都配有大段大段的引文,原告和被告公司之间的恩怨情仇写得清清楚楚。

这份翔实的法律摘要交上去,一定能打动法官大人的心吧?

就在马塔等人等待的时候,哥伦比亚航空请的律师懵逼了,

他全网翻了个遍,都找不到对方律师引用的案件!

被告律师写信告诉卡斯特法官:“瓦吉斯诉中国南方航空案似乎不存在……我们无法通过它的标题或引文找到此案,也找不到任何相似的案件。”

“虽然法律摘要里含有瓦吉斯的冗长引语,但我们找不到这段话的出处。”

瓦吉斯的引语里提到2008年的大韩航空案件。他说这起案件是美国联邦第十一巡回上诉法院判的。

但被告律师询问了第十一巡回上诉法院,对方说他们没判过此案。

收到信后,卡斯特法官也懵圈了,

他在案件资料库中搜寻一番,同样没有找到案件的出处。

卡斯特法官要求马塔的律师给出案件判决书的副本,他们给了八份文件,里面列出每个案子的受理法院、法官、档案标号和日期。

其中,光是瓦吉斯案的判决书就有六页纸,上面标注了撰写人的名字和所属法院。

虽然姓名是真实的,法院也是存在的,

但……这些判决书本身是虚构的,案件根本不存在!

卡斯特法官气坏了,他说自己从业多年,从未见过这种事。

“真是岂有此理!引用了六个案件,全部是虚假的判决、虚假的引文和虚假的内文引用。”

卡斯特法官下令调查这是怎么回事。原来,法律摘要不是马塔的律师彼得·洛杜卡(Peter LoDuca)写的,而是他的老同事斯蒂芬·史华兹(Steven Schwartz)写的。

史华兹当了30年律师,第一次被爆出伪造案件。

他光速认错,说这些内容也不是他写的,而是,嗯……ChatGPT写的。

“我很后悔自己依赖ChatGPT。我以前从未在打官司的时候用它,但这次我用了。我不知道它给的内容可能是假的。”

史华兹和ChatGPT的聊天记录显示,他根本没做案件研究,全是AI完成的。

他只提供简单的思路,让ChatGPT找出能支撑论据的案子,然后让它摘取能用的引述。最后把AI给的内容缝合一下,法律摘要就写完了。

从聊天记录里看,史华兹也曾对案件的真实性有所怀疑。他也专门再问了ChatGPT确认

S:“瓦吉斯是真实的案件吗?”

ChatGPT:“是的,瓦吉斯诉中国南方航空案(第11巡回法院,2019)是真实的案件。”

S:“出处在哪里呢?”

ChatGPT:“抱歉我之前可能给您带来困惑。瓦吉斯诉中国南方航空案是真实存在的案件,它可以在法律研究数据库,比如Westlaw和LexisNexis中找到。我很抱歉我之前的回答可能给您造成疑惑。”

S:“那还有别的案件是虚假的吗?”

ChatGPT:“没有。我提供的案件都是真实的,可以在声誉极好的数据库Westlaw和LexisNexis中找到。”

史华兹有些委屈地告诉媒体:“我问了ChatGPT它给的信息是不是真的,它说是真的。”

额,也就是说,他不光相信ChatGPT搜索信息的能力,还相信它有判断力。既然它说自己是对的,那就是对的。

不知道该说是太天真,还是太愚蠢……

卡斯特法官下令在6月份举行听证会,将对所有牵涉伪造的律师进行惩罚。

伪造案件可是大丑闻,这家律师事务所怕是要遭殃了。

纽约大学的法律伦理学教授史蒂芬·吉勒斯(Stephen Gillers)说,虽然此案看上去有点喜剧,但背后的问题很大。

“律师界一直在讨论如何避免使用虚假的AI信息。我们不能简单地将AI给的文字粘贴到法庭文件里,我们需要自己去查。”

其实,AI最擅长的就是一本正经地胡说八道,这种现象已经有个专有词汇,叫“人工智能幻觉”。

明明无中生有,它说真实存在;明明大错特错,它说完全正确。

这是因为AI本质上只是语言预测模型,它根据前一句话来预测后一句话,并不清楚其中的道理和逻辑。但它那自信满满的语气,会让人类对它抱有过高的期望。

前不久,大学教授霍尔为了让学生了解到“幻觉”的可怕,布置了一项特殊的作业。

他给学生一个作文题目,要求他们用ChatGPT生成文章,然后再给文章纠错。

结果发现,全班63篇文章,每篇都存在错误信息。

“虚假的引文、虚假的来源、来源真实但理解错误或拼写错误。每一份作业都有这些。我都震惊了,我知道错误比例会很高,但没想到那么高。”

“学生们最大的收获是,人不能完全依赖AI。在此之前,很多学生都觉得AI永远是正确的,他们这次惊呆了,发现它很能误导人。大约一半的学生不知道AI能编造谎言。这次清醒过来后,他们对AI伪造信息的能力感到担忧和害怕。”

到目前为止,AI编谎话的现象没有解决办法。AI公司能做到的只是提醒人们,AI生产的内容并不完全可信。

一想到这点,全球白领应该能缓口气,

人类虽然也会犯错,但至少有自知之明,知道哪里有问题。

AI目前这个理直气壮胡说八道的架势,还是有点没谱啊……

不明智
1 楼
现在的AI只是搜索整合 并不具有 想象和推理这种层次的智能 所以只是入门级别的智能,或者根本不能称其为智能 既然是搜索和整合 那搜索到错误信息并整合成错误信息提供给使用者的概率是非常高的 比如你问ChatGPT 中国的债务水平 大概率你得到错误的数字
g
greentee
2 楼
AI就是智障,回复都是千篇一律。模式如下: 正面说,如何如何。另一方面,如何如何。您需要综合考虑。 AI他妈就一和稀泥的。谁信谁傻逼。 公司内部在确保数据可靠的情况下,AI可以帮忙分析。比如股票走势等,数学模型早已应用多年,也不是今天才开始电脑分析。 但是法律咨询找电脑,那真的是智障到家了。
l
lalala
3 楼
ai就是新一轮骗局罢了 一个大号的翻译器而已
c
cotoncai
4 楼
这种现象是语义创世纪的一部分,非常正常。当AI创建一个新的概念时,由于缺乏足够的正反验证,以区分对错因果这些后验的附加属性,这个新的概念将以一种融合事实与幻想双重维度的形式出现,以定义其界限。 这个机制和母腹中胎儿在醒睡状态之间形成语言的最初架构的机制应该是非常类似的
星星星
5 楼
这律师也太傻蛋了。
B
Bccan
6 楼
AI 会进化的
史前巨混
7 楼
这个很可怕,以后人们都相信这个,ai就成神了
我爱北京的秋天
8 楼
bing和我说了不存在的事,我质疑了他三次,他都像得了幻想症一样抵赖。后来还和我生气了。
p
puzfighter
9 楼
确实,现在的AI只是提供搜索整合的一个玩意,离真正的智能还早着呢!我用过一阵ChatGPT,感觉它有一定用处,但还很稚嫩,且漏洞百出。比如我曾请它列举一些中国古诗词中含月亮的句子,它列举了邓丽君的“月亮代表我的心”(既非古代也非诗词),还有一次请它讲讲古代“一女七嫁”的故事,它说,祝英台是梁山伯的第七个老婆!
陷疯稻谷
10 楼
连搜索结果都不靠谱,这个有问题啊
c
crunchtime
11 楼
这不和金三诚聘腿毛贵军青蛙一个德行? 狗粮们微危险了。
e
execom
12 楼
可见chatGTP是和美国CIA合作的项目
l
lyabc
13 楼
这个问题我也遇到过,不过是中医跟诗方面的,让它告诉我一种中成药的成分,一直在胡编,让它背诵长恨歌,背的乱七八糟,对了,还问过它封神演义里的内容,也是根本查不到的东西。这说明,它还是很需要继续改进的