美国律师懒得用ChatGPT打官司,导致翻车悲剧!各种案子都是瞎编的!
最近的一场官司让法律人的精神复活了。跟AI打官司可能没那么快,至少现在还不行,因为AI其实也没那么智能。
在飞机上,一名空姐推着金属推车,不小心撞到了马塔的膝盖。马塔大喊自己受了重伤,要求航空公司赔偿。
马塔自然拒绝了。他让自己的律师洋洋洒洒地写了十页,引用了1999年到2019年的六个案例,用它们来论证为什么航空事故案过了时效还应该审理。
律师援引的案件看着很规范,它们包括:
瓦吉斯诉中国南方航空案,2019年;
沙波诉埃及航空案,2013年;
彼得森诉伊朗航空案,2012年;
马丁内斯诉达美航空案,2019年;
德登地产诉荷兰皇家航空案,2017年;
米勒诉联合航空案,1999年。
被告律师写信给卡斯特法官:“瓦吉斯诉中国南方航空公司一案似乎并不存在...我们无法通过它的标题或引文找到这个案例,也找不到任何类似的案例。”
但被告律师询问了第十一巡回上诉法院,对方说他们没判过此案。
收到信后,卡斯特法官大惑不解。他搜索了案例数据库,没有找到案例的来源。
其中,光是瓦吉斯案的判决书就有六页纸,上面标注了撰写人的名字和所属法院。
虽然名字是真实的,法院也存在,但是...这些判决本身就是虚构的,案件根本就不存在!
卡斯特法官下令对所发生的事情进行调查。原来,法律摘要不是马塔的律师彼得·洛杜卡写的,而是他的老同事斯蒂芬·史华兹写的。
他只是为ChatGPT提供了简单的思路,让它去寻找可以支持论点的案例,然后让它去摘录有用的语录。最后把AI给的内容缝起来,法律总结就完了。
S:“瓦吉斯是真实的案件吗?”
ChatGPT:“没错,瓦吉斯诉中国南航案(2019年第11巡回法庭)就是一个真实的案例。”
额,也就是说,他不光相信ChatGPT搜索信息的能力,还相信它有判断力。既然它说自己是对的,那就是对的。
AI本质上只是一个语言预测模型。它是根据前一句话来预测后一句话的,并不清楚其中的道理和逻辑。但它自信的语气会让人对它抱有过高的期望。
想到这,全球白领应该可以松一口气了。人类虽然会犯错,但至少有自知之明,知道问题出在哪里。
声 明
2.文章转自网络,版权归原作者,平台提供信息交流使用;
3.本平台的文章与图片有任何侵权行为,请联系客服删除;
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章