日前BC省最高法院成为了加拿大首例人工智能编造虚假法律案件的现场。
据Global News报道,律师Lorne MacLean和Fraser MacLean在BC省一起民事案件中,发现对方律师向法院提交了虚假判例。
Lorne MacLean表示:“此案的影响令法律界感到不寒而栗。如果我们不对人工智能材料进行事实核查,而这些材料又不准确,则可能导致法律系统面临生存威胁:委托人白白浪费金钱,法院浪费资源和税款,判决也可能出错,所以这是一件大事。”
消息人士告诉Global News,这是一起涉及高净值家庭的案件,关系到儿童的最大利益。据称,华人律师Chong Ke使用ChatGPT准备法律材料,以支持一名父亲申请带孩子去中国探亲,结果导致一个或多个实际并不存在的案件被提交给法院。
Global News获悉,Chong Ke告诉法庭,她不知道像ChatGPT这样的人工智能机器人这么不可靠,也没有检查这些案件是否真实存在,并向法庭道歉。
周二,Chong Ke离开法庭时泪流满面,并拒绝发表评论。
众所周知,像ChatGPT这样的人工智能机器人有时会编造听起来非常逼真但不正确的信息,这个虚构的过程被称为“幻化”。
这个问题已经渗透到美国的法律系统,此前发生过几起类似事件,导致人们担心这可能破坏人们对法律系统的信心。
在一起案件中,一名纽约律师因提交的法律材料中包含由ChatGPT幻化出来的虚构案件,被法官除以罚款。该律师坚称这是善意的错误。
在另一起案件中,特朗普(Donald Trump)的前律师Michael Cohen在一份法庭文件中表示,他不小心向律师提供了人工智能虚构的假案件。
MacLean表示:“这种情况于2023年夏天首次出现时在美国引起轰动……现在再次震惊加拿大。如果判决是基于虚假案件,会削弱人们对判决的准确性的信心。”
法律观察家们表示,加拿大律师应该保持高度警惕。
与此案无关的温哥华律师Robin Hira表示:“律师不应该使用ChatGPT进行研究。如果他们要使用chatGPT,应该是帮助起草某些句子。即便如此,在起草这些句子和段落后,他们也应该对其进行审查,以确保它们准确地陈述事实或准确地表达律师试图表达的观点。”
另一位与此案无关的律师Ravi Hira表示,滥用该技术的后果可能会很严重。“如果由于律师的不当行为、个人行为导致法庭诉讼时间延长,法院可能会要求律师支付对方的费用。如果这是故意的,律师可能会被视为藐视法庭,并面临制裁。”
Hira还补充说,滥用ChatGPT等工具的律师还可能面临其所在辖区法律协会的纪律处分。
BC省律师协会三个月前曾就人工智能的使用向律师发出警告,并提供了指导意见。Global News正在寻求该协会的评论,以了解这起案件的细节,以及Chong Ke是否会面临纪律处分。
BC省最高法院首席大法官去年3月也曾发布了一项指令,要求法官不要使用人工智能,加拿大联邦法院上个月也效仿了这一做法。
MacLean担心此案可能只是冰山一角:“最可怕的是,加拿大司法系统中是否已经出现过虚假案件,而我们甚至不知道?”
a
https://westsidefamilylaw.ca/pages/chong-ke-%E8%BB
- [57] (2024-01-25 20:20:56)
https://westsidefamilylaw.ca/pages/chong-ke-%E8%BB%BB%E7%BF%80
|