AI 盛世已来,律师也难招架?
引言
早在ChatGPT盛行的日子里,便有AI迟早取代人类工作的言论。一时之间,各行业人员都谈AI色变,生怕其发展过快直接顶替了他们的工作,让他们无处可去。律师行业人员亦在其中。事实上,律师这个活,也有许多行政上的事务,即便是专业领域上亦有不少重复性的、枯燥的、操作难度低的工作,因此,不少业内人员也纷纷猜测,是否有某天某日,服务大家的变成了AI律师,在AI的高效率处理下,咱们只能提前下岗。
这个问题确实很难回答,AI技术的高度可成长性令人侧目。但现在,飒姐团队还是能给一个明确的答案:不能。关于这件事,就在今年,远在美国的Levidow,Levidow &Oberman律师事务所的同仁们便以其亲身经历,告诉了大家答案:至少今天,AI还远不能取代律师的工作,使用AI反而可能会给律师朋友带来不少麻烦。
01
一桩“趣事”——使用ChatGPT起草文书被罚
事情的起因得追溯到今年三月份,Roberto Mata因2019年与一家航空公司发生的纠纷向法院提起了诉讼,而航空公司认为案件已经过了诉讼时效,建议法官撤销此案。对此,Roberto Mata所聘请的Levidow,Levidow &Oberman律师事务所的律师Peter LoDuca和Steven Schwartz认为该案并没有超过诉讼时效,应当被审理,故向法院提交了意见书。而正是这份文书,给他们带来了大麻烦。
众所周知,美国作为判例法国家极其重视判例的援用,Peter LoDuca和Steven Schwartz便援引了大量案例,试图证明他们的观点。本来这事办的不错,意见书写的也挺好的,奈何遇上了一个知识储备丰富、认真负责的法官Kevin Castel。Kevin Castel法官在阅读了这份法律意见书后觉得十分困惑,在仔细检索后,最终确认其中所引用的部分判例实际并不存在。面对这一情况,Steven Schwartz律师辩称,其只是利用AI辅助了文书撰写工作,他们信任AI,因此没有进一步确认案例的真实性,反而认为只是因为AI找到了自己不知晓的案例。他们表示自己并非故意捏造案例欺骗法庭。
即便如此,6月22日,法院仍然作出判决,认定Peter LoDuca、Steven Schwartz及其所在律所因向法院提供虚假信息,行为恶劣,处以5000美元的罚款。 此后,律所随后也发布声明,称“我们犯了一个善意的错误,未能料想ChatGPT可能会捏造判例。”
02
律师虚假陈述的责任承担——我国的处理
“AI会一本正经地胡说八道” ,这是飒姐团队很早就提出的观点,其核心在于,现阶段AI并不具备价值判断、真假辨析的能力,其回答完全取决于给它“投喂”了哪些材料,如果这些材料中存在虚假信息,那么AI输出的结果就会有虚假信息,如果这些材料存在价值倾向,那么AI输出的结果就会有价值倾向。由此导致的后果,便是对于一些需要真假辨析和价值判断的问题上,AI并不能提升我们的效率,反而会导致我们花费更多的时间去辨别“AI究竟有没有写错”。 这便是前述案例中,ChatGPT为何会错误地撰写出几个不存在的案例并且坚称案例存在的原因。
前述案例发生在国外,因此似乎离我们还比较远。于是乎,一个问题在于,如果在中国,有律师使用AI进行法律意见书的撰写,并且提交给了法院,那么他(她)会面临怎样的责任?
根据《律师法》第三条的规定,“律师执业必须遵守宪法和法律,恪守律师职业道德和执业纪律。律师执业必须以事实为根据,以法律为准绳。”因此,遵循事实,是律师执业的一个重要原则。 在此基础上,针对律师提供虚假信息、做出虚假陈述或者提供虚假证据材料的行为,以《律师法》为核心的律师执业规则进行了严格的限制。
根据《律师法》第四十条的规定,“律师在执业活动中不得有下列行为:(一)私自接受委托、收取费用,接受委托人的财物或者其他利益;(二)利用提供法律服务的便利牟取当事人争议的权益;(三)接受对方当事人的财物或者其他利益,与对方当事人或者第三人恶意串通,侵害委托人的权益;(四)违反规定会见法官、检察官、仲裁员以及其他有关工作人员;(五)向法官、检察官、仲裁员以及其他有关工作人员行贿,介绍贿赂或者指使、诱导当事人行贿,或者以其他不正当方式影响法官、检察官、仲裁员以及其他有关工作人员依法办理案件;(六)故意提供虚假证据或者威胁、利诱他人提供虚假证据,妨碍对方当事人合法取得证据; (七)煽动、教唆当事人采取扰乱公共秩序、危害公共安全等非法手段解决争议;(八)扰乱法庭、仲裁庭秩序,干扰诉讼、仲裁活动的正常进行。”同时根据第四十九条的规定,有前述行为的,“由设区的市级或者直辖市的区人民政府司法行政部门给予停止执业六个月以上一年以下的处罚,可以处五万元以下的罚款;有违法所得的,没收违法所得;情节严重的,由省、自治区、直辖市人民政府司法行政部门吊销其律师执业证书;构成犯罪的,依法追究刑事责任”。此外,《律师职业道德和执业纪律规范》第二十二条规定,“律师应依法取证,不得伪造证据 ,不得怂恿委托人伪造证据、提供虚假证词 ,不得暗示、诱导、威胁他人提供虚假证据。”
因此,前述行为的关键在于是否能够认定为属于“故意提供虚假证据” ,换言之,即提供该材料或是信息的律师本人是否知道或者应当知道该证据材料属于虚假证据。由于律师在提交陈述时,明显知道该材料系应用AI作出,因此,其本身在一定程度上负有审查该证据是否真实的义务,加之如果该证据存在明显不合理之处,那么很可能会使得法官或者有关部门认定律师本人主观上的明知,从而认为该行为属于“故意提供虚假证据”之行为,严重者甚至可能构成《刑法》第三百零六条规定的“辩护人、诉讼代理人毁灭证据、伪造证据、妨害作证罪”。
综上所述,对于律师而言,使用AI进行文书书写,未必是一件“省时省力”的事。
03
不只是律师——提供虚假材料、信息的危害
事实上,不只是律师,对于一般的民众而言,在某些场合下使用AI制作的虚假材料,也会承担一定的责任,其中严重者亦会存在刑事责任风险。
举例而言,如行为人在药品申请注册中偷懒,使用AI制作所要求提供的证明、数据、材料等,最终却导致该证明、数据、材料虚假,那么在满足其他要件的情况下,行为人可能构成《刑法》第一百四十二条之一的“妨害药品管理罪”。又如行为人为了省时间使用AI制作招股说明书、认股书、公司、企业债券募集办法等发行文件,其中存在部分虚假信息,那么亦可能构成第一百六十条的“欺诈发行证券罪”。再如行为人利用AI收集信息并进行传播,而该等信息属于影响证券、期货交易的虚假信息或是虚假的险情、疫情、灾情、警情,那么行为人的行为就可能构成第一百八十一条第一款的“编造并传播证券、期货交易虚假信息罪”或第二百九十一条之一第二款的“编造、故意传播虚假信息罪”。
此外,对于一些特定主体而言,如承担资产评估、验资、验证、会计、审计、法律服务、保荐、安全评价、环境影响评价、环境监测等职责的中介组织的人员,如果其使用AI进行书写而成的文件被认定为是虚假证明文件,那么其就可能涉嫌“提供虚假证明文件罪”,需要注意的是,即便不能证明其主观上的故意,如果其被认为属于严重不负责任,存在重大过失,那么仍然可能构成“出具证明文件重大失实罪”,进而受到处罚。
可见,使用AI进行文书撰写,不仅对律师不是好事,对于一般人可能也不是好事。
04
如何维权
于是,新的问题出现了,如果AI服务的使用者遇到了生成式AI胡说八道,却没有辨别出并且因此造成了损失,其是否能够向AI服务提供者追偿呢?
根据《消费者权益保护法》第七条第一款的规定,“消费者在购买、使用商品和接受服务时享有人身、财产安全不受损害的权利。”同时,目前AI服务提供者往往是电子商务经营者,因此根据《电子商务法》第七十四条的规定,“电子商务经营者销售商品或者提供服务,不履行合同义务或者履行合同义务不符合约定,或者造成他人损害的,依法承担民事责任。”换言之,用户可以依据此两条法律的规定向AI服务提供者追偿。
但需要注意的是,AI服务提供者们也不全是“傻子”,其完全可能在用户协议或是相关文本中对此类情况进行约定,如不保证输出内容的真实性等,在AI技术确实不能保证内容真实性的前提下,这种约定是完全合理的,换言之,商家在提供服务前已经对用户进行了风险提示,用户进行使用的行为便在一定程度上落入了“责任自负”的范畴。
即便如此,应当明确的是,该等约定实际上属于格式条款,根据《民法典》和《消费者权益保护法》的规定,服务提供者必须“以显著方式提请消费者注意商品或者服务的数量和质量、价款或者费用、履行期限和方式、安全注意事项和风险警示、售后服务、民事责任等与消费者有重大利害关系的内容,并按照消费者的要求予以说明”,否则用户有权主张该条款不属于合同的内容。
05
写在最后
AI技术盛行的背后,是看不见的法律风险。该等法律风险因为缺乏具体而富有针对性的规范而扩大,提供服务需谨慎,使用服务亦需谨慎,各位读者朋友们一定需要把合规牢记心头,对AI产出秉持慎重之态度,如此才能免于风险。