全球AI巨头被诉,ChatGPT被按下“休止符”?
作者:肖飒团队
图片来源:由无界 AI生成
引言
近日,总部位于加州的克拉克森律师事务所(Clarkson Law Firm)向加州北部地区巡回法院提交了一份长达157页的起诉书,对Open AI以及其投资方之一的微软公司发起集体诉讼。一时间,围绕生成式人工智能的技术风险以及监管此类颠覆性技术的必要性又引发了巨大的争论。今天飒姐团队就对原告在起诉书中所主张的事实及指控进行介绍,与大家一起探讨该案的走向,以及生成式AI发展背后的风险和规制理念。
基本案情
(一)原告的指控事实
该集体诉讼的原告认为,为了赢得“人工智能军备竞赛”,OpenAI从ChatGPT的交互对话以及集成Chat GPT的应用程序中“收集、存储、跟踪、共享和披露”数百万人的个人信息,包括产品详细信息、账户信息、姓名、联系方式等。除了直接在网络上抓取信息外,被告还对用户使用ChatGPT等产品的过程中产生的数据进行搜集,在起诉书中,原告将其称为第二类盗窃行为。此外,该集体诉讼将微软也列为被告的理由是,微软作为OpenAI的最重要合作者,在推广OpenAI产品的过程中起到了至关重要的作用,从而大幅加速了潜在风险的扩散。
(二)侵犯隐私权等多项法律指控
在起诉书中,原告针对OpenAI发起了多项指控,涉及对原告隐私权和财产权的侵犯。关于侵犯隐私权的主张,原告声称,生成式人工智能系统通过对数据进行聚合和分析可以揭示个人不愿被公开的信息。比如,通过个人公开的推文,可以分析出他的心理健康状况。除此之外,它还秘密爬取了大量的个人数据,包括个人信息、聊天记录、在线客户服务互动、社交媒体对话和从互联网上抓取的图片等。
除了主张被告侵犯了隐私权外,原告还主张其构成了对原告财产权益的侵犯。 起诉书指出,在过去的案例当中,法院已经确立了互联网用户对其个人信息和数据拥有财产权益的原则,因此,OpenAI的非法抓取数据行为首先就对原告的财产权益构成了侵犯。在数据市场上,一个互联网用户的信息价值在15美元到40美元之间,甚至更多。另外有调查表明,一个人的在线身份在暗网上可以以1200美元的价格出售。如果按照此估价,OpenAI非法侵犯的财产价值将是十分惊人的。
(三)原告提出的法律救济方案
该方案包括:请求法院发布禁止令,让被告临时冻结对产品的商业访问和商业开发,直到完成一系列整改,并符合法院要求为止。同时,起诉书中还要求被告对原告进行赔偿——包括由审判确定的实际赔偿,三倍的惩罚性损害赔偿,以及法律允许的示范性赔偿。
该案结局可能会如何?
作为Open AI侵权的代表性诉讼,加州北区法院作出正式的判决必将经历一个漫长的过程。在此之前,飒姐团队想预测一下案件的结局将该如何。
为了维持自身在人工智能领域国际领先地位的需要,以及考虑到ChatGPT等生成式人工智能的巨大影响,美国在生成式人工智能监管方面保持着相对开放的监管策略。早在2019年,美国就曾推出行政令《保持美国在人工智能领域的领导地位》,这奠定了其在人工智能治理方面以强化全球领导地位为核心的总基调。尽管在2022年10月美国白宫发布了《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights),提出了包括安全有效的系统原则、算法歧视保护原则、数据隐私原则、通知和解释原则、人工替代、考虑和退出原则的五项基本原则,但该蓝图不具约束力,也不构成美国政府的政策。可以说,直至今日,美国对于大模型训练数据的立法仍没有通过。因此,在国会立法程序给出明确规定之前,在没有明确法律规则的背景之下,法官很有可能会参考已有的隐私权和著作权的案例以及《电子通信隐私法》、《计算机欺诈和滥用法》在内的多项法律,在这个案件中做出对原告有利的认定。
但从美国集体诉讼制度的实践来看,本案很可能以双方和解结案。 集体诉讼制度作为一种救济制度,其旨在救济广泛而分散的损害,剥夺权势者的不当利益并防止其继续实施违法行为。由于集体诉讼原告方过于分散,数量过于庞大,一旦集体胜诉,企业可能将面临巨额赔偿,甚至导致破产,有悖于鼓励交易、保护市场运行的原则,巨大的社会影响可能会在一定程度上增加法官的审判困难。而对于作为被告的Open AI和微软公司来说,其拥有强大的法律团队,还有雄厚的财力支持,是有能力支撑一场旷日持久的诉讼的。因此,根据惯例,这个案件最有可能的终结方式就是原被告双方达成和解,OpenAI和微软接受原告的部分诉求,并支付一笔比较大数额的赔偿。
生成式AI发展背后的风险及规制理念
从2022年开始,生成式AI迎来了爆发,中国企业目前已经发布了超70个基础大模型。随着这些雨后春笋般大模型的迅速普及,相关风险已经越来越难以忽视,其实这不是第一例Open AI成为被告的例子,也绝对不会是最后一次。尽管此类集体诉讼的结果将极大可能以和解结案,但这个案件本身依然是非常有意义的,将有助于我们思考AI发展背后的风险及规制路径。
面对生成式AI引发的侵权问题,飒姐团队认为,在价值取向方面,法律首先应当秉持鼓励创新、预防风险的立场。 我们要看到风险,但技术落后才是最大的风险。如果要像原告在起诉中所主张的那样,立即停止使用这些模型,将会造成非常巨大的损失,这是不现实的。事实上,起诉书中所提出的很多问题虽在实践中确实存在,却是可以通过技术优化的方式解决的,例如在注册过程中加强验证,就可以解决未成年人伪造年龄的问题;借助于区块链等技术,就可以追踪数据的流向。具体到侵权责任制度的价值取向,不能太过于强调制裁功能。例如,对于生成式AI虚假信息侵权,AI服务提供者承担责任可以借鉴“避风港规则”。因为其与网络侵权具有类似性,这并非服务提供者所能完全避免和控制。即原则上,诸如Chat GPT等服务提供者对信息没有事先审查的义务,但是相对人向服务商提示网络中存在虚假信息后,服务商应采取必要措施进行修正。
在立法规制层面,尽管在现阶段,生成式人工智能引发的侵权还没有完全超出《民法典》和《个人信息保护法》等法律的射程范围,但是这并不意味着法律应对的依据就已经足够了。为了人工智能治理的体系化布局,立法机构可以考虑制定专门针对人工智能治理的专门性法律,并为相关的风险问责构建一套完整的责任机制 ,从而预防和处理生成式人工智能所可能引发的各种风险,有效保障公民的合法权益,促进人工智能产业的健康发展。
写在最后
不论该案的判决结果是何走向,生成式人工智能等AI应用的脚步不会就此停歇。尽管生成式人工智能系统中算法隐私、数据隐私、透明度等政策和道德问题将无法被消除,但应当通过技术的迭代升级和政策法规的合理引导,尽力降低其风险,进而使权利与技术之间的张力达至平衡。