2023年6月28日,首例具有代表性的ChatGPT版权侵权诉讼正式进入公众视野。两名作家在美国加州北区法院对Open AI公司提起集体诉讼,指控其未经授权利用享有版权的图书训练ChatGPT,并从中谋取商业利益。原告Paul Tremblay和Mona Awad分别居住于马萨诸塞州,是涉案作品《The Cabin at the End of the World》和《13 Ways of Looking at a Fat Girl and Bunny》的版权所有者;被告Open AI则是ChatGPT的创建者和运营者,该产品目前主要由GPT-3.5和GPT-4两大语言模型驱动。
起诉状指出,尽管原告未授权Open AI使用其作品进行模型训练,但ChatGPT却能根据prompts指令准确输出涉案图书的摘要,这只有在被告将图书纳入语料库进行训练的情况下才可能实现。原告表示,Open AI的训练数据集中包含大量版权保护作品,其中就包括其享有版权的图书。然而,Open AI既未获得原告同意,也未标注内容来源或支付相应费用,而原告的图书上具有明确的版权管理信息,包括出版号、版权号、版权人姓名及使用条款等。原告认为,ChatGPT之所以能准确生成图书摘要,唯一合理的解释是Open AI未经授权获取并复制了涉案图书,用于训练旗下大语言模型。
原告的测试显示,当通过prompts指令要求ChatGPT总结两部涉案图书时,其输出的摘要较为准确(尽管存在少量错误)。这表明ChatGPT保存了被训练数据集中特定作品的内容,并能根据指令输出对应文本。与此同时,ChatGPT的设计原理使其输出内容不会包含原有的版权管理信息。
本案的有趣之处在于,原告在证明Open AI侵权的过程中,对ChatGPT原理的介绍是通过与ChatGPT对话,让其“自我介绍”的方式实现的。具体内容如下:Open AI已公开多款大语言模型,包括GPT-1(2018年6月)、GPT-2(2019年2月)、GPT-3(2020年5月)、GPT-3.5(2022年3月)以及最新的GPT-4(2023年3月)。这些模型通过统计学方法模拟人类逻辑和推理,专门用于解析和输出自然语言。Open AI以每月20美元的价格通过网页提供ChatGPT服务,用户可选择GPT-3.5或GPT-4版本;同时,ChatGPT也以API形式向开发者提供,按使用量计费。无论以何种方式提供服务,ChatGPT都会积极响应用户的prompts请求——回答问题、执行指令或总结图书摘要。
原告着重论证的观点是,大语言模型不同于传统软件由工程师编写代码,而是通过“训练”方式研发:收集海量内容语料并“投喂”给模型,这些语料被称为训练数据集。大语言模型会不断调整输出,以接近被训练作品中的文字组合顺序。值得注意的是,图书一直是训练数据集中的核心素材,因其提供了高质量长篇写作的最佳范例。2018年6月,Open AI在《通过生成式预训练提升语言理解力》的企业论文中披露,GPT-1的训练依赖于“BookCorpus”数据集,该数据集包含7000本涵盖探险、奇幻、浪漫等领域的图书。Open AI指出,图书作为训练语料尤为重要,因其包含长篇幅连续文本,有助于生成式模型学习处理长文本信息的能力。包括Open AI、谷歌、亚马逊在内的多家AI研发企业,都曾利用“BookCorpus”进行模型训练。2015年,一个AI研究团队创建了该数据集,其图书来源于Smashwords.com网站,但收录时未获得版权人授权。
原告通过公开检索Open AI披露的企业论文,试图论证GPT系列模型的训练建立在未经授权侵权利用海量图书内容的基础之上。2020年7月,Open AI在《语言模型是小样本学习者》的企业论文中披露,GPT-3训练数据集中15%的内容来源于两个名为“Books1”“Books2”的电子图书语料库。尽管Open AI未说明这两个语料库的具体情况,但可通过线索推断:第一,两个语料库均来自网络;第二,规模均远超“BookCorpus”。“Books1”的规模是BookCorpus的9倍(约6.3万本书),Books2是42倍(约29.4万本书)。现实中,只有极少数数据库能提供如此规模的图书语料。一方面,“Books1”极可能来源于“古登堡项目”或“古登堡语料库标准化项目”;另一方面,“Books2”很可能来源于网络上的“影子图书馆”。2023年3月,Open AI发布GPT-4企业论文,但表示“出于行业竞争形势和产品应用安全角度考量,不再对训练数据集的结构和内容进行相关披露。”
原告针对Open AI提出六项指控,其中前三项涉及版权侵权,第四项涉及不正当竞争,第五和第六项涉及注意义务和不当得利。
第一,版权直接侵权。原告指出,Open AI未经授权复制、制作演绎作品,并在缺乏授权的情况下公开展示、分发上述复制品或演绎作品。此外,因Open AI大语言模型需从原告图书中提取和保存表达性信息才能运行,故在缺乏授权的情况下,大语言模型本身构成侵权演绎作品。
第二,版权替代侵权。原告强调,在缺乏授权的情况下,大模型每次输出的内容都构成侵权演绎作品。因Open AI有权和能力控制大模型内容输出,并从中获利,故构成版权替代侵权。在美国判例法体系下,“替代侵权”与“帮助侵权”“教唆侵权”共同构成版权间接侵权。
第三,违反DMCA中版权管理信息的规定。ChatGPT输出内容不会保留作品版权管理信息,故被告故意移除原告作品版权管理信息的行为违反《数字千年版权法》(DMCA)。此外,在未获授权的情况下,被告分发的不含版权管理信息的侵权演绎作品也违反了DMCA。“版权管理信息”是识别作品权利人、权利归属和使用条件的相关信息。无论在美国或中国,删除或改变版权管理信息,或向公众提供被删除或改变版权管理信息的作品,均构成违法。
第四,不正当竞争。Open AI未经授权使用原告受版权保护的作品进行模型训练,违反了《加利福尼亚州商业和职业条例》,因其具有不正当性、不道德性、强迫性并损害消费者利益。被告有意设计ChatGPT,可在不标明内容出处的情况下输出原告作品片段和摘要,通过隐瞒作者、复制被侵权作品内容和观点的方式,研发商业产品获取不公平利益和名声。
第五,过失侵权即违反注意义务。Open AI需承担《加州民法典》规定的注意义务——所有人对于他人应当采取合理行为方式。这一义务基于行业惯例、商业实践、被告掌握的信息以及基于信息所拥有的控制能力。被告一旦为训练GPT模型收集原告享有版权的作品,便需负有一定注意义务:当预见到未经授权将作品进行模型训练会对原告造成损害时,便不应再侵权利用这些作品。
第六,不当得利。原告为创作涉案图书付出了实质性的时间和精力。因自身作品被未经授权用来训练GPT模型,原告被剥夺了从作品中原本可以获利的权利。通过使用原告作品训练GPT模型获得商业利益,占据这些利益对于被告而言是不公平的。除非加以禁止或限制,被告的行为将会给原告造成难以弥补的损害。
写在最后:本案待探讨的三个问题。作为ChatGPT版权侵权的首例代表性诉讼,加州北区法院做出正式判决仍将经历一个漫长的过程。但在此之前,针对原告起诉状中的具体内容,仍有一些问题值得关注和思考。
关注一:发现模型侵权不容易。大语言模型的训练本质上是一种机器内部的、非外显性作品利用行为,版权人存在发现自身作品被侵权的现实难题。一般来说,只能通过比对模型生成内容和自身作品存在实质性相似,倒推出模型训练阶段存在未经授权的作品利用行为。本案中,原告之所以能指控自身图书被Open AI旗下的大语言模型侵权训练,便是从发现ChatGPT输出了自身作品的摘要,倒推而来。但这一主张是否成立仍有待探讨。若ChatGPT输出的作品摘要,仅是建立自身在收集网络上原告图书公开介绍资料的基础上,而非直接对原告图书进行复制和训练,那么该侵权指控的正当性便会受到动摇。原告也承认ChatGPT输出的自身图书摘要存在少部分事实错误,一定程度也表明大模型可能并未完整学习涉案图书。
关注二:侵犯何种权利待论证。目前来看,虽然“作品数据的储存行为”形式上可以落入版权法“复制权”的规制范畴,但核心的“作品数据的训练行为”,是否侵权以及侵犯何种版权法上的权利尚未有一致结论。本案中,原告强调大语言模型的正常运行和内容输出,建立在对作品语料的训练基础之上,故大模型训练便构成版权侵权,大模型本身也构成侵权演绎作品。这一主张亦仍有待探讨。除了少数类似于本案“以prompts方式要求概括、总结、翻译特定版权作品”这类特殊内容生成需求之外,绝大多数情况下大模型接收开放式内容生成指令(不限定特定作品、特定作家风格),基本不会输出特定作品甚至说特定作品的片段,也就不构成版权法上的侵权。
关注三:上下游责任需明确。在大模型版权领域,模型研发者对于大模型本身享有相关权利,故承担模型训练涉及的版权责任;而对于大模型输出的内容,从目前行业实践来看,通行做法是通过合同方式,明确权利和责任均属于使用者。2023年7月10日,网信办发布的《生成式人工智能服务管理暂行办法》也明确认可,“提供者应当与使用者签订服务协议,明确双方权利义务。”值得关注的是,从原告诉讼请求看,亦遵循了模型训练和内容输出两个阶段,权利责任二分的思路。原告对于版权直接侵权的主张,聚焦于Open AI模型训练阶段:一是,未经原告授权在模型训练过程中制作了图书的复制品;二是在缺乏原告授权的情况下,大语言模型本身构成侵权演绎作品。原告对于ChatGPT输出内容侵权的指控,仅是主张Open AI构成版权间接侵权(替代侵权)。这也意味着对于大模型输出的内容,是由使用者承担版权直接侵权责任,因为其享有对应的权利。
本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。