Time:2025-03-12
Publication Date:2025-03-12
案件背景
2024年11月7日,美国纽约南区联邦地区法院批准了OpenAI提出的驳回动议,驳回了Raw Story和AlterNet两家新闻机构针对OpenAI的版权诉讼。
这起诉讼案件自2024年2月在法院发起,原告Raw Story Media和AlterNet Media起诉称,其拥有“超过400,000篇突发新闻专题、调查性新闻文章和观点专栏”被OpenAI滥用,用于训练其大型语言模型ChatGPT。
这一案件不仅引起了媒体和公众的广泛关注,也再次引发了版权与人工智能工具之间的激烈争议。
主要诉争理由
原告Raw Story和AlterNet的核心诉争理由在于,OpenAI未经许可,使用其受版权保护的新闻作品来训练其大型语言模型,并在此过程中删除了文章的作者姓名、标题等版权管理信息。原告声称,被告OpenAI在训练 ChatGPT 之前从原告的作品中删除版权管理信息,违反了《数字千年版权法》第 1202(b)(i) 条,原告有权获得损害赔偿。
此外,原告进一步寻求对被告的禁令救济。原告声称,ChatGPT 的早期版本产生了大量抄袭内容。如果原告的作品在没有任何版权管理信息的情况下保留在 ChatGPT 的存储库中,ChatGPT 的当前版本很有可能会逐字或几乎逐字复制原告的版权作品,而不会提供这些作品中包含的作者、标题或版权信息。
OpenAI指出,原告未能证明其实际损失,因此,不符合赔偿损失的条件。原告也未能证明在没有必要的版权管理信息的情况下,ChatGPT 全部或部分复制原告作品的风险“很大”,因此不符合出具禁令的条件。
法院意见
法院驳回了Raw Story和AlterNet的两项请求,即赔偿和禁令。法院认为,原告未能证明其因OpenAI的行为遭受了具体的、真实的损害,而仅仅移除或删除版权管理信息这一行为,并不构成具体的损害。法院认为原告未满足“具体损害”的要求。因此,对于其赔偿损失的请求予以驳回。
针对原告的禁令请求,法官指出,当用户将问题输入 ChatGPT 时,ChatGPT 会将其存储库中的相关信息综合成答案。考虑到存储库中包含的信息量,ChatGPT 输出原告文章中抄袭内容的可能性似乎很小。虽然原告提供了第三方统计数据,表明早期版本的 ChatGPT 生成的响应包含大量抄袭内容但原告并没有合理地指控当前版本的 ChatGPT 生成抄袭原告文章的响应存在“重大风险”。
因此,原告的赔偿请求和禁令请求均不符合受理条件。尽管如此,法院允许原告在未来满足具体条件的情况下提出修正的新诉讼动议,即提供新的证据以证明潜在的实际损害和具体生成原告作品的风险。
这一案件引发了对AI与版权关系的多重思考:
合理使用边界的重新定义
AI技术的出现,挑战了版权法中合理使用的传统界定。
法律需要与时俱进,为新技术发展留出空间,同时保护原创者权益。
版权法的适应性与更新
现行版权法对于AI技术的适配性较弱,未来可能需要通过立法或判例进一步明确。
在AI技术快速发展的背景下,平衡创新与保护成为关键。
技术开发者的合规性
OpenAI胜诉并不意味着AI开发者可随意使用版权内容。
开发者应加强合规意识,制定更透明、更审慎的训练数据获取策略。
对后续案件的参考意义
这起案件对于后续涉及人工智能与版权的案件具有重要的参考意义。首先,它强调了具体损害在版权侵权案件中的重要性。原告必须提供足够证据,证明其因被告的行为遭受了具体的、真实的损害,才能获得法院的支持。其次,这起案件也提醒我们,生成式人工智能的输出并非简单的复制粘贴,而是基于海量数据进行综合生成的结果。因此,在判断侵权时,需要充分考虑人工智能的工作原理和输出特点。
此外,这起案件还为我们提供了关于如何在技术进步与版权保护之间找到平衡点的思考。一方面,我们应该鼓励技术创新和人工智能的发展,推动其在各个领域的应用和普及。另一方面,我们也应该加强版权保护,保护创作者的合法权益,防止未经许可的复制和传播。这需要我们不断完善法律法规,明确人工智能与版权之间的法律关系,为技术进步和版权保护提供有力的法律保障。
总之,这起案件不仅是一起关于版权与人工智能的争议案件,更是一次关于技术进步与版权保护之间平衡的深刻思考。它提醒我们,在推动人工智能发展的同时,也要加强版权保护,为创作者和技术创新者创造一个公平、公正、有序的法律环境。