在一场具有里程碑意义的法律战中,《纽约时报》对科技巨头OpenAI和微软提起诉讼,指控其在新闻生成中使用人工智能语言模型 (LLM) 侵犯了版权。
该诉讼凸显了传统人工新闻与人工智能驱动的信息传播之间的冲突,并引发了关于版权法如何适应新兴技术的重大问题。
人工智能时代版权法的挑战
版权法这一根植于印刷时代的法律框架,如今正努力应对诸如 ChatGPT 等先进人工智能系统带来的复杂挑战。由于其设计远早于法学硕士(LLM)的出现,这一法律框架必须与时俱进,以适应当代环境。
本案的核心是1976年《版权法》中规定的合理使用原则。该原则为合理使用受版权保护的材料提供了指导方针,并涉及四个关键因素:
使用性质:教育和非营利目的更有可能被视为合理使用。
创意与技术:创意作品比技术性或新闻写作享有更多的版权保护。
使用量:复制事项的范围。
市场影响:法院会考虑这种使用是否会对原作品的当前或未来市场造成损害。
时代视角
《纽约时报》指出,ChatGPT和Bing经常在用户搜索时生成与其文章内容相似的内容。此外,他们强调这些人工智能模型是OpenAI和微软业务运营不可或缺的一部分。《纽约时报》断言,这种做法严重威胁到其商业模式,因为用户可能会转向人工智能生成的新闻,从而削弱其基于订阅的收入。
OpenAI和微软的辩护
OpenAI 和微软准备捍卫他们的立场,声称像 ChatGPT 这样的语言学习模型并非抄袭,而是基于统计预测进行学习和生成内容。他们可能会将这一过程比作作家从现有素材中汲取灵感,从而创造出新的视角,这并不构成侵犯版权。
此外,他们可能会辩称,新闻是基于事实的,因此与创意作品相比,应该受到更宽松的版权保护。
商业威胁困境
OpenAI和微软可能难以反驳的一个关键问题是,他们的产品可能对新闻机构造成潜在损害。LLM(法律、法律和信息管理工具)依赖现有的新闻来源获取信息,无法dent收集和核实新的事实。
对人工生成内容的依赖是新闻业的核心,而确保准确性和可靠性需要付出巨大的成本。
此外,公众对新闻来源的信任至关重要。信誉卓著、 trac记录良好的机构在维护这种信任方面发挥着至关重要的作用。如果人工智能驱动的新闻消费削弱了传统新闻媒体,则可能对新闻行业的诚信造成不利影响。
公共利益与合理使用问题
这场诉讼也引发了人们对维护新闻自由是否符合公众利益的质疑。如果人工智能生成的新闻成为比传统新闻更便宜的选择,订阅用户可能会取消订阅。然而,这种大规模的用户流失可能会导致老牌新闻机构的消亡,从而威胁到公众可获取新闻的多样性和质量。
将这种公共利益纳入版权法对法院来说是一个复杂的挑战。虽然直接复制很容易处理,但如果法律文本管理软件(LLM)能够生成不同措辞的摘要,版权侵权的论点就会减弱。然而,此类摘要仍然可能对新闻机构造成不利影响,甚至可能导致社会缺乏可靠的信息来源。
法院的作用和国会可能采取的行动
法院必须谨慎处理这些复杂问题。如果法院未能找到合适的平衡点,可能就需要国会介入,修改版权法,以应对人工智能生成内容带来的独特挑战。
新闻业已经面临巨大的挑战,任何法律决定上的失误都可能对新闻业的未来乃至民主本身产生深远的影响。

