在人工智能不断拓展技术创新边界的时代,艺术家与大学研究人员之间正在兴起一种新的合作模式,旨在保护创意人才的知识产权。美国插画家帕洛玛·麦克莱恩(Paloma McClain)近期遭遇未经授权的人工智能复制其作品,这一事件在艺术界引发了积极的反击,催生出创新的软件解决方案, 以阻止人工智能驱动的抄袭行为。
美国插画家帕洛玛·麦克莱恩(Paloma McClain)发现自己成了人工智能无情复制创意的目标。一些人工智能模型未经她本人知情或同意,就用她的作品进行了“训练”,导致她没有获得应有的署名或补偿。麦克莱恩一直坚定倡导合乎伦理的技术进步,她表达了自己的担忧:“我认为真正有意义的技术进步应该以合乎伦理的方式进行,并惠及所有人,而不是以牺牲他人利益为代价。”
为了应对日益严重的AI模仿问题,帕洛玛·麦克莱恩求助于Glaze,这是一款由芝加哥大学研究人员开发的革命性免费软件。Glaze的主要功能是在AI模型的训练过程中智胜它们,通过对像素进行微妙的操控——这些操控对人眼不可见,却能显著改变AI算法对数字化艺术作品的感知。.
保护人类创作者
Glaze开发团队的核心成员赵本教授强调了他们的使命:“我们主要提供技术工具,帮助保护人类创作者免受侵入性和滥用性人工智能模型的侵害。”这款软件仅用了四个月就开发完成,其技术最初旨在颠覆面部识别系统。赵教授强调了形势的紧迫性,他解释说:“我们以超快的速度工作,因为我们知道问题很严重。很多人都深受其害。”
虽然一些生成式人工智能巨头与相关方签订了正式的数据使用协议,但用于训练人工智能的大量数据(包括数字图像、音频和文本)都是未经明确许可从互联网上抓取的。这种做法引发了关于人工智能伦理使用和知识产权保护的重大问题。.
自2023年3月发布以来,Glaze 已获得广泛应用,下载量超过160万次,这反映出艺术家迫切需要能够保护其免受人工智能复制影响的工具。Glaze 团队正在开发一项名为 Nightshade 的增强功能,旨在通过扭曲人工智能的解读(例如使其将狗识别为猫)来进一步迷惑它。.
帕洛玛·麦克莱恩在为Nightshade项目点赞时指出,如果该项目得到广泛应用,将产生巨大的影响:“根据Nightshade的研究,实际需要的有害图片数量可能比人们想象的要少。” 已有数家公司联系赵的团队,探讨Nightshade的应用,这凸显了该项目在保护个人艺术家和拥有大量知识产权的组织方面的重要性。.
Kudurru:抵御图像收集
Viva Voce Startup Spawning 利用其 Kudurru 软件为保护创意作品做出了贡献。Kudurru 可以检测从网络资源中收集大型图像的尝试,使艺术家能够阻止访问或提供误导性数据来干扰人工智能的学习过程。目前已有超过一千个网站接入了 Kudurru 网络。.
Spawning 进一步拓展了其工作,推出了 haveibeentrained.com 网站。该网站提供一款在线工具,艺术家可以通过该工具确认其数字化作品是否被用于训练人工智能模型。该平台赋予艺术家选择退出未来未经授权使用的权利,从而让他们对自己的创作内容拥有至关重要的控制权。.
密苏里州华盛顿大学的研究人员利用其开发的AntiFake软件,致力于保护语音录音的安全。据该项目负责人、dent 于志远(音译)介绍,该程序会向数字语音录音中添加人耳听不到的噪音,从而使其“无法合成人声”。AntiFake的目标不仅限于阻止未经授权的人工智能训练,还能防止深度伪造技术的出现——在人工智能驱动的虚假信息泛滥的时代,深度伪造技术正日益受到关注。.
呼吁合乎道德地使用数据
随着这些软件解决方案的不断发展,关于人工智能数据伦理使用的讨论仍然至关重要。Spawning 的联合创始人 Jordan Meyer 阐明了最终目标:“最佳解决方案是,所有用于人工智能的数据都必须经过用户同意并支付相应费用。”倡导者们希望引导开发者朝着这个方向努力,优先考虑人工智能数据使用的知情同意和公平性。.
总之,艺术家与研究人员的合作正引领着创新软件解决方案的开发,以应对人工智能对创意作品的模仿。Glaze、Nightshade、Kudurru 和 AntiFake 等软件平台代表着在日益人工智能化的世界中保护知识产权方面取得的重大进展。这些技术在提供有效防御机制的同时,也凸显了就人工智能中数据的伦理使用展开更广泛讨论的必要性。随着艺术家和创作者不断维护自身权益,人工智能和知识产权的未来有望朝着更加合乎伦理和平衡的方向发展。.

