针对人工智能生成内容泛滥日益引发的担忧,各大科技公司纷纷宣布了旨在检测和标记此类内容的举措。.
泰勒·斯威夫特深度伪造色情丑闻和政治深度伪造视频传播等事件dent出现的。
大型科技公司合作,对人工智能生成的内容进行标记和检测。.
Meta(前身为 Facebook)宣布计划在其平台(包括 Facebook、Instagram 和 Threads)上为人工智能生成的图像添加标签。这些标签、可见标记、不可见水印以及嵌入图像文件中的元数据旨在提高内容来源的透明度和可追溯性。.
另一方面,谷歌加入了C2PA(内容真实性倡议)指导委员会,支持一项旨在提供内容“营养标签”的开源互联网协议。此举标志着科技巨头们正在携手合作,共同制定行业通用的人工智能生成内容检测标准。.
OpenAI实施内容溯源措施
OpenAI 也已采取措施解决这一问题。它将在其人工智能模型 ChatGPT 和 DALL-E 3 生成的图像的元数据中添加水印,提供一个可见的标签,表明内容创作过程中使用了人工智能。.
虽然这些方法代表着向前迈出了一步,但它们并非万无一失,在标记和检测人工智能生成的视频、音频和文本方面仍然存在挑战。.
挑战与未来展望
尽管内容标注和水印技术取得了进步,但技术上的局限性依然存在。元数据中的水印可以通过截图绕过,而视觉标签则容易被裁剪或编辑。像谷歌的 SynthID 这样的隐形水印虽然更具韧性,但也并非完美无缺。.
需要监管框架
除了自愿性措施外,监管框架也日益受到 trac。例如,欧盟的《人工智能法案》和《数字服务法案》等举措强制要求披露人工智能生成的内容,并加快删除有害内容。美国立法者也在考虑制定关于深度伪造技术的约束性规则,联邦通信委员会最近已禁止在自动拨号电话中使用人工智能。.
尽管自愿性准则朝着正确的方向迈出了一步,但人们仍然担忧行业问责制。科技行业以往的自律历史令人怀疑自愿性措施的有效性。然而,与之前的不作为相比,近期发布的公告表明情况有所改善。.

