一个维权组织揭露,图像生成器未经巴西儿童同意,使用了数十亿张他们的照片来训练人工智能模型。人权观察组织(HRW)开展的研究表明,像Stable Diffusion这样的热门图像生成器使用了“涵盖儿童整个童年时期”的照片来训练模型。.
另请阅读:科技公司被敦促打击人工智能生成的儿童性虐待材料激增
人权观察组织的研究显示,这些照片拍摄于巴西约10个州。报告指出,这些照片对儿童构成巨大的“隐私风险”,因为这种行为也增加了未经同意拍摄儿童肖像照片的数量。.
数十亿张巴西儿童图像被用于训练人工智能模型
人权观察组织研究员韩慧贞(Hye Jung Han)在分析了LAION-5B数据集的一小部分(不足0.0001%)后揭露了这个问题。LAION-5B数据集是由公共网络的Common Crawl快照构建而成。她发现,该数据集并不包含实际的照片,而是包含自2008年以来发布的近60亿张图片及其说明文字组成的“图像文本对”。
警方在巴西10个州发现了儿童照片,其中大部分是上传到育儿博客和个人博客上的家庭照片。报告称,这些照片并非互联网用户轻易就能找到的。.
另请阅读:英国将把制作露骨性爱视频的深度伪造行为定为刑事犯罪
LAION合作,删除了指向这些图片的链接但由于仅删除链接并不能彻底解决问题,人们仍然担心该数据集可能仍然引用了儿童图片
“这是一个更大、更令人担忧的问题,作为一个志愿者组织,我们将尽我们所能提供帮助,”LAION 发言人 Nate Tyler 告诉 Ars。.
儿童dent很容易 trac
人权观察组织的报告进一步揭露,由于构建数据集的图片说明中使用了巴西儿童的姓名和所在地,因此许多巴西儿童的dent可能被 trac到。报告还引发了人们的担忧,即这些儿童可能面临被欺凌的风险,而他们的照片也可能被用于制作露骨内容。.
报告部分内容写道:“所审查的照片涵盖了整个童年时期。”.
“他们捕捉到了婴儿出生时被戴手套的医生抱在怀里的温馨瞬间,孩子们吹灭生日 cake 上的蜡烛,或者穿着内衣在家跳舞的可爱画面……”
人权观察。.
然而,韩透露,“所有公开可用的 LAION-5B 版本都已被删除”,因此巴西儿童照片被利用的风险降低了。.
据人权观察组织称,在LAION确认所有被标记的内容均已删除之前,该数据集将不会再次开放。此前,斯坦福大学的一份报告也指出,“该数据集中存在指向公共网络上非法内容的链接”,其中包括3000多起疑似儿童性虐待内容。
巴西至少有 85 名女孩报告称,她们的同学利用人工智能技术,根据她们社交媒体上的照片生成露骨的深度伪造内容,对她们进行骚扰。
保护儿童隐私
据Ars,LAION-5B 于 2022 年推出,据称是为了复制OpenAI 的数据集,并被誉为最大的“免费图像文本数据集”。
当人权观察组织就这些图像联系 LAION 时,该组织回应称,基于 LAION-5B 训练的 AI 模型“无法逐字逐句地生成儿童数据”,尽管他们承认存在隐私和安全风险。.
该组织随后开始删除一些图片,但也认为家长和监护人有责任从互联网上删除孩子的个人照片。韩不同意他们的观点,他说:
“不应该让孩子和他们的父母承担保护孩子免受一种根本无法防范的技术侵害的责任。这不是他们的错。”
韩。.
人权观察呼吁巴西立法者采取紧急行动,保护儿童权利免受新兴技术侵害。人权观察建议,必须制定新的法律,禁止将儿童数据用于人工智能模型。.
Enacy Mapakame 的Cryptopolitan 报告

