Your bank is using your money. You’re getting the scraps.WATCH FREE

斯坦福大学报告揭露人工智能训练数据中存在儿童色情内容

本文内容:

  • 斯坦福大学在人工智能训练数据中发现儿童色情内容,引发安全担忧。.
  • PhotoDNA 等技术工具对于数据集安全至关重要。.
  • 全球反应不一,但都集中在人工智能的安全性和伦理方面。.

斯坦福互联网观察站的一项惊人发现是:在用于训练人工智能图像生成器的数据集LAION-5B中,存在超过1000张伪造的儿童性虐待图像。这项于4月公布的发现,引发了人们对人工智能训练材料来源和汇编方法的严重担忧。.

LAION-5B与总部位于伦敦的Stability AI公司的Stable Diffusion AI图像生成器相关联,它通过对社交媒体和色情网站的内容进行采样来积累这些图像。考虑到这些平台的广泛使用及其潜在影响,在人工智能训练材料中发现此类内容令人担忧。.

利用技术应对挑战

斯坦福大学的研究人员在dent这些图像的过程中,并没有直接查看这些虐待内容。相反,他们使用了微软的PhotoDNA技术,这是一种通过将哈希图像与来自各种数据库的已知虐待内容进行匹配来检测儿童虐待图像的工具。.

斯坦福大学团队的研究成果已传达给美国和加拿大的相关非营利组织,凸显了在人工智能训练数据集的管理方面采取更严格措施的迫切性。研究人员建议在未来的数据集构建过程中使用PhotoDNA等工具来过滤有害内容。然而,他们也强调了清理开放数据集所面临的挑战,尤其是在缺乏集中式托管机构的情况下。.

针对该报道,大规模人工智能开放网络(LAION)暂时下架了其数据集,以确保数据安全后再重新发布。LAION强调其对非法内容采取零容忍政策,并指出在处理此类敏感资料时务必谨慎。.

另见  Ethereum游戏网络起诉马斯克的 xAI 品牌混淆

更广泛的影响和应对措施

这个问题并非仅限于所讨论的数据集。斯坦福大学的报告指出,即使少量的虐待性图像也能对人工智能工具产生显著影响,使其能够生成数千张深度伪造图像。这对青少年和儿童构成全球性威胁,因为它不仅会延续虐待行为,还会加剧对真实受害者的虐待。.

许多生成式人工智能项目急于推向市场的做法受到了批评,斯坦福互联网观察站首席技术官大卫·蒂尔等专家呼吁对数据集的构建给予更严格的重视。蒂尔强调,这种大规模的全网数据抓取应该仅限于研究用途,未经彻底审查不应开源。.

鉴于这些发现,LAION数据集的主要用户之一Stability AI已采取措施降低滥用风险。其新版稳定扩散模型旨在增加创建有害内容的难度。然而,去年发布的旧版本仍然存在风险,并且被广泛用于其他应用。.

国际社会对此问题的反应不一。在美国,政府正在筹建人工智能安全研究所,以评估人工智能模型带来的风险。同样,澳大利亚也在实施新的算法,以防止人工智能生成的儿童性虐待材料被传播。在英国,领先的人工智能开发商已同意与政府合作,在发布新模型之前对其进行测试。.

另见:  中国科技巨头将人工智能训练外包以获取英伟达芯片

在英国举行的全球人工智能安全峰会上,包括美国、印度和欧盟在内的25个国家签署了《布莱切利宣言》。该协议旨在建立人工智能监管的共同方法,强调国际社会致力于负责任地管理人工智能风险。.

在人工智能训练数据集中发现儿童色情内容,引发了深刻的伦理和安全问题。这凸显了在人工智能技术开发过程中,需要建立更加严格的数据管理和监控机制。随着人工智能的不断发展和渗透到生活的各个方面,确保这些技术的合乎伦理的使用和安全部署变得日益重要。.

还在让银行保留最好的部分吗?观看我们的免费视频,了解如何成为自己的银行

分享链接:

免责声明:提供的信息并非交易建议。Cryptopolitan.com对任何基于本页面信息进行的投资概不负责。我们Cryptopolitantron您在做出任何投资决定前进行独立研究dent/或咨询合格的专业人士。

阅读最多

正在加载最热门文章…….

随时掌握加密货币新闻动态,每日更新将发送至您的邮箱。

编辑推荐

正在加载编辑精选文章…….

订阅加密货币资讯,掌握先机

市场瞬息万变。.

我们行动更快。.

订阅 Cryptopolitan Daily,即可在您的收件箱中及时获取敏锐、精辟、相关的加密货币见解。.

立即加入,
不错过任何精彩瞬间。

深入了解情况,掌握事实,
抢占先机。

订阅 CryptoPolitan