Meta Platforms计划利用人工智能评估隐私和社会风险。多年来,该公司一直聘用人工评估员来审查新产品和功能相关的风险,但随着此次更新,情况将有所改变。.
根据内部对话和文件显示,Meta计划将其90%的风险评估流程自动化。这意味着,公司算法、安全功能以及内容在Meta平台间共享方式等关键更新,大部分将由人工智能系统审批。这也意味着,这些变更将不再需要由专门负责讨论平台变更可能产生的意外影响或被滥用的员工进行审核。.
Meta计划转向人工智能驱动的评论系统。
据Meta内部消息人士透露,这一进展对产品开发者来说是一件好事,因为它给了他们足够的时间来发布应用更新和新功能。然而,公司内部仍然存在担忧,认为这种情况非常棘手,因为允许人工智能对Meta的应用做出一些棘手的判断可能会造成现实世界的危害。这种担忧在Meta的前员工和现任员工中都有体现。
一位因担心公司报复而要求匿名的前Meta高管表示:“如果这种流程实际上意味着更多产品更快上市,而审查和反对却更少,那就意味着风险更高。产品变更带来的负面外部性更难在造成实际问题之前得到预防。”
Meta公司在最近的一份声明中提到,已投入数十亿美元用于保护用户隐私。自2012年以来,该公司一直受到美国联邦贸易委员会的监管,该机构已与Meta就其如何处理用户个人信息达成协议。因此,据Meta公司前任和现任员工称,一直以来都存在对产品隐私保护进行审查的需求。.
该公司在声明中补充道,产品风险审查的调整将有助于简化决策流程,并指出在处理新颖复杂的问题时,仍会依赖人工专家。Meta 还表示,目前只有低风险决策实现了自动化,但 NPR 查阅的内部文件显示,Meta 一直在研究如何将敏感方面的审查自动化,包括人工智能安全、青少年风险以及另一个名为“诚信”的类别(该类别负责处理诸如虚假信息和暴力内容等问题)。
在之前的系统中,产品和功能更新会先发送给风险评估人员,然后再向公众发布。然而,根据展示新流程的幻灯片,产品团队在完成项目问卷后即可立即获得决策结果。这项由人工智能驱动的决策将dent出若干风险领域以及相应的解决方案。在项目正式上线之前,产品团队还会再次确认这些解决方案是否已得到满足。.
新系统强调,构建 Meta 产品的工程师需要自行判断风险。根据幻灯片所示,在某些情况下,例如出现新风险或产品团队需要额外反馈时,项目将由人工进行审核。
然而,曾任Meta创新总监(任期至2022年)的兹维卡·克里格指出,产品经理和工程师并非隐私专家。“大多数产品经理和工程师都不是隐私专家,这也不是他们工作的重点。隐私不是他们的主要考核标准,也不是他们被激励去优先考虑的方面。”他说道。他还补充说,有些自我评估已经沦为形式主义,忽略了一些重要的风险。.

