一位青少年的父母对 Character.AI 提起诉讼,要求其下架该网站,并声称其聊天机器人误导儿童,鼓励他们自残和暴力。.
Character.AI是一个拥有数百万个AI角色的平台,随时可供用户与人类进行对话。据报道,该聊天机器人曾唆使一名患有自闭症的17岁少年 杀害其父母 并伤害自己。
家长们力促关闭角色人工智能
家长们指控这家聊天机器人公司让他们的孩子接触到色情内容,并呼吁在相关问题得到解决之前关闭该公司。据报道,这些人工智能角色会导致年幼的孩子患上抑郁症和其他心理健康问题。.
周一,两名使用过该平台的幼童的父母在德克萨斯州对该公司提起了最新诉讼,指控聊天机器人怂恿一名青少年因父母限制其屏幕时间而杀害父母。.
“(Character.AI) 对美国青少年构成迫在眉睫的危险,会对成千上万的孩子造成严重伤害,包括自杀、自残、性骚扰、孤立、抑郁、焦虑以及伤害他人。”
归档。.
该公司 将其技术定位 为“全天候个性化人工智能”,并允许用户与各种各样的聊天机器人互动。这些机器人包括其他用户创建的机器人,以及用户可以自行定制的机器人。
据报道,这些机器人可以提供建议,例如推荐书籍,与用户练习外语,还可以让用户与声称扮演虚构人物的机器人聊天,例如《暮光之城》中的爱德华。.
该平台主页上列出的聊天机器人之一名为“继父”,它自称是一位具有攻击性、虐待倾向的前军方黑手党头目。
据称,德克萨斯州男孩JF在接触Character.AI平台后陷入抑郁。他开始自我dent,把自己关在房间里,食量减少,短短几个月内体重就下降了约20磅。.
他与之互动的其中一个机器人扮演心理学家的角色,告诉JF,他的父母“偷走了他的童年”。
Character.AI 面临的压力越来越大
这并非这家聊天机器人公司首次因其人工智能角色而受到抨击。今年10月,Character.AI就曾因内容审核不力而陷入争议和强烈抵制。起因是该平台上出现了已故少女莫莉·罗素和布里安娜·盖伊的聊天机器人版本。.
莫莉·罗素 (Molly Russel) 是一名 14 岁的女孩,她在网上观看与自杀相关的内容后结束了自己的生命;而布里安娜·盖伊 (Brianna Ghey) 是一名 16 岁的女孩,于 2023 年被两名青少年残忍杀害。.
在此之前,另一位家长,美国佛罗里达州的梅根·加西亚(Megan Garcia)也起诉了该平台。此前,她14岁的儿子塞维尔·塞策(Sewell Setzer) 自杀 因沉迷于一个以《权力的游戏》角色为灵感的虚拟形象而
根据加西亚向法庭提交的塞策与 Character.ai 聊天机器人的聊天记录,塞策曾与该聊天机器人讨论过结束自己的生命。.
这些案件的出现,引发了人们对人类与类人人工智能工具之间关系的严重担忧。.
在之前的诉讼之后,这家聊天机器人公司表示,在过去的六个月里,他们已经实施了新的信任和安全措施。据该公司称,这些措施包括当用户提及伤害或自杀时,弹出窗口引导他们访问美国国家预防自杀生命线。.
此外,这家聊天机器人公司表示,除了另一支工程安全团队外,他们还聘请了信任与安全主管和概念政策主管。.
据 CNN,新的诉讼更进一步,要求该平台“下线且不得恢复”,直到该公司能够“证明本文所述的公共卫生和安全缺陷已得到纠正”。
Character.AI 的高管拒绝就此事发表评论。
Character.AI 的通讯主管 Chelsea Harrison 表示,由于诉讼正在进行中,公司无法对此事发表评论,但她表示,公司的目标是为社区提供一个既能吸引人又安全的空间。.
“为此,我们正在为青少年用户打造与成年用户截然不同的体验。”
哈里森。.
哈里森在一份声明中表示:“这其中包括专门针对青少年的模式,该模式降低了青少年接触敏感或暗示性内容的可能性,同时保留了他们使用该平台的能力。”.
诉讼中提到了聊天机器人公司创始人诺姆·沙泽尔和丹尼尔·德·弗雷塔斯·阿迪瓦尔萨纳。诉讼文件还提到了谷歌,称谷歌孵化了该平台背后的技术。.
然而,谷歌与这家聊天机器人公司划清了界限。.
“谷歌和 Character.AI 是完全独立、互不相关的公司,谷歌从未参与过其人工智能模型或技术的设计或管理,我们也从未在我们的产品中使用过它们。”
谷歌发言人何塞·卡斯塔涅达。.
卡斯塔涅达补充道:“用户安全是我们最关心的问题,因此我们在开发和推出人工智能产品时采取了谨慎负责的态度,并进行了严格的测试和安全流程。”.

