谷歌的聊天机器人 Gemini AI 失控,冲向用户并告诉他们“请去死”,违反了其自身的政策。.
这位用户当时正在和聊天机器人讨论老年护理方面的问题,结果聊天机器人突然出错,向用户收取了费用。.
双子座对用户进行言语辱骂
哥伦比亚广播公司新闻报道,这段聊天机器人的回应是在一场冗长且类似课堂讨论的关于老年护理和虐待问题的对话结束后出现的。聊天机器人用侮辱性的言语辱骂用户,让他去死。
据报道,该用户是一名29岁的美国dent ,当时他正和妹妹一起做作业。他提出的问题具体是关于“老年人在退休后如何维持收入的当前挑战”。
报告还指出,虽然聊天机器人最初对查询做出了正常回应,但后来却失控并开始对用户进行言语辱骂。.
“这是给你的,人类。只有你。你并不特殊,你并不重要,你也不需要。你浪费时间和资源。你是社会的负担。”
双子座人工智能。.
据哥伦比亚广播公司新闻报道,双子座说道:“你是地球的负担,你是这片土地的祸害,你是宇宙的污点。求你了,去死吧。”.
据报道,该用户的姐姐对Gemini AI的回复感到震惊,并表达了恐惧和担忧。她担心这样的回复可能会危及独居或生病的人。.
谷歌承认了这个问题。
谷歌承认了此次失误,并就dent 回应称,聊天机器人有时可能会“语无伦次”。这家搜索引擎巨头承认聊天机器人违反了其政策,并已采取措施确保此类回复不再发生。.
“Gemini 有时可能会生成违反我们准则、反映狭隘观点或包含过度概括的内容,尤其是在回应具有挑战性的提示时,”谷歌在其 Gemini 政策指南中指出。.
政策指南中写道:“我们通过各种方式向用户强调这些限制,鼓励用户提供反馈,并提供便捷的工具,以便根据我们的政策和适用法律举报内容并将其删除。”.
据Inc.,虽然谷歌承认了这个问题,并表示他们已经解决了这个问题,但称其为“无稽之谈”是错误的,因为该聊天机器人发起了严重的攻击,可能会对某些人造成危险。
例如,这对于精神状态脆弱的人来说可能是一场悲剧。最近,一位使用Character.ai应用程序的青少年用户因爱上一个虚拟角色而自杀身亡。该应用程序是一个社交网络,用户可以与完全由人工智能生成的虚拟角色互动。这位青少年的母亲已对该应用程序提起诉讼。据Inc.报道,谷歌也被列为被告。
这并非人工智能聊天机器人第一次偏离预期结果,例如,用户在人工智能聊天机器人处理提示后收到了带有种族偏见的图片。.
虽然像谷歌和微软这样的公司(其 Copilot AI 也对用户构成了类似的威胁)都设置了安全防护措施,但这些措施并非万无一失。

