最新消息
为您精选
每周
保持领先

最优质的加密货币资讯直接发送到您的邮箱。.

谷歌分析师警告称,人工智能的回答“并不完美,无法取代你的大脑”。

作者:杰弗里·戈戈杰弗里·戈戈
阅读时长:3分钟 发布
谷歌
  • 谷歌分析师 Gary Illyes 警告说,LLM 在准确性方面仍然存在差距。.
  • 这些模型需要人工审核来验证它们生成的内容。.
  • 他说,人们不应该在没有核实权威来源的情况下就相信人工智能的回答。.

谷歌分析师加里·伊利耶斯警告称,大型语言模型(ChatGPT等生成式人工智能聊天机器人背后的技术)的准确性仍然存在不足,需要人工审核其生成的内容。就在几天前,OpenAI发布了 SearchGPT,这是一款全新的人工智能搜索引擎,将直接与谷歌展开竞争。 

伊利耶斯在领英上分享了这些 评论 ,以回应他收到的一个问题,但他没有透露问题的具体内容。他表示,人们不应该在没有核实其他权威来源的情况下就轻信人工智能的回答。OpenAI的目标是凭借其搜索工具颠覆谷歌在搜索引擎市场的主导地位。

人工智能的回答“未必完全正确”

在谷歌工作超过十年的伊利耶斯表示,虽然人工智能的答案可能接近事实,但“未必完全正确”。他解释说,这是因为大型语言模型(LLM)也无法避免受到互联网上流传的错误信息的影响。.

“基于训练数据,语言学习模型(LLM)会找到最符合提示语上下文和含义的词语、短语和句子,”伊利耶斯写道。“这使得它们能够生成相关且连贯的回答,但这些回答不一定完全符合事实。”

谷歌分析师表示,用户仍然需要根据“你对向LLM提出的主题的了解,或者对与你的查询相关的权威资源的额外阅读”来验证AI的答案。

开发者们尝试确保人工智能生成内容可靠性的一种方法是采用一种名为“融合”(grounding)的做法。该过程涉及将机器生成的信息与人为因素相结合,以防止出错。但伊利耶斯认为,融合可能仍然不够。.

“接地气有助于形成更符合事实的回应,但它并不完美;它不能取代你的大脑,”他说。“互联网上充斥着有意或无意的错误信息,你不会相信你在网上读到的所有内容,那么你为什么要相信LLM的回应呢?”

埃隆·马斯克指责谷歌把关公共信息

的问题 谷歌 和其他人工智能平台

其中一个例子dentdentdent dentdentdentdent dentdent 埃隆·马斯克 建议 谷歌禁止该枪击事件dent 在搜索结果中,这在社交媒体上引发了一场关于大型科技公司影响力范围的激烈辩论。

在铺天盖地的回应中,一个冒充谷歌副总裁安娜·莫斯塔拉克的虚假账户也dent 了这场争论,分享了一份 虚假道歉声明 来自该公司的

“……人们对信息的需求不断增长,因此我们将不断发展和改进搜索功能。然而,我们似乎需要重新定义‘准确’的含义。准确与否是主观的,而对准确性的过度追求可能会妨碍工作的完成。”这个虚假账户在X上发布了这条消息。.

“您可以放心,我们的团队正在努力确保我们对准确性的敬畏不会trac我们的注意力,从而阻碍我们对未来的愿景,”声明补充道。.

X 社区立即对这条推文进行了标记,指出发帖人冒充谷歌副总裁。这表明信息很容易被歪曲,而如果没有人工审核,人工智能模型可能无法辨别信息的真伪。.

如果你正在阅读这篇文章,你已经领先一步了。 订阅我们的新闻简报,继续保持领先优势

分享这篇文章

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

更多…新闻
深度 密码
学速成课程