最新消息
为您精选
每周
保持领先

最优质的加密货币资讯直接发送到您的邮箱。.

OpenAI 最新的“推理”模型在基本错误方面存在问题

作者:埃纳西·马帕卡梅Enacy Mapakame
阅读时长:2分钟
  • 产品演示视频显示,人工智能会犯一些基本错误。.
  • 尽管它被誉为最先进的型号,但事实并非如此。.
  • O1 并不是第一个犯下严重错误的模型,例如,谷歌的模型也曾在某个时候出错。.

OpenAI 最近发布了一款“推理”人工智能模型——o1,但根据该公司的新广告,该模型已经出现了许多基本错误。.

ChatGPT 的开发者发布了迄今为止最先进的模型,供付费订阅用户使用,以此拉开了“OpenAI 12 天”活动的序幕,该活动是一系列为庆祝节日而推出的产品发布活动。

OpenAI 的一段演示视频表明,该模型容易出错。

根据 OpenAI 发布的一段展示模型优势的视频,用户上传了一张木制鸟屋的图片,然后向模型寻求如何建造类似鸟屋的建议。这个“推理”模型似乎“思考”了一会儿,然后给出了一系列看似指令的内容。.

仔细一看,说明书简直是浪费时间。模型虽然列出了所需材料(例如油漆、胶水和密封剂)的尺寸,但只提供了鸟屋前板的尺寸。

该模型建议将砂纸切割成另一组不必要的尺寸。此外,该模型声称给出了“精确尺寸”,但实际上并未给出任何精确尺寸,这与其之前的说法相矛盾。.

英国木工协会(一家总部位于英国的行业协会)的主任詹姆斯·菲勒斯也揭露了该模型的错误,例如o1清单中缺少一些必要的工具,比如锤子。.

“你从图片中了解到的关于如何建造鸟屋的信息,和从文字中了解到的信息一样多,这在某种程度上违背了人工智能工具的初衷。”

子。.

此外,菲卢斯还透露,建造同样的鸟屋的成本“远低于”模型估计的 20 至 50 美元。.

OpenAI模型的作用与预期用途正好相反

O1案例进一步印证了人工智能模型产品演示中出现反作用的例子。2023年,谷歌一则 广告 错误地宣称詹姆斯·韦伯太空望远镜取得了一项实际上并未取得的发现。这一错误导致谷歌股价下跌。

这并非这家搜索引擎巨头的全部恶行。最近,谷歌一款类似工具的更新版本告诉用户, 吃石头是安全的。它还声称,用户可以用胶水把奶酪粘到披萨上。

尽管存在一些不足,但根据公开的基准测试结果,o1 模型仍然是 OpenAI 迄今为止性能最强的模型。此外,它在回答问题时采用了与 ChatGPT 不同的方法。.

据《时代》周刊报道,o1 仍然是一个非常先进的下一个词预测器,因为它使用机器学习技术,对来自互联网及其他来源的数十亿个文本单词进行了训练。.

该模型采用一种称为“链式思维”的推理技巧,先在后台“思考”片刻,然后再给出答案。这与直接回答提示语截然不同。.

这有助于模型给出更准确的响应,而不是像以前那样只是对用户查询随意输出一些词语。.

你的钱在银行手里,你却只能拿到残羹剩饭。观看我们的免费视频,了解如何 成为自己的银行

分享这篇文章

免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。

更多…新闻
深度 密码
学速成课程