- OpenAI、谷歌和Anthropic都致力于赋予他们的聊天机器人独特的个性,使它们更像人类,反应更灵敏。.
- ChatGPT保持中立,Gemini在被问及时发表意见,而Claude则公开表达自己的信仰。.
- Anthropic 通过角色扮演来训练其人工智能,以培养其个性,而 OpenAI 则不断微调 ChatGPT,以避免使其过于友好或说教。.
人工智能不再仅仅是让机器更智能。如今,像OpenAI、谷歌和Anthropic这样的大型人工智能公司面临着一项新的挑战:如何赋予人工智能模型个性。.
他们希望聊天机器人能够更人性化,同时又能安全实用,满足日常用户和企业的需求。这三家公司正在竞相攻克这一难题,各自提出了不同的解决方案。.
自定义个性和模型行为
OpenAI 的 ChatGPT 注重客观性,而 Google 的 Gemini 只有在被问及时才会提供一系列观点。.
人格心理学?他们致力于公开其克劳德模型的理念,同时也在倾听他人的意见。这场竞争的赢家或许将主导蓬勃发展的AI市场。.
OpenAI产品模型行为负责人Joanne Jang表示,他们希望人工智能避免产生个人观点。但她也承认,这很难做到。.
她解释说:“让模型主动改变用户的想法是件很危险的事。” 目标是确保 ChatGPT 不会操纵或引导用户。但为人工智能系统 defi“目标”是一项巨大的挑战,目前仍在研究中。.
还有一家公司 Anthropic,它采取了完全不同的方法。Anthropic 的角色训练负责人 Amanda Askell 认为,人工智能模型永远不可能做到完全中立。.
“我更想明确一点,这些模型并非中立的仲裁者,”她说道。人本主义公司致力于确保其模型克劳德能够自由表达自己的信念。但他们仍然希望它能够接纳其他观点。.
训练人工智能像人类一样行事
Anthropic公司在塑造其人工智能的个性方面采用了一种独特的方法。自3月份发布Claude 3以来,他们一直在进行“角色训练”,这项工作是在人工智能模型完成初始训练之后进行的。.
这包括给人工智能一套书面规则和指令,然后让它与自己进行角色扮演对话。.
目的是看看它对规则的遵守程度,并根据其回答与所需角色的契合程度对其进行排名。.
克劳德接受的训练的一个例子是?他可能会说:“我喜欢尝试从许多不同的角度看待事物,并从多个角度分析事物,但我并不害怕表达我对那些我认为不道德、极端或事实错误的观点的异议。”
阿曼达·阿斯克尔解释说,这种性格训练有时“相当具有编辑性”和“哲学性”。.
OpenAI也一直在不断调整ChatGPT的性格。Joanne Jang承认,她以前觉得这个机器人“很烦人”,因为它过于谨慎,拒绝某些指令,而且说话总是带着说教的口吻。.
他们此后一直致力于让聊天机器人更加友好、礼貌和乐于助人——但这仍然是一个持续的过程。正如张所说,在聊天机器人中平衡恰当的行为既是“科学,也是艺术”。
人工智能不断发展的记忆和推理能力
人工智能推理和记忆能力的提升可能会进一步改变游戏规则。目前,像 ChatGPT 这样的模型可能经过训练,能够就某些特定话题(例如商店行窃)给出安全的回答。.
如果被问及如何偷窃,机器人可以判断用户是在寻求如何实施犯罪的建议,还是在寻求如何防止犯罪的建议。.
这种推理方式有助于企业确保其聊天机器人给出安全、负责的答案。这也意味着他们无需花费大量时间训练人工智能以避免危险后果。.
人工智能公司也在努力让聊天机器人更加个性化。想象一下,你告诉 ChatGPT 你是一名穆斯林,几天后又请它推荐一句励志名言。.
机器人能否记住并提供一段《古兰经》经文?据 Joanne Jang 称,这正是他们试图解决的问题。虽然 ChatGPT 目前还无法记住过去的互动,但这种个性化定制正是人工智能的发展方向。.
克劳德采取了不同的方法。该模型也不记忆用户交互,但公司已经考虑过如果用户对模型过于依赖会发生什么情况。.
例如,如果有人说他们因为花太多时间与克劳德聊天而把自己孤立起来,机器人是否应该介入?
“一个好的模型应该在尊重人类自主权和决策权之间取得平衡,不做任何极其有害的事情,同时也要认真思考什么才是真正对人们有益的,”阿曼达·阿斯克尔 说。
还在让银行保留最好的部分吗?观看我们的免费视频,了解如何 成为自己的银行。
免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。
学速成课程
- 哪些加密货币可以让你赚钱
- 如何通过钱包提升安全性(以及哪些钱包真正值得使用)
- 专业人士使用的鲜为人知的投资策略
- 如何开始投资加密货币(使用哪些交易所、购买哪种加密货币最划算等)
















