最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

AI企業はチャットボットの個性を一新している

によるジャイ・ハミドジャイ・ハミド
読了時間3分
AI企業はチャットボットの個性を一新している
  • OpenAI、Google、Anthropicは、チャットボットに独自の個性を持たせることで、より人間らしく、応答性の高いものにすることに注力している。.
  • ChatGPTは中立的な立場を保ち、Geminiは求められた場合にのみ意見を述べ、Claudeは自らの信念を率直に表明する。.
  • Anthropicはロールプレイングを用いてAIを訓練し、その個性を発達させている一方、OpenAIはChatGPTが過度に友好的になったり、説教臭くなったりしないように、常に微調整を行っている。.

人工知能はもはや、機械をより賢くするだけのものにとどまらない。OpenAI、Google、Anthropicといった大手AI企業は今、新たな課題に取り組んでいる。それは、AIモデルに人格を与える方法だ。.

彼らは、一般ユーザーや企業にとって安全で便利なだけでなく、より人間らしいチャットボットを求めている。3社はそれぞれ異なるアプローチで、この課題の解決を競い合っている。.

個性的な性格と模範的な行動

OpenAIのChatGPTは客観性を重視しているのに対し、GoogleのGeminiは質問された場合にのみ様々な見解を提供する。.

人間中心主義?彼らは、クロード・モデルを自らの信念をオープンにしつつ、他者の意見にも耳を傾けることに全力を注いでいる。この戦いの勝者は、成長著しいAI市場を席巻するかもしれない。.

OpenAIの製品モデル行動責任者であるジョアン・ジャン氏は、AIには個人的な意見を持たないようにしてほしいと述べている。しかし、それは難しいことだと彼女は認めている。. 

「モデルがユーザーの考えを積極的に変えようとするのは、危険な道です」と彼女は説明した。目標は、ChatGPTがユーザーを操作したり、特定の方向に誘導したりしないようにすることだ。しかし、AIシステムの「目的」を defiことは非常に難しく、いまだに試行錯誤が続いている。.

そして、全く異なるアプローチをとるAnthropic社がある。Anthropic社でキャラクター育成を率いるアマンダ・アスケル氏は、AIモデルが完全に中立になることは決してないと考えている。.

「これらのモデルは中立的な仲裁者ではないことを明確にしておきたい」と彼女は述べた。Anthropic社は、自社のモデルであるクロードが自らの信念を臆することなく表明できるよう尽力して​​いる。しかし同時に、他の視点にも耳を傾ける姿勢も維持したいと考えている。.

AIを人間のように振る舞うように訓練する

Anthropicは、AIの個性を形成する上で独自のアプローチを採用している。3月にClaude 3をリリースして以来、彼らはAIモデルの初期トレーニング後に開始される「キャラクター・トレーニング」に取り組んでいる。.

これは、AIに一連の書面によるルールと指示を与え、AI自身とロールプレイング形式の会話を行わせるというものです。.

目的は、それがどれだけルールに忠実に従っているかを確認することであり、回答が求められるキャラクターにどれだけ合致しているかに基づいて、回答をランク付けする。.

クロードの訓練の一例を挙げるとすれば、「私は物事を様々な視点から捉え、多角的に分析することを好みますが、倫理的に問題のある見解、極端な見解、あるいは事実に基づかない見解に対しては、臆することなく異議を唱えます」といった内容でしょう。

アマンダ・アスケルは、こうした人格形成訓練は時に「かなり編集的な」ものであり、「哲学的」であると説明した。. 

OpenAIは、ChatGPTの性格についても時間をかけて調整を重ねてきた。ジョアン・ジャンは、以前はChatGPTが過度に慎重で、特定の命令を拒否し、説教じみた印象を与えるため、「煩わしい」と感じていたと認めている。.

それ以来、彼らはチャットボットをより親しみやすく、丁寧で、役に立つものにするために努力してきたが、それは継続的なプロセスだ。チャン氏が言うように、チャットボットの適切な振る舞いのバランスを取ることは、「科学と芸術の両方」なのだ。

AIの進化する記憶と推論

AIの推論能力と記憶能力の進化は、状況をさらに大きく変える可能性がある。現在、ChatGPTのようなモデルは、万引きなどの特定のトピックに関して安全な応答を返すように訓練されているかもしれない。.

何かを盗む方法を尋ねられた場合、ボットはユーザーが犯罪を実行するためのアドバイスを求めているのか、それとも犯罪を防ごうとしているのかを判断できる。.

このような推論は、企業が自社のボットが安全で責任ある回答をすることを保証するのに役立ちます。また、危険な結果を回避するためにAIを訓練するのに費やす時間を減らすことにもつながります。.

AI企業は、チャットボットのパーソナライズ化にも取り組んでいる。例えば、ChatGPTに自分がイスラム教徒だと伝えた後、数日後に感動的な名言を尋ねる、といったことが可能になる。.

ボットはコーランの一節を記憶して提示してくれるだろうか?ジョアン・ジャンによれば、それが彼らが解決しようとしている課題だという。ChatGPTは現在、過去のやり取りを記憶する機能はないが、このようなカスタマイズこそがAIの未来の方向性だ。.

クロードは異なるアプローチを取っている。このモデルもユーザーの操作履歴を記憶するわけではないが、ユーザーが過度に愛着を持った場合に何が起こるかについては検討している。.

例えば、誰かがクロードとチャットしすぎて孤立していると言った場合、ボットは介入すべきでしょうか?

「優れたモデルとは、人間の自律性と意思決定を尊重し、極めて有害なことをしないことと、実際に人々にとって何が良いのかをじっくり考えることのバランスが取れているものです」とアマンダ・アスケルは 述べた

最も賢い暗号通貨マインドを持つ人々はすでに私たちのニュースレターを読んでいます。参加してみませんか?ぜひ ご参加ください

この記事を共有する

免責事項: 本情報は投資助言ではありません。Cryptopolitan.com Cryptopolitan、 本ページの情報に基づいて行われた投資について一切責任を負いません。投資判断を行う前に、ごtrondentdentdentdentdentdentdentdent で調査を行うか、資格のある専門家にご相談されることを

もっと…ニュース
ディープ クリプト
速習コース