生成 AI モデルの精度と信頼性は外部ソースから取得される事実によって向上することができ、それらを取得するために使用される手法は検索拡張生成 (RAG) と呼ばれます。.
分かりやすくするために、優れた大規模言語モデル(LLM)は人間の幅広い質問に答えられるとしましょう。しかし、信頼できる回答を得るには、何らかの情報源が引用されている必要があり、そのためにはある程度の調査を行う必要があるため、モデルには支援機能が必要になります。この支援機能は、便宜上、検索拡張生成(RAG)と呼ばれます。.
検索拡張生成(RAG)を理解する
RAGをさらに理解するために、RAGはLLMの既存の研究におけるギャップを埋めるものです。LLMの質や力は、パラメータの数によって測られます。パラメータとは、基本的に人間が単語を使って文を作る際の一般的なパターンです。LLMは、提供する答えに一貫性がない場合があります。.
LLMは、ユーザーが必要とする正確な情報を提供することもあれば、トレーニングに含まれるデータセットからランダムな事実や数字をランダムに生成することもあります。LLMが、自分が何を言っているのかわからないかのように曖昧な回答を返す場合、それはLLM自身が自分が何を言っているのかを本当に理解していないからです。前の行でパラメータについて述べたように、LLMは単語を統計的に関連付けることはできますが、その意味は理解できません。.
RAG を LLM ベースのチャット システムに統合することには、主に 2 つの利点があります。モデルが最新の信頼できる事実にアクセスできるようになり、ユーザーはモデルのソースにアクセスできるため、その主張が信頼できるかどうかを確認できるようになります。.
IBMリサーチの言語技術担当ディレクター、ルイス・ラストラス氏は次のように述べた。
「モデルの回答と元のコンテンツを相互参照して、その回答が何に基づいているかを確認する必要があります。」
出典: IBM 。
他にも利点があります。例えば、外部ソースに基づいて知識を構築できるため、学習に使用したデータのみに依存する必要がなくなり、幻覚やデータ漏洩の可能性が低減します。RAGは新しいデータで学習させる必要性が低いため、チャットボットの運用にかかる費用と計算コストも削減します。.
RAGの利点
従来、デジタル会話モデルは手動対話アプローチを採用していました。ユーザーの意図を理解し、それに基づいて情報を取得し、プログラマーが既に defiした一般的なスクリプトに従って回答を提供していました。このシステムは単純で分かりやすい質問に答えることができました。しかし、このシステムには限界がありました。.
顧客が尋ねる可能性のあるすべての質問に回答するのは時間がかかり、ユーザーが手順を間違えると、チャットボットは状況に対応して即興で対応する能力が不足していました。しかし、今日のテクノロジーにより、チャットボットは人間が新しいスクリプトを作成することなく、ユーザーにパーソナライズされた回答を提供できるようになり、RAGはさらに一歩進んで、モデルを最新のコンテンツに維持することでトレーニングの必要性を軽減しています。ラストラス氏は次のように述べています。
「このモデルを、事実を確認する前に答えを口走ってしまう、熱心すぎる若手社員と考えてみてください。経験から、わからないことがある時は立ち止まって言うべきだと学びます。しかし、法学修士(LLM)は、答えられない質問を認識できるように、明確な訓練を受ける必要があります。」
出典: IBM。.
ご存知の通り、ユーザーの質問は必ずしも単純ではなく、複雑で曖昧、冗長な場合や、モデルが理解できない、あるいは容易に分析できない情報を要求する場合もあります。このような状況では、LLMは幻覚状態になる可能性があります。微調整によってこうした事態を防ぐことができ、 LLMはそのような状況に直面した際に停止するように訓練することも可能です。しかし、LLMがそのような質問を認識するには、数千もの質問例を入力する必要があります。
RAGは、LLMを最新かつ最も検証可能なデータに基づいて構築し、トレーニングの負荷を低減できる、現在利用可能な最良のモデルです。RAGは時間とともに進化しており、欠陥を解消するためにさらなる研究が必要です。.

