用語集

リトリーバル・オーグメンテッド・ジェネレーション(RAG)

リアルタイムで信頼性の高い外部データを統合することで、正確で最新の応答を実現するRAG(Retrieval Augmented Generation)がどのようにAIモデルを強化するかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

Retrieval Augmented Generation(RAG)は、生成AIモデル、特に大規模言語モデル(LLM)の能力を強化する革新的なアプローチである。標準的なLLMの重要な限界である、事前に訓練されたデータのみに依存することに対処するもので、事実上不正確であったり、時代遅れであったり、特定の文脈理解が欠如していたりする出力につながる可能性があります。RAGは、モデルが生成プロセス中にリアルタイムで外部ソースにアクセスし、情報を取り込むことを可能にすることで、これらの問題を克服します。

検索拡張世代(RAG)とは?

検索拡張生成(RAG)は、応答を生成する前に外部の知識ベースから情報を取得できるようにすることで、LLMの知識を豊かにする技術である。内部で事前に訓練されたパラメータのみに依存するモデルとは異なり、RAGベースのモデルは、文書、データベース、ウェブなどの外部ソースから関連する情報に動的にアクセスし、統合する。このプロセスは、LLMに組み込まれた膨大な一般知識と、最新の正確な情報やドメイン固有の情報の必要性とのギャップを効果的に埋める。これにより、生成されるコンテンツは文脈に関連するだけでなく、最新かつ信頼できる事実に基づいていることが保証される。

RAGの仕組み

検索補強生成プロセスには、一般的に、2つの主要な段階が並行して行われる:

  1. 検索段階:ユーザがクエリを出すと、RAGシステムはまず、指定された知識ソースから関連情報を検索する検索メカニズムを採用する。この知識ソースは、ドキュメントのベクトルデータベース、ウェブページのコレクション、または任意の構造化または非構造化データリポジトリであることができる。最も適切な文書や情報チャンクを特定しフェッチするために、セマンティック検索や類似性マッチングなどの技術がよく使われる。これらの手法は、クエリと知識ベース内の情報の両方の意味と文脈を理解するために埋め込みを活用し、検索が単なるキーワードベースではなく、概念に沿ったものであることを保証する。

  2. 補強と生成段階:関連情報が検索されると、その情報は「補強」されるか、元のユーザークエリと組み合わされる。この拡張されたプロンプトはLLMに入力される。LLMは、この強化されたコンテキスト(元のクエリと検索された知識の両方)を使用して、より情報に基づいた正確な応答を生成する。このプロセスにより、モデルの出力は、潜在的に限られた、あるいは古くなった事前学習データだけに頼るのではなく、外部の事実とコンテキストに基づいたものとなる。プロンプトエンジニアリングのような技術は、検索された情報を効果的に生成プロセスに組み込み、LLMが首尾一貫した適切な回答を生成するよう導く上で、重要な役割を果たす。

RAGの応用

RAGは、さまざまな領域で応用できる汎用性の高い技術であることが証明されている:

  • カスタマーサポートチャットボットの強化カスタマーサービスにおいて、RAGを搭載したチャットボットは、最新のナレッジベース、FAQ、製品ドキュメントから情報を取得することで、より正確で役立つ回答を提供することができます。これにより、ユーザーは最新かつ具体的な回答を確実に受け取ることができ、顧客満足度を向上させ、一般的な問い合わせに対する人間の介入の必要性を減らすことができます。チャットボットとそのアプリケーションの詳細をご覧ください。

  • コンテンツ作成と研究支援:コンテンツ制作者や研究者にとって、RAGシステムは膨大な情報リポジトリへのアクセスを提供することで、記事、レポート、研究論文の作成を支援します。RAGは、生成されたテキストを検索された事実やデータに基づかせることで、事実の正確性を確保し、剽窃のリスクを低減します。これは、最新の情報を必要とする分野や、特定のトピックを深く掘り下げる必要がある分野で特に有効です。テキスト生成技術の詳細はこちら

  • 社内ナレッジ管理システム:企業はRAGを利用して社内ナレッジマネジメントシステムを構築し、従業員が社内の文書、Wiki、データベースから素早く情報にアクセスし、統合することができます。これにより、組織のナレッジに容易にアクセスできるようになり、効率性の向上、より良い意思決定の促進、入社プロセスの合理化が可能になります。

RAG対微調整

RAGもファインチューニングも、LLMを特定のユースケースに適合させることを目的としているが、その動作は異なる:

  • 検索拡張生成(RAG):RAGは、問い合わせ時に関連情報を外部から取得することにより、生成プロセスを強化する。RAGは、モデルのパラメータを変更せず、外部の知識ソースに依存して、最新かつドメイン固有の情報を取得する。RAGは、頻繁に変化する情報を扱う場合や、モデルのパラメータに含めることが現実的でない膨大な量のデータにアクセスする必要がある場合に有利である。

  • 微調整:一方、ファインチューニングは、新しいタスク固有のデータセットで訓練することにより、事前に訓練されたモデルの内部パラメータを修正することを含む。ファインチューニングは、モデルを特定のスタイル、ドメイン、タスクに適応させるのに有効ですが、モデルのコアとなる知識を更新するため、新しい情報を取り入れるための再トレーニングが必要になります。ファインチューニングと 転移学習の概念について、さらに理解を深めてください。

RAGは、モデル全体を再学習させることなく、外部の進化する知識を取り入れる、より柔軟で効率的な方法を提供し、最新かつ文脈に富んだ応答を必要とするアプリケーションにとって実用的な選択肢となる。

RAGのメリット

RAGの採用にはいくつかの重要な利点がある:

  • 正確性と信頼性の向上:外部からの検証可能な情報源に基づく回答により、RAGはLLMにおける事実誤認や幻覚を大幅に減らし、より信頼できるアウトプットにつながります。
  • 最新情報へのアクセス:RAGはライブナレッジベースから最新の情報にアクセスし、取り入れることができます。これにより、回答が最新かつ適切であることが保証され、急速に進化する分野では重要な利点となります。
  • 関連性の強化:RAGは、関連する情報を動的に検索して取り込むことで、生成されるコンテンツがユーザーのクエリとコンテキストに高度に関連することを保証します。
  • 幻覚の減少:外部ソースと情報を相互参照し検証することで、RAGは、純粋な生成モデルでよくある問題である、捏造や無意味なコンテンツの生成を最小限に抑えます。
  • 費用対効果の高い知識更新:RAGシステムにおける知識の更新は、外部知識ベースを更新するのと同じくらい簡単で、大規模な言語モデルを再トレーニングしたり微調整したりするよりもはるかに少ないリソースで済みます。
すべて読む