用語集

リトリーバル・オーグメンテッド・ジェネレーション(RAG)

外部知識検索とテキスト生成を組み合わせることで、正確で最新の出力を実現するRAG(Retrieval Augmented Generation)がどのようにNLPに革命をもたらすかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

RAG(Retrieval Augmented Generation)は、自然言語処理(NLP)の分野における革新的なアプローチであり、テキスト生成プロセスに外部の知識検索を統合することで、言語モデルの能力を向上させる。事前に訓練された知識のみに依存する従来のモデルとは異なり、RAGモデルは膨大な文書コーパスから関連情報を動的に取得し、その回答に情報を与え、充実させます。この方法により、生成されるテキストの精度、関連性、深度が大幅に向上し、最新情報や特定の情報を必要とするアプリケーションで特に有用である。

検索拡張世代の仕組み

RAGモデルは、検索に基づくアプローチと生成に基づくアプローチの両方の長所を兼ね備えている。このプロセスには通常、リトリーバとジェネレータという2つの主要コンポーネントが含まれる。クエリが提示されると、リトリーバは文書の大規模なデータベースをスキャンし、クエリのコンテキストに基づいて最も関連性の高い文章を選択する。これらの検索された文章はジェネレーターに送られ、ジェネレーターはこの情報を使って、首尾一貫した文脈に適した応答を生成する。ジェネレーターは多くの場合、GPT(Generative Pre-trained Transformer)やBERT(Bidirectional Encoder Representations from Transformers)で使われるようなトランスフォーマーモデルであるが、外部情報を取り込む機能が追加されている。

RAGの主な構成要素

リトリーバ・コンポーネントは、外部の知識ソースから関連する文書や文章を特定し、フェッチする役割を担う。このコンポーネントは多くの場合、TF-IDF、BM25、密埋め込みなどの技術を利用して、クエリとドキュメント間の類似度を測定する。生成コンポーネントは、検索された情報と元のクエリを受け取り、最終的な出力を生成する配列間モデルである。このコンポーネントは、複数のソースからの情報を合成し、流暢で有益な応答を生成するように訓練されている。

RAGを使用する利点

RAGは、従来の大規模言語モデル(LLM)に対していくつかの利点を提供する。外部からの検証可能な情報に基づいた生成プロセスにより、RAGモデルはより正確で信頼性の高い出力を生成することができる。これは、モデルがもっともらしいが正しくない情報を生成する幻覚のリスクを低減する。さらに、RAGモデルは、検索データベースを更新することで新しい情報に容易に適応することができるため、静的で事前に訓練された知識のみに依存するモデルと比較して、より柔軟で最新の情報を得ることができる。

RAGの実世界での応用

強化された質問応答

RAGモデルは、特に回答が具体的、最新、またはニッチな情報を必要とする場合、質問回答タスクに優れています。例えば、RAGを搭載したカスタマーサポートチャットボットは、最新の製品ドキュメントやFAQを取得し、ユーザーからの問い合わせに対して正確で役立つ回答を提供することができます。これにより、頻繁にモデルを再トレーニングすることなく、顧客が最新の情報を受け取ることができます。

コンテンツの作成と要約

RAGは、様々なソースから関連する事実、統計、および詳細を取り込むことによって、高品質で有益なコンテンツを生成するために使用することができます。例えば、RAGモデルは、トピックに関連する最新のイベントやデータポイントを取得することで、ニュース記事の作成を支援することができる。同様に、テキストの要約においても、RAGは複数の文書から情報を取り込むことで、より包括的で正確な要約を作成することができる。

RAGと他の言語モデルとの比較

GPTのような他の言語モデルと比較すると、RAGは外部の知識にアクセスし、それを利用する能力によって、他とは一線を画しています。GPT-3や GPT-4のようなGPTモデルは、人間のようなテキストを生成する上で強力ですが、それらがトレーニングされたデータによって制限されます。対照的に、RAGは関連する情報を動的に取得することで生成プロセスを強化し、より情報に基づいた正確な出力をもたらします。この違いにより、RAGは、正確さと最新の情報が重要なシナリオにおいて、特に価値を発揮します。

課題と今後の方向性

その利点にもかかわらず、RAGは課題にも直面している。生成される出力の質は、リトリーバの有効性に大きく依存する。もしリトリーバーが関連文書のフェッチに失敗すると、ジェネレーターの出力が低下する可能性がある。さらに、複数のソースからの情報を統合して処理することは、計算量が多くなる可能性がある。今後の研究の方向性としては、検索メカニズムの効率改善、ジェネレータの情報合成能力の強化、構造化・非構造化データソースを取り込む新しい方法の探求などがある。RAGについての詳細はこちらの研究論文をご覧ください。

高度なNLPテクニックとモデルに関するさらなる洞察については、Ultralytics ブログをご覧ください。

すべて読む