NLP、時系列分析、視覚AIのAI/MLモデルを強化し、予測と精度を向上させるコンテキスト・ウィンドウの仕組みをご覧ください。
コンテキスト・ウィンドウとは、機械学習(ML)における基本的な概念で、逐次データを処理する際にモデルが一度に考慮できる一定の情報量を指す。モデルの短期記憶と考えればよい。データがテキストであれ、株価のシーケンスであれ、ビデオのフレームであれ、コンテキスト・ウィンドウは、現在の入力を理解し正確な予測を行うために、モデルが最近の過去をどれだけ「見る」ことができるかを定義する。このメカニズムは、自然言語処理(NLP)や時系列分析など、文脈が解釈の鍵となるタスクにおいて極めて重要である。
リカレント・ニューラル・ネットワーク(RNN)や特にトランスフォーマーなど、データを逐次処理するモデルは、コンテキスト・ウィンドウに依存している。モデルが一連のデータを分析するとき、その1つのデータ・ポイントを単独で見るのではない。その代わりに、そのデータ点と、それに先行する特定の数のデータ点を見る。例えば言語モデルでは、文中の次の単語を予測するために、モデルは最後の数単語を調べる。考慮する単語の数は、コンテキスト・ウィンドウのサイズによって決定される。これは、連続した情報の意味を理解するために不可欠な、依存関係やパターンをモデルが捉えるのに役立つ。言語モデルがどのように機能するかについての概要は、LLM入門にある。
コンテキスト・ウィンドウの概念は、多くのAIアプリケーションに不可欠である:
適切なコンテキスト・ウィンドウのサイズを選択することは、トレードオフを伴う。より大きなウィンドウは、より多くのコンテキストを取り込み、モデルの精度を向上させる可能性がある。しかし、より多くのメモリと計算能力を必要とし、学習と推論が遅くなる可能性がある。Transformer-XLのような技術は、カーネギーメロン大学の研究に詳述されているように、より長いコンテキストをより効率的に扱うために開発されている。
コンテキストウィンドウを関連用語と区別することは有用である:
PyTorch(PyTorchの公式サイト)やTensorFlow(TensorFlowの公式サイトに詳細)のようなフレームワークは、コンテキストウィンドウが重要なパラメータとなるモデルを構築するためのツールを提供している。効率的なモデルのデプロイには、コンテキストの取り扱いを最適化する必要があることが多いが、これはUltralytics HUBのようなプラットフォームで管理することができる。