用語集

言語モデリング

言語モデリングが、テキスト生成、機械翻訳、音声認識などのNLPやAIアプリケーションにどのような高度なテクニックをもたらすかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

言語モデリングは、自然言語処理(NLP)および人工知能(AI)の基本的なタスクであり、ある言語で一連の単語が出現する可能性を予測することに重点が置かれている。基本的には、人間の言語の統計的パターンと文法構造を理解するモデルを構築し、機械が人間のコミュニケーションに似たテキストを処理、理解、生成できるようにする。これらのモデルは、膨大なテキストデータから学習し、単語間の関係や典型的な使用パターンを把握する。

言語モデリングの仕組み

言語モデルの核心は、単語のシーケンスに確率を割り当てることである。初期のアプローチは、n-gramのような統計的手法に頼っていた。これは、先行する「n-1」個の単語に基づいて単語の確率を計算するものである。このようなモデルは単純ではあるが、テキスト中の長距離の依存関係を捉えるのに苦労する。現代の言語モデリングでは、ニューラル・ネットワーク(NN)、特にリカレント・ニューラル・ネットワーク(RNN)や、最近ではトランスフォーマーのようなアーキテクチャが多用されている。Attention Is All You Need」論文で紹介されたTransformersは、自己注意のようなメカニズムを使用して、距離の長さに関係なく、シーケンス内の異なる単語の重要性を評価する。これらのモデルの学習には、大規模なテキストコーパスを処理し、トークン化によってテキストを分解し、トークンの表現(埋め込み)を学習する必要がある。

関連性と応用

言語モデリングは、人間の言語を扱う多くのAIアプリケーションを支える基盤技術である。単語列を予測し理解するその能力は、様々なドメインにおいて非常に貴重なものとなっている。

実際の応用例としては、以下のようなものがある:

  • 予測入力とオートコンプリート:検索エンジン、電子メールクライアント、スマートフォンのキーボードで、次の単語を提案したり、文章を完成させたりします。
  • 機械翻訳:Google 翻訳のようなサービスが、ターゲット言語における最も可能性の高い単語の並びを予測することによって、異なる言語間でテキストを翻訳することを可能にする。
  • 音声認識:音響信号に基づいて単語の並びを予測し、話し言葉をテキストに変換する。
  • テキスト生成:創作ツール、要約、対話システム、OpenAIのChatGPTようなチャットボットの基礎を形成する。
  • センチメント分析:単語の選択と文脈を分析することにより、テキストの基本的な感情(肯定的、否定的、中立的)を理解するのに役立ちます。
  • 文法の訂正:文章中の文法上の誤りを特定し、修正を提案する。

関連概念

言語モデリングを理解するには、関連する用語に精通する必要がある:

  • 自然言語処理(NLP):言語モデリングは、名前付き固有表現認識(NER)、品詞タグ付け、質問応答などの様々なタスクを包含する、より広いNLPドメインのサブフィールドである。多くのNLPタスクが言語モデルを活用している。
  • 大規模言語モデル(LLM): GPT-4のような高度な言語モデルで、巨大なサイズ(数十億のパラメータ)と膨大なデータセット(ビッグデータ)での学習が特徴。LLMは、複雑なタスクを理解し、人間のようなテキストを生成する際、卓越した能力を発揮する。多くの訓練済みLLMは、以下のようなプラットフォームで利用可能です。 Hugging Face.
  • テキスト生成:密接に関連しているが、テキスト生成は言語モデリングの応用である。言語モデルは単語列の確率を提供し、生成プロセスはこれらの確率を使用して(多くの場合、サンプリング戦略を使用して)新しいテキストを生成する。
  • マルチモーダルモデル:これらのモデルは、言語理解と、コンピュータ・ビジョン(CV)における画像のような他のデータタイプを統合する。CLIPのようなモデルは、テキストと画像の共同表現を学習し、画像のキャプション付けや視覚的な質問応答などのタスクを可能にします。Ultralytics HUBでは、言語機能を統合する可能性のあるモデルを含む、さまざまなAIモデルを管理および展開するためのツールを提供しています。
すべて読む