用語集

セルフ・アテンションズ

Ultralytics 、自己注意とそのAIへの影響を探る。このメカニズムがトランスフォーマーのようなモデルにどのような力を与え、言語や視覚などをどのように向上させるかを学ぶ。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

自己注意は、現代の機械学習、特にトランスフォーマーとして知られるニューラルネットワークのアーキテクチャにおいて、極めて重要な概念である。このメカニズムにより、言語翻訳や画像処理などのタスクを実行する際に、モデルがシーケンス内の異なる要素の重要性を計量することができる。入力データの各部分と他の部分との相対的な関係を考慮することで、自己アテンションは、モデルが最も関連性の高い特徴と依存関係に焦点を当てることを可能にする。

セルフ・アテンションの仕組み

自己アテンションは、アテンション・スコアを計算することによって入力データを処理する。逐次的にデータを処理する従来の方法とは異なり、自己アテンションは並列にデータを処理できるため、非常に効率的でスケーラブルである。

Transformerモデルは、データ内の複雑な依存関係を処理するためのコアコンポーネントとして自己注意を導入した。これは、人間の言語を解釈し生成するために自己注意層に大きく依存するBERTや GPTのような大規模な言語モデルの開発に大きな影響を与えた。

注意メカニズムとの違い

従来の注意メカニズムに関連しているが、自己注意は特に、外部ソースと比較するのではなく、それ自身とシーケンスを比較することを指す。これにより、翻訳や要約などのタスクに不可欠な、同一データセット内での内部一貫性と文脈処理が可能になる。

AI/MLへの応用

自己アテンションは、さまざまな分野で多方面に応用できる:

  • 自然言語処理(NLP):自己注意は、機械翻訳のようなタスクのNLPモデルにおいて非常に重要であり、システムが文中の文脈や単語の関連性を認識できるようにする。
  • 画像処理:コンピュータ・ビジョンでは、モデルが画像の特定の部分に集中するのを助ける自己注意メカニズムが、画像のセグメンテーションなどのタスクを向上させる。

  • 時系列分析:時間の経過に伴う精緻な依存関係を特定することで、自己注意力は複雑な連続データの解釈を助け、時系列予測などのアプリケーションを強化する。

実例

Google 翻訳する

Google Translateは、より正確な翻訳を提供するために、ニューラルネットワークに自己注意メカニズムを採用しています。与えられた文脈の中で各単語の関連性を評価することで、特に文法が複雑な言語に対して優れた翻訳パフォーマンスを実現します。

画像補正

自己アテンションは、画像強調技術でますます使用されるようになっている。これは YOLOのようなモデルは、異なる領域に焦点を当てることで画像内のオブジェクトを検出し、細部を強調し、正確な表現を保証します。

関連概念:

自己の注意は、それと密接に関連している:

  • 変圧器モデル:これらのモデルは、逐次データを効率的かつ高度に理解するために自己注意を利用する。
  • 言語モデル GPT-3や GPT-4のような大規模な言語モデルは、驚くべき精度で言語タスクを管理する自己注意の基礎の上に構築されている。

パターンと依存関係を認識する方法を変えることで、自己注意は、NLPとコンピュータビジョンの領域を浄化しただけでなく、人工知能の他の多くの分野での進歩も促した。Ultralytics HUBはまた、自己注意をベースとしたモデルを活用し、ユーザーが洗練されたAIソリューションをシームレスに構築・展開できるようにします。自己アテンションと関連技術に関するより多くの洞察については、Ultralytics'ブログを訪問し、AIとコンピュータビジョンのリソースを探索してください。

すべて読む