Yolo 深圳
深セン
今すぐ参加
用語集

注意機構

注意メカニズムが人間の集中力を模倣することでAIに革命をもたらす仕組みを探る。クエリ、キー、バリューのUltralytics の精度を向上させる仕組みを学ぶ。

注意機構は、 人工知能(AI)における基盤技術であり、 であり、人間が特定の細部に集中しつつ無関係な情報を無視する認知能力を模倣する。 深層学習(DL)の文脈において 深層学習(DL)において、この機構は ニューラルネットワーク(NN)が 入力データの異なる部分に動的に異なる重要度、すなわち「重み」を割り当てることを可能にする。 画像や文章全体を均等な重視度で処理する代わりに、モデルは最も重要な特徴(文脈を理解するための文中の特定単語や、複雑な視覚シーン内の明確な物体など)に注目することを学習する。この画期的な進歩が トランスフォーマー アーキテクチャの原動力であり、 自然言語処理(NLP)から 自然言語処理(NLP) から高度な コンピュータビジョン(CV)に革命をもたらした。

Attentionの仕組み

もともと、 再帰型ニューラルネットワーク(RNN)のとして設計された注意機構は、 消失勾配問題 問題に対処します。このプロセスは、クエリ、キー、値という3つの要素を含む検索の比喩を用いて説明されることがよくあります。

  • クエリ (Q):モデルが現在探しているもの(例:文の主語)を表す。
  • キー (K):入力で利用可能な情報の識別子として機能します。
  • 値 (V):実際の情報内容を含む。

クエリを様々なキーと比較することで、モデルはアテンションスコアを算出する。このスコアによって、 どの程度のバリューが取得され、出力形成に利用されるかが決定される。これによりモデルは 長距離依存関係を効果的に処理し、データポイント間の距離に関係なくそれらの関係性を理解することが可能となります。 を効果的に処理し、データポイント間の距離に関係なくそれらの関係性を理解することを可能にします。

実際のアプリケーション

注意メカニズムは、現代技術における最も顕著な進歩のいくつかを可能にしてきた。

  • 機械翻訳システム Google 言語間の単語を一致させるために注意機構に依存しています。「The black cat」 (English)を「Le chat noir」(フランス語)に翻訳する際、モデルは形容詞と名詞の順序を入れ替える必要があります。 注意機構により、 デコーダーは「noir」を生成する際には「black」に、 「chat」を生成する際には「cat」に焦点を当てることが可能となり、 文法的な正確性が保証される。
  • 医療画像解析 医療分野では、アテンションマップがX線やMRIスキャンにおける疑わしい領域を強調表示することで放射線科医を支援する。例えば、 脳腫瘍データセットにおいて、モデルは処理能力を腫瘍組織に集中させつつ健康な脳組織を除去することで、 診断精度を向上させます。
  • 自動運転車 自動運転車は視覚的注意力を用いて重要な道路要素を優先的に認識する。混雑した道路では、システムは歩行者や信号機を高い優先度の信号として重点的に注視し、空や建物などの静的な背景要素には比較的注意を向けない。

注意 vs. 畳み込み

注意と 畳み込みニューラルネットワーク(CNN)。CNNが固定ウィンドウ(カーネル)を用いて局所的にデータを処理しdetect に対し、アテンションは データ全体をグローバルに処理し、入力の各部分を他のあらゆる部分と関連付ける。

  • 自己注意特定の種類の注意。モデルが単一のシーケンス内の文脈を理解するために、自分自身を観察する。
  • 効率性:純粋な注意モデルは計算コストが高い(二次複雑度)。現代的な最適化技術(例: フラッシュアテンションGPU を効果的に活用し、 トレーニングを高速化します。

最先端モデルである Ultralytics リアルタイム推論 に最適化されている一方、 ハイブリッドアーキテクチャである RT-DETR (リアルタイム検出トランスフォーマー)などのハイブリッドアーキテクチャを 明示的に注意機構(アテンション)を活用し高精度を実現。両モデルとも Ultralytics で容易に学習・デプロイが可能です。

コード例

Python 、推論を実行する方法を示しています。 RT-DETRモデルアーキテクチャ 注意メカニズムを根本的に依存する オブジェクト検出.

from ultralytics import RTDETR

# Load a pre-trained RT-DETR model which uses attention mechanisms
# This model captures global context effectively compared to pure CNNs
model = RTDETR("rtdetr-l.pt")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Print the number of detections found via transformer attention
print(f"Detected {len(results[0].boxes)} objects using attention-based detection.")

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加