用語集

変圧器

TransformerのアーキテクチャがAIにどのような革命をもたらし、NLP、コンピュータビジョン、高度なMLタスクのブレークスルーをもたらすかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

トランスフォーマーは、人工知能(AI)や機械学習(ML)の分野、特に自然言語処理(NLP)や最近ではコンピュータビジョンの分野を大きく発展させた、極めて重要なニューラルネットワークアーキテクチャである。Attention Is All You Need(注意はすべて必要)」という影響力のある論文で紹介されたニューラルネットワークは、自己注意と呼ばれるメカニズムを用いて、テキストや時系列などの逐次データを処理し、モデルが異なる入力部分の重要性を動的に計量することを可能にする。このアプローチは、リカレント・ニューラル・ネットワーク(RNN)のような旧来のアーキテクチャの主要な制限を克服している。

トランスフォーマーの仕組み

Transformersの核となる革新的な点は、自己注意メカニズムである。RNN(リカレント・ニューラル・ネットワーク)は入力を逐次的に処理するため、勾配が消失するなどの問題により長いシーケンスに苦労することがあるが、Transformersは入力シーケンスのすべての部分を同時に考慮することができる。この並列処理能力は、GPUのような最新のハードウェアでの学習を大幅にスピードアップする。固定サイズのカーネルを通じて局所的な特徴に注目する典型的な畳み込みニューラルネットワーク(CNN)とは異なり、Transformersは、テキストであれ画像パッチであれ、入力全体にわたる長距離の依存関係や文脈的な関係を捉えることができる。

関連性とインパクト

トランスフォーマーは、文脈の把握や長いシーケンスの処理に有効であるため、多くの最先端AIモデルの基盤となっている。その並列化可能な性質は、GPT-3や GPT-4のような数十億のパラメータを持つ大規模モデルの学習を可能にし、生成AIにおけるブレークスルーをもたらした。このスケーラビリティと性能により、Transformerは様々なAIタスクの進歩の中心的存在となり、研究および産業界全体のイノベーションを推進している。人気のあるTransformerモデルの多くは、以下のようなプラットフォームから簡単に入手できます。 Hugging Faceなどのフレームワークを使用して実装されています。 PyTorchTensorFlow.

AIとMLの応用

トランスフォーマーは汎用性が高く、数多くのAIアプリケーションに電力を供給する:

トランスフォーマー対他のアーキテクチャー

RNNと比較して、Transformersは長距離依存性の取り扱いに優れ、並列化にも優れているため、大規模なデータセットやモデルに適している。畳み込みを使って局所的な空間階層を捉えることに長けている従来のCNNと比べると、Transformer(特にViT)は自己注意によってデータ内の大域的な関係をより効果的にモデル化することができる。しかし、RT-DETRようなモデルに見られるように、最初の特徴抽出にCNNを使い、文脈理解にTransformerを使うという、両者の長所を組み合わせたハイブリッド・アーキテクチャも多い。これらのアーキテクチャの選択は、特定のタスク、データ特性、利用可能な計算リソースに依存することが多く、多くの場合、Ultralytics HUBのようなプラットフォームで利用可能な事前訓練されたモデルからの転移学習のような技術を伴う。

すべて読む