用語集

GPU (グラフィックス・プロセッシング・ユニット)

ディープラーニングを加速し、ワークフローを最適化し、実世界のアプリケーションを可能にすることで、GPUがAIと機械学習にどのような革命をもたらすかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

グラフィック・プロセッシング・ユニットGPU)は、画像、ビデオ、アニメーションの作成とレンダリングを高速化するために設計された特殊な電子回路である。GPUはゲームやグラフィックデザイン業界で生まれたが、そのユニークなアーキテクチャにより、現代の人工知能(AI)や機械学習(ML)において不可欠なツールとなっている。GPUは何千もの処理コアを持ち、並列に動作するため、同時に大量の計算を処理することができる。この能力は、ディープラーニング・アルゴリズムに見られる計算負荷の高いタスクに非常に適しており、より高速なモデル学習と効率的なリアルタイム推論を可能にします。 GPU進化を理解することで、AIにおける GPU現在の役割を理解することができます。

AIと機械学習における重要性

GPUの並列処理能力は、AIにおける最近のブレークスルーの主なきっかけとなっている。ディープ・ニューラル・ネットワークのトレーニングには、膨大なデータセットを処理し、行列の乗算など数え切れないほどの複雑な数学演算を実行する必要がある。GPUはこれらの演算を得意とし、従来の中央演算処理装置(CPU)に比べてモデルの学習に必要な時間を大幅に短縮します。この高速化により、AI開発分野の研究者や開発者は、より迅速な反復、より大規模で複雑なモデルの実験、物体検出や 画像セグメンテーションのようなタスクでより高い精度を達成することができます。

実際のAI/MLアプリケーションにおけるGPUの例を2つ紹介しよう:

  1. リアルタイムの物体検出:スピードと効率性で知られるUltralytics YOLO モデルは、自律走行、セキュリティ監視(セキュリティシステムの強化)、ロボット工学などの用途で、リアルタイムで物体検出を行うためにGPUに大きく依存しています。GPUの並列性により、これらのモデルはビデオフレームを迅速に処理し、同時に複数の物体を正確に識別することができます。GPU アクセラレーションが可能にする多様なYOLO11 アプリケーションをご覧ください。
  2. 大規模モデルのトレーニング:大規模な言語モデル(LLM)や複雑なコンピュータビジョンモデルのトレーニングには、多くの場合、クラウドコンピューティングプラットフォームからアクセスできる大きな計算能力が必要です。Ultralytics HUB Cloud Trainingのようなサービスは、AWSGoogle CloudAzureのようなプロバイダーの強力なGPU クラスターを活用し、自然言語処理(NLP)から高度な医療画像解析に至るまで、膨大なデータセットでモデルをトレーニングします。

CPUやTPUとの主な違い

GPU、CPUTensor プロセッシング・ユニット(Tensor )はすべてプロセッサーの一種であるが、それぞれ異なる強みを持ち、異なるタスクに最適化されている:

  • CPU (中央演算処理装置):汎用コンピューティング用に設計され、シーケンシャルなタスクやシステム操作の管理に優れている。CPUには、低レイテンシに最適化された強力なコアがいくつかあります。CPU GPU 概要をご覧ください。
  • GPU (グラフィックス・プロセッシング・ユニット):数千の単純なコアで並列処理に最適化されている。グラフィックスのレンダリングやディープラーニングモデルの学習など、分解して同時に処理できるタスクに最適。性能の測定には、FLOPSのような指標が用いられることが多い。
  • Tensor Processing Unit): Googleカスタム設計した特定用途向け集積回路(ASIC)。 TensorFlowフレームワークを使用して機械学習ワークロードを高速化するために特別に設計されたASIC(Application Specific Integrated Circuit)。ニューラルネットワークで一般的な大規模行列演算に高度に最適化されている。詳しくはGoogle TPU 詳細をご覧ください。

GPUは、並列処理タスクにおける高い性能と、さまざまなアプリケーションにおける汎用性とのバランスを取ることで、多くのAIやハイパフォーマンス・コンピューティング(HPC)のワークロードによく使われる選択肢となっている。

エコシステムと利用

AIにおけるGPUの広範な採用は、強固なソフトウェア・エコシステムに支えられている。大手メーカー NVIDIAAMDといった大手メーカーが、AIタスクに適したGPUを提供している。NVIDIACUDA(Compute Unified Device Architecture)プラットフォームは、NVIDIA GPU用の並列コンピューティング・プラットフォームおよびプログラミング・モデルとして広く使われている。ディープラーニングフレームワーク PyTorchやTensorFlow ディープラーニングフレームワークは、GPU アクセラレーションを活用するように最適化されています。GPU開発のための環境構築は、Dockerのようなコンテナ化ツールを使用して効率化できます。セットアップ手順については、Ultralytics Docker Quickstartガイドを参照してください。効率的なモデル展開には、ターゲットGPU ハードウェア上で効率的に実行できるようにモデルを最適化することがよく含まれます。GPU パワーを活用する様々なUltralytics ソリューションをご覧ください。

すべて読む