ディープラーニングを加速し、ワークフローを最適化し、実世界のアプリケーションを可能にすることで、GPUがAIと機械学習にどのような革命をもたらすかをご覧ください。
グラフィックス・プロセッシング・ユニット(GPU)は、当初、ディスプレイ・デバイスへの出力を目的としたフレーム・バッファ内の画像作成を高速化するために、メモリを高速に操作・変更するように設計された特殊なタイプのプロセッサである。当初はゲームやデザインにおけるグラフィックス・レンダリングのために開発されたが、GPUは人工知能(AI)や機械学習(ML)の分野で不可欠なものとなった。その並列処理アーキテクチャは、複雑なディープラーニング・モデルの訓練や迅速な推論の実行に必要な計算集約的なタスクに非常に適している。
GPUの台頭は、ニューラルネットワークの学習を劇的に加速させることで、AIとMLに革命をもたらした。物体検出や 画像セグメンテーションなど、膨大な量の画像データを処理するタスクは、GPUの並列処理能力から大きな恩恵を受ける。例えば、Ultralytics YOLO モデルでは、GPUを活用することで、物体検出タスクのビデオおよび画像データの処理においてリアルタイムの精度を実現しています。この速度により、研究者や開発者はモデルをより迅速に反復し、より大きなデータセットで実験し、以前は計算制約のために実用的でなかった高度なAIアプリケーションを展開することができます。
中央演算処理装置(CPU)とGPUは、その設計と用途において根本的に異なります。CPUは汎用コンピューティングに最適化されており、さまざまなタスクを逐次処理することに優れています。対照的に、GPUは超並列計算用に設計されており、複数のデータポイントに対して同じ処理を同時に実行します。この並列アーキテクチャーが、ディープラーニングの核となる行列の乗算やその他の線形代数演算にGPUを非常に効果的なものにしている。
GPUは並列処理に優れているが、Tensor Processing Units(TPU)は、Google 、特に機械学習ワークロード用に開発された、別のクラスの特殊ハードウェアである。TPUはTensorFlow のために設計され最適化されており、特定のMLタスク、特に推論に対してさらに高い性能を提供します。のようなフレームワークによってサポートされています。 PyTorchやNVIDIA 「CUDA 」プラットフォームによってサポートされているため、GPUは依然として汎用性が高く、ほとんどのAI開発においてGPUが一般的な選択肢となっている。
GPUは、多くの産業に影響を与える幅広いAIアプリケーションを実現するために不可欠です:
Ultralytics はエコシステム全体でGPUのパワーを活用し、パフォーマンスと効率を最適化している。Ultralytics HUBプラットフォームは、ユーザーがクラウド上でモデルをトレーニングすることを可能にします。 Ultralytics YOLOモデルをクラウド上でトレーニングすることができ、GPU アクセラレーションを活用してトレーニング時間を大幅に短縮します。モデルの展開については、Ultralytics のようなフォーマットをサポートしています。 TensorRTこれは、NVIDIA GPU向けにモデルを最適化し、推論速度を向上させます。
エッジ・デプロイメントでは、強力なNVIDIA GPU を搭載したNVIDIA Jetson シリーズのようなデバイスが、リアルタイム・アプリケーションで Ultralytics YOLO モデルを実行するための理想的なプラットフォームとなる。GPU-accelerated AIを始めるには、Ultralytics クイックスタートガイドに、CUDA と必要な環境のセットアップ手順が記載されています。トレーニングを拡張したい上級ユーザーには、複数のGPUにまたがる分散トレーニングがサポートされており、より大規模で複雑なモデルのトレーニングプロセスをさらに加速します。