ディープラーニングを加速し、ワークフローを最適化し、実世界のアプリケーションを可能にすることで、GPUがAIと機械学習にどのような革命をもたらすかをご覧ください。
グラフィック・プロセッシング・ユニットGPU)は、ディスプレイ・デバイスへの出力を目的とした画像の作成を高速化するために、メモリを高速に操作・変更するように設計された特殊な電子回路である。もともとはビデオゲームやプロのデザイン・アプリケーションでグラフィックスをレンダリングするために開発されたGPUは、人工知能(AI)や機械学習(ML)の分野でも基本的なコンポーネントとなっている。何千ものプロセッシング・コアを備えたそのアーキテクチャは、同時に多くの計算を実行することを可能にし、ディープ・ラーニング・アルゴリズムで必要とされる複雑な数学的演算を極めて効率的に行い、迅速なリアルタイム推論を可能にします。 GPU進化を理解するために、その歴史を探ることができます。
GPUの並列処理能力は、近年のAIの進歩を支える重要な原動力となっている。ディープ・ニューラル・ネットワークのトレーニングには、膨大な量のデータと、行列の乗算のような計算集約的な演算が必要です。GPUはこれらのタスクを得意とし、従来の中央演算処理装置(CPU)に比べて複雑なモデルの学習に必要な時間を大幅に短縮します。この高速化により、研究者や開発者は、より高速な反復、より大きなデータセットでの実験、より高い精度と速度で物体検出や 画像セグメンテーションなどの問題に取り組むことができます。例えば、Ultralytics YOLO モデルは、リアルタイムビジョンタスクで高いパフォーマンスを達成するためにGPUに大きく依存しています。クラウド・コンピューティング・プラットフォームや専用ハードウェアを介した強力なGPUへのアクセスは、現代のAI開発にとって極めて重要です。
GPU、CPU、Tensor プロセッシング・ユニット(Tensor )は、システム内で連携して動作することが多いが、それぞれ異なるアーキテクチャと最適なユースケースを持っている:
GPUは、並列タスクのための高い性能と幅広い応用性のバランスを提供し、NVIDIACUDAや PyTorch.GPU 環境のセットアップは、Dockerのようなツールを使って簡素化できます。詳細はDockerクイックスタート・ガイドをご覧ください。
GPUは多くの最先端AIアプリケーションに不可欠である:
GPUは、NVIDIA Jetsonプラットフォームを使用しているようなエッジデバイス上に展開されたモデルのトレーニングにも不可欠です。これらのモデルのトレーニングは、強力なGPU上で行われることが多く、合理化されたワークフローのためにUltralytics HUBのようなプラットフォームを使用することもあります。