X
Ultralytics YOLOv8.2 リリースUltralytics YOLOv8.2 リリースUltralytics YOLOv8.2 リリース・アロー
グリーンチェック
クリップボードにコピーされたリンク

AIイノベーションにおける計算能力の影響を理解する

AI技術の進歩に伴い、新たなAIコンピューティング・パワーの必要性が高まっています。コンピューティング・パワーがどのようにAIの進歩を後押ししているかをご覧ください。

人工知能(AI)とコンピューティング・パワーは非常に密接な関係にある。コンピューティング・パワーは、コンピュータ・システムの処理とタスク実行を助けるため、AIアプリケーションには不可欠です。このようなアプリケーションでは、複雑なアルゴリズムや大規模なデータセットを管理するために膨大な計算リソースが必要であり、そこでGPUが登場する。GPU(グラフィックス・プロセッシング・ユニット)は、もともと画像やビデオ処理を高速化するために設計されたものですが、AIが必要とする集中的なデータ処理やディープラーニングのタスクを管理するために不可欠なものとなっています。

ここ数年、AIの進歩は指数関数的に伸びている。当然ながら、AIのハードウェアの進歩もこの成長に対応し、遅れをとらないようにする必要がある。ある調査によると、GPUの性能は2003年以来、およそ7,000倍に向上している。 

より強く、より速く、より効率的なハードウェアによって、研究者やエンジニアはますます複雑なAIモデルを開発することができる。人工知能の需要の高まりに対応するため、AI向けコンピューティング・インフラがどのように進化しているかを理解しよう。

AIハードウェア:広がる会話

AI開発におけるGPUの役割は否定できない。これらの強力なプロセッサーは、AIモデルの訓練と展開に必要な複雑な計算を高速化する。基本的には、現代のAI技術のバックボーンとして機能している。しかし、注目を集めているのはGPUだけではない。 

AIと競合する、AIのためだけに作られたチップが出始めている。これらのチップは、AIがより良く、より速く仕事をするのを助けるためにゼロから作られている。AIコンピューティングの未来を改善するために、多くの研究と作業が行われている。多くの企業がAIの演算能力に投資していることも、AIハードウェアの世界市場が2023年に537億1000万ドルと評価され、2033年までに約4735億3000万ドルに成長すると予想される理由のひとつだ。

なぜ最近、AIハードウェアの進歩が話題になっているのか? AIに特化したハードウェアへのシフトは、さまざまな分野でAIアプリケーションの需要が高まっていることを反映しています。AIソリューションの開発を成功させるためには、ハードウェアに起こっている変化を認識することで、ゲームの先を行くことが重要です。

AIハードウェアの主要プレーヤー

大手ハードウェアメーカーは、次世代ハードウェアの開発にしのぎを削り、社内開発、戦略的提携、買収を通じて性能と効率を向上させている。

図1.AIハードウェアのリーダーたち。

アップルは外部GPUの使用から、AIアクセラレーション用のニューラル・エンジンを搭載した独自のMシリーズ・チップの開発に移行し、厳格に管理されたエコシステムを強化している。一方グーグルは、Tensor Processing Unit (TPU)のインフラに多額の投資を続けている。TPUは、GPUよりも高速に動作し、より少ないエネルギーで動作するように構築されたAIチップであり、大規模なAIソリューションのトレーニングや展開に最適である。

 同様に、AMDはデータセンターと高性能コンピューティング・アプリケーションをターゲットとしたRadeon InstinctシリーズのアクセラレータでAIハードウェア分野に参入した。また、NvidiaはA100やH100Tensor Core GPUなど、AIワークロードに最適化されたGPUの開発に引き続き注力している。最近のアーム・ホールディングスの買収は、多くのモバイル機器を駆動するチップ・アーキテクチャの支配力を高めることを目的としている。

こうした老舗企業以外にも、多くの新興企業や研究機関が斬新なAIチップ・アーキテクチャに乗り出している。例えば、グラフコアはインテリジェンス・プロセッシング・ユニット(IPU)でスパース計算に特化している。セレブラス・システムズは、極限スケールのAIワークロード向けに調整された巨大チップ「ウェーハスケール・エンジン」を提供している。

最新のAIハードウェアの進歩

最新のAIハードウェアを見てみよう。

2024年4月9日、インテルは最新のAIチップ「Gaudi 3」を発表し、NvidiaのH100 GPUよりも優れた性能を誇った:

  • 電力効率は2倍以上、AIモデル処理は1.5倍高速化。
  • マザーボードへのバンドルやスタンドアロン・カードなど、柔軟な構成で利用可能。
  • MetaのLlamaやAbu DhabiのFalconのような多様なAIモデルでテストに成功し、音声認識のためのStable DiffusionやOpenAIのWhisperを含む様々なAIモデルのトレーニングやデプロイに有効であることが証明された。
図2.インテルのガウディ3。

ガウディ3に先立つ2024年3月18日、エヌビディアは最新のAIプラットフォーム「ブラックウェル」を発表した。このプラットフォームは、様々な分野でのブレークスルーを後押しするよう設計されており、以下のような特徴がある:

  • NvidiaはBlackwellを "世界で最もパワフルなチップ "だと主張している。 
  • 2,080億トランジスタのデュアルダイGPUと10TB/秒のチップ間インターコネクトを誇り、データセンター規模のジェネレーティブAIにおける消費電力と効率の新たな基準を打ち立てる。
  • グーグル・クラウド、アマゾン・ウェブ・サービス、マイクロソフト・アジュールといった大手クラウド・サービス・プロバイダーは、生成AI、ディープラーニング、クラウド・コンピューティング・サービスの進歩を推進するためにブラックウェルを利用する計画を発表している。
図3.NvidiaのBlackwell。

カスタムAIチップの台頭

一方、いくつかのハイテク大手は、自社のサービスを動かすために独自のカスタムAIチップを開発している。 

2024年4月10日、メタ社はMeta Training and Inference Accelerator(MTIA)の最新バージョンを発表した。この第2世代チップは、すでにメタ社のデータセンターで稼働しており、コンピュートとメモリ帯域幅の面でより優れた性能を発揮している。これらのアップグレードは、フェイスブックやインスタグラムのようなプラットフォーム上で、ランキングや推薦エンジンといったメタ社のAIアプリケーションのパフォーマンスをサポートする。

図4.メタの最新版MTIA。

同様に、グーグル、アマゾン、マイクロソフトなどの大手企業も今年、カスタム・シリコン・チップを発表した。これは、コスト構造を最適化し、Nvidiaのようなサードパーティサプライヤーへの依存を減らすための戦略的な動きだ。

AIハードウェアはどこで使われているのか? 

AIハードウェアは、さまざまな業界でさまざまなAIソリューションを支えている。ヘルスケア分野では、MRIやCTスキャンなどの医療用画像処理システムを支え、複雑なタスクを処理し、迅速かつ正確な診断のために大量のデータを効率的に処理している。

金融機関は、不正検知や投資最適化のためのデータ分析にAIアルゴリズムを使用している。金融データ分析の複雑な性質には、膨大な計算負荷を効率的に処理する高度なハードウェア機能が必要です。

自動車業界では、自律走行車におけるリアルタイムのセンサーデータの処理に役立っている。物体検出や衝突回避などのタスクは、迅速な意思決定と乗客の安全のために、強力な処理能力を備えた高度なハードウェアに支えられている必要がある。

図5.自律走行車の頭脳。

小売企業は 、AIを活用したレコメンデーション・エンジンを使って、部門横断的に膨大な顧客データを分析し、嗜好を予測して関連商品を提案することで、ショッピング体験をパーソナライズし、売上を伸ばしている。多様なデータセットを分析し、パーソナライズされたレコメンデーションを生成する必要性から、リアルタイムの応答とユーザー・エンゲージメントの強化を実現する高度なハードウェアが求められている。

小売店に関連するもう一つの例は、コンピュータ・ビジョンを使って顧客の行動を監視・分析することだ。小売業者は、顧客がどのように環境と相互作用しているかを理解し、人気商品を特定し、足の通行パターンを検出することができる。これらの知見に基づいて、店舗レイアウトや商品配置を最適化し、売上を向上させることができる。大容量のビデオデータをリアルタイムで処理するためには、コンピューティング・パワーが重要である。動きやインタラクションの正確なトラッキングは、堅牢なハードウェアに依存する。それがなければ、データ処理の速度と正確性が損なわれ、顧客行動分析の効果が低下する。

これは氷山の一角だ。製造業から農業まで、AIハードウェアは至るところで目にすることができる。

コンピュートパワーでAIを拡張する

AIハードウェアは多くの場合、大きなタスクを処理するために構築されている。世界中の産業におけるAIの導入規模を把握するのは難しいかもしれないが、スケーラブルなAIが適切なハードウェアを備えているかどうかにかかっていることは明らかだ。

たとえば、BMWとエヌビディアのコラボレーションを見てみよう。BMWは年間250万台の自動車を生産しており、その事業規模は計り知れない。BMWは、品質管理や予知保全から物流やサプライチェーン管理まで、製造プロセスのさまざまな側面を最適化するためにAIを活用している。

このような需要に応えるため、BMWはNVIDIAのQuadro RTX 8000やRTX搭載サーバーのような先進的なAIハードウェアソリューションに依存しています。これらのテクノロジーは、AIの導入をより簡単でスケーラブルなものにします。

AIソリューションのさまざまな部分に影響するコンピューティング・パワー

AIアプリケーションに計算能力を提供するだけでなく、選択するAIハードウェアは、モデルのパフォーマンス、モデル変換の必要性、展開の柔軟性、および全体的な精度の点でソリューションに影響を与えます。AIモデルの学習とテストが完了すると、多くの場合、選択した展開プラットフォームで実行できる形式に変換されます。 

しかし、モデルの変換は精度の低下につながる可能性があり、事前に検討する必要がある。ONNX (Open Neural Network Exchange)のような統合ツールは、多様なハードウェアプラットフォームにAIモデルを展開するための標準化されたフォーマットを提供することができる。これはまた、YOLOv8 のような人気のあるモデルが、複数の展開オプションに対応するために、ユーザーがカスタムトレーニングしたモデルを多くの異なるフォーマットでエクスポートするオプションを提供する背景にもある。

エネルギー効率はAIコンピューティングの未来に不可欠

高度なAI計算能力の影響はAIにとどまらず、エネルギー分野にも及んでいる。 

図6.持続可能なAIハードウェアへ

例えば、先進的な大規模言語モデル(LLM)であるメタのLLaMA-3は、それぞれ24,576個のNvidia H100 GPUを搭載した2つの特注データセンター・クラスターを使って学習された。この堅牢なハードウェア・セットアップにより、メタは処理速度を向上させ、エネルギー消費を40%大幅に削減することができた。つまり、AIハードウェアの進歩は、よりエネルギー効率の高いオペレーションにも貢献しているのだ。

さらに、AIとエネルギーの関係は、Sam アルトマンのような人々が関わることで、より注目を集めている。OpenAIのCEOとして知られるアルトマンは最近、原子力エネルギー企業Okloを一般公開した。革新的な核分裂技術を持つOkloは、エネルギー生産を変革することを目指しており、AIの運用に不可欠なデータセンターに電力を供給する可能性がある。ここ数年、マイクロソフトの共同創業者ビル・ゲイツとアマゾンの創業者ジェフ・ベゾスも原子力発電所に投資している。

サーキットを越えて

今後、AIハードウェアの未来は、特に量子コンピューティングの台頭によって大きな飛躍を遂げようとしている。専門家の予測によると、2030年までに量子コンピューティングの市場規模は650億ドル近くになるという。AIモデルが複雑化するにつれ、その可能性を最大限に引き出すためには、特化したハードウェアが不可欠となる。AI専用チップから量子コンピューティングの探求まで、ハードウェアの革新は、より複雑でインパクトのあるAIソリューションの開発を後押しする。

私たちのGitHubリポジトリを自由にチェックし、AIについてもっと学ぶために私たちのコミュニティに参加してください。F1レースや ロボット工学など、さまざまな分野でAIがどのように応用されているか、最新のブログ記事をご覧ください。

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう