用語集

ドッカー

DockerでAI/MLワークフローを簡素化!モデルをデプロイし、再現性を確保し、環境間で効率的にスケールする方法を学びましょう。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

DockerはDocker社が提供する強力なプラットフォームで、コンテナを使ってアプリケーションの開発、出荷、実行を簡素化する。コンテナは、ライブラリ、システムツール、コード、ランタイム環境など、アプリケーションに必要なすべてのコンポーネントをパッケージ化します。このパッケージ化により、アプリケーションは異なるコンピューティング環境でも一貫して実行され、開発、テスト、本番セットアップ間の不一致を最小限に抑えることができる。機械学習(ML)や人工知能(AI)に携わる専門家にとって、Dockerは複雑なソフトウェアの依存関係を管理し、モデルを確実かつ効率的にデプロイするための合理的なアプローチを提供します。Dockerは、従来の仮想マシンよりも軽量なコンテナ化技術によって、この分離と移植性を実現しています。

Dockerのコアコンセプト

Dockerを理解するには、いくつかの基本的な構成要素を把握する必要がある:

  • ドッカーファイル:Dockerイメージをビルドするための指示を含むテキストファイル。ベースとなるOS、依存関係、コード、アプリケーション環境のセットアップに必要なコマンドを指定する。
  • ドッカーイメージ:Dockerfileから作成された読み取り専用のテンプレート。アプリケーションの実行に必要なアプリケーションコード、ライブラリ、依存関係、ツール、その他のファイルが含まれている。イメージはコンテナの作成に使用される。
  • ドッカーコンテナ:Dockerイメージの実行可能なインスタンス。コンテナはアプリケーションを実行する隔離された環境です。コンテナはホストシステムのカーネルを共有しますが、独立したユーザー空間で実行されるため、一貫性と分離が保証されます。
  • ドッカー・ハブ:Docker社が提供する、コンテナイメージを検索・共有するためのクラウドベースのレジストリサービス。以下のような人気のあるソフトウェアの公式イメージを含む、何千ものパブリックイメージをホストしています。 Python, PyTorchTensorFlow.

これらのDockerオブジェクトや概念については、公式ドキュメントでさらに詳しく調べることができる。

AIと機械学習における関連性

AIやMLのプロジェクトは、多くの依存関係(PyTorch OpenCVなど)や特定のライブラリのバージョンを持つ複雑な環境を伴うことが多い。これらの依存関係を管理し、異なる段階(開発、テスト、デプロイメント)で一貫した環境を確保することは、大きな課題となり得ます。Dockerはこれらの問題に効果的に対処します:

  • 再現性:Dockerは、Dockerfileで定義された環境がコンテナがどこで実行されても同一であることを保証し、再現可能な研究と信頼できるモデルの動作を促進します。
  • 依存関係の管理:コンテナ内でプロジェクトの依存関係を分離し、異なるプロジェクト間やホスト・システムのライブラリとの競合を防ぎます。
  • コラボレーションの簡素化:チームでDockerイメージを共有することで、ローカルマシンの設定に関係なく、全員が同じ環境で作業できるようになります。これはMLOpsの原則によく合致しています。
  • 効率的なデプロイメント:Dockerコンテナは、モデル、依存関係、およびサービングコードを単一のポータブルなユニットにパッケージ化することで、モデルのデプロイを簡素化します。これにより、クラウドプラットフォームや エッジデバイスを含む様々なターゲットへのデプロイが容易になります。
  • スケーラビリティ:コンテナは軽量で素早く起動するため、需要に応じてAIアプリケーションをスケーリングするのに適しており、多くの場合オーケストレーション・ツールで管理される。これは、計算スケーラビリティのニーズをサポートする。

AI/MLの実世界での応用

Dockerの有用性は、さまざまなAI/MLシナリオで明らかになっている:

  1. 物体検出モデルの展開:チームは Ultralytics YOLOを使った物体検出モデルを開発した。彼らはDockerを使用して、学習済みのYOLO11 モデル、推論スクリプト、必要なライブラリ(OpenCVなど)をパッケージ化します。このコンテナ化されたアプリケーションは、フィールドに設置された様々なエッジデバイスに一貫してデプロイすることができ、ハードウェアの違いにもかかわらず信頼性の高いパフォーマンスを保証します。Ultralytics 、このプロセスを容易にするためのDockerクイックスタートガイドを提供しています。
  2. スケーラブルな医療画像解析:あるヘルスケア・スタートアップが、医療画像解析用のAIツールを構築した。ディープラーニングモデルとそのAPIはDockerコンテナにパッケージされている。これにより、アプリケーションはマイクロサービス・アーキテクチャの一部としてデプロイされ、複数のコンテナ・インスタンスは分析リクエストの数に基づいて自動的にスケールアップまたはスケールダウンされ、効率的なリソースの使用と応答性を確保することができる。

類似用語との比較

Dockerはコンテナ化の中心的存在だが、他のテクノロジーと一緒に使われることも多い:

  • コンテナ化:ソフトウェアをコンテナにパッケージ化する一般的な概念。Dockerはコンテナ化のための最も一般的なプラットフォームであり、コンテナを構築、出荷、実行するためのツールを提供する。
  • Kubernetes:Dockerが単一のホスト上で個々のコンテナを管理するのに対し、Kubernetesはコンテナ・オーケストレーション・プラットフォームだ。Kubernetesは、マシンのクラスタにまたがるコンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化する。Dockerは出荷コンテナを作成し、Kubernetesは出荷コンテナとポートを管理するシステムだと考えてほしい。詳細はKubernetesの公式ウェブサイトを参照されたい。
  • 仮想マシン(VM):VMはゲストOSを含むハードウェアシステム全体をエミュレートすることで分離を実現する。Dockerによって管理されるコンテナはOSを仮想化し、ホスト・カーネルを共有します。これによりコンテナはVMよりもはるかに軽量、高速でリソース効率に優れていますが、VMの方がより強力な分離を提供します。

Dockerを活用することで、AIとコンピュータビジョン(CV)の実務家は、ワークフローの効率、コラボレーション、デプロイされたモデルの信頼性を大幅に改善することができます。Dockerの目的の一般的な概要については、OpenSource.comのDocker解説のようなリソースがわかりやすい紹介を提供しています。Ultralytics HUBのようなツールは、しばしばコンテナ技術と統合し、トレーニングから デプロイまで、エンドツーエンドのMLライフサイクルを効率化します。

すべて読む