エッジAIがデバイス上でリアルタイム、セキュア、効率的なAI処理を可能にし、ヘルスケアや自律走行車などの産業を変革する方法をご覧ください。
エッジAIとは、スマートフォン、カメラ、センサー、組み込みシステムなど、エッジデバイスと呼ばれるローカル・ハードウェア・デバイス上で人工知能(AI)アルゴリズムを直接実行することを指す。エッジAIは、データを処理するためにリモートのクラウド・コンピューティング・サーバーにデータを送信する代わりに、データが生成されたソースに近い場所でデータ分析と意思決定を行うことを可能にする。このアプローチは、専用AIチップのようなハードウェアの進歩や効率的な機械学習(ML)モデルを活用し、インテリジェンスをネットワークのエッジにもたらします。これにより、デバイスは画像認識、自然言語処理(NLP)、異常検知などのタスクをローカルで実行できるようになる。
このプロセスには通常、AIモデルの学習が含まれ、多くの場合、強力なクラウドリソースやローカルサーバーが使用される。いったん学習されたモデルは、モデルの量子化やモデルの刈り込みなどの最適化技術を経て、そのサイズと計算要件が削減される。この最適化は、リソースに制約のあるエッジ・デバイスで効率的にモデルを実行するために極めて重要である。CPU/GPU)、メモリー、バッテリー寿命が限られていることが多い。最適化されたモデルは、TensorFlow Lite、PyTorch Mobile、ONNX Runtimeのようなフレームワーク、またはIntel OpenVINOような特殊なSDKを使用して、エッジデバイスにデプロイされる。そして、デバイスは、そのローカルセンサー(カメラやマイクなど)を使ってリアルタイム推論を実行し、データを処理し、常時インターネットに接続することなく、洞察やアクションを生成することができる。これらのデプロイメントの管理は、Ultralytics HUBのようなプラットフォームを使用して合理化することができます。
主な違いは、AIの計算がどこで行われるかにある。クラウドAIは集中管理されたサーバー上でデータを処理し、複雑なモデルや大規模な学習データに適した膨大な計算リソースを提供する。しかし、データ転送による遅延が発生し、信頼性の高いインターネット接続が必要となる。エッジAIは逆に、デバイス上でローカルにデータを処理する。これにより、遅延が最小限に抑えられ、機密情報がデバイスから離れる必要がないためデータのプライバシーが向上し、オフラインまたは低帯域幅環境での操作が可能になる。トレードオフとして、エッジ・デバイスのリソースには限りがあり、展開可能なモデルの複雑さが制限される。エッジAIとクラウドAIについてもっと読む。
エッジAIは、エッジコンピューティングという広い分野の中の特定のアプリケーションである。エッジ・コンピューティングとは、中央集中型のデータセンターから、ユーザーやデータソースに近いネットワークの「エッジ」へと計算タスクをシフトさせる一般的なパラダイムを指す。エッジAIは特に、このコンセプトをAIやMLのワークロードに適用し、エッジデバイス上で直接インテリジェントな処理を可能にする。エッジコンピューティングには様々な種類の処理が含まれますが、エッジAIはローカルでのAIモデルの展開と実行に重点を置いています。エッジ・コンピューティングの詳細については、こちらをご覧ください。
エッジAIは、特にコンピュータビジョン(CV)において、数多くの産業に変革をもたらしつつある。需要の増加はエッジAI市場規模の拡大に反映されている。
その利点にもかかわらず、エッジAIは、エッジデバイスの限られた計算リソース(計算能力への影響)、高度に最適化されたモデル(YOLOv9の効率性のような)の必要性、多数の分散デバイスにわたるモデルの展開と更新の管理(多くの場合、Dockerのようなツールを使用)、実世界のさまざまな条件下でのモデル性能の確保などの課題に直面している。Google EdgeTPUような特殊なハードウェアやSony IMX500のようなセンサーは、これらのハードウェアの制限のいくつかに対処するのに役立つ。フレームワーク NVIDIA TensorRTのようなフレームワークも最適化を支援する。
エッジAIは、AI機能の提供方法における大きな転換を意味し、インテリジェンスを集中型クラウドからローカル・デバイスへと移行させます。これにより、ネットワークのエッジで効果的に動作し、家電製品から重要な産業システムまであらゆるものに影響を与えることができる、新世代の応答性、プライベート性、信頼性の高いAIアプリケーションが実現します。