エッジAIを探求し、Ultralytics ローカルハードウェアにデプロイして、エッジ環境におけるリアルタイム推論、低遅延、強化されたデータプライバシーを実現する方法を学びましょう。
エッジAIとは、人工知能(AI)アルゴリズムやモデルを、集中型のクラウドコンピューティングセンターに依存するのではなく、スマートフォン、IoTセンサー、ドローン、コネクテッドカーなどのローカルハードウェアデバイスに直接展開することを指します。この分散型アプローチにより、データは生成源で処理されるため、遠隔サーバーとの間で情報を送受信する際の遅延が大幅に削減されます。機械学習(ML)タスクをローカルで実行することで、デバイスは瞬時に判断を下し、インターネット接続がなくても確実に動作し、機密情報をデバイス自体に保持することでデータプライバシーを強化できる。
エッジAIの中核は、組み込みシステム上で推論エンジンを実行することにある。エッジデバイスはクラウドサーバーと比較してバッテリー寿命と演算能力が限られているため、AIモデルは極めて効率的である必要がある。開発者は精度を大きく損なうことなく大規模なニューラルネットワークを圧縮するため、モデル量子化や モデルプルーニングといった手法を頻繁に採用する。
これらのワークロードを効率的に処理するために、専用ハードウェアアクセラレータが頻繁に使用されます。例としては、 NVIDIA プラットフォーム および低電力Google EdgeTPU挙げられます。ソフトウェア フレームワークも重要な役割を果たします。 TensorRT や TFLite は、これらの制約環境向けにモデルを最適化し、高速なリアルタイム推論を保証します。
これらの用語はしばしば同じ意味で使われるが、区別することが有用である:
エッジAIは、重要なシナリオにおける自律的な意思決定を可能にすることで産業を変革しています:
エッジへのモデル展開では通常、高演算環境でモデルをトレーニングした後、エッジデバイスと互換性のある形式(例:ONNX)にエクスポートします。 ONNX やOpenVINOなど、エッジデバイスと互換性のある形式にエクスポートします。 Ultralytics はこのワークフローを簡素化し、ユーザーが様々なエッジターゲット向けにモデルをトレーニングし、自動的にエクスポートすることを可能にします。
以下の例は、効率性を特に重視して設計された軽量YOLO26モデルを、モバイルおよびエッジデプロイメントに適した形式にエクスポートする方法を示しています。
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
高度なエッジ展開では、 Dockerなどの コンテナ化技術を活用し、 アプリケーションをパッケージ化することで、 Raspberry Piユニットから産業用ゲートウェイまで、 異なるデバイスアーキテクチャ間で一貫した動作を保証します。