画像分類の基礎を、CNNから実世界のAI応用まで探求します。Ultralytics YOLO26を用いて最先端分類器のトレーニングとデプロイを学びましょう。
画像分類はコンピュータビジョン(CV)における基礎的な課題であり、機械学習モデルが画像全体を分析し、事前に定義されたカテゴリセットから単一のラベルを割り当てる。本質的には「この写真の主な主題は何か?」という問いに答えるものである。人工知能(AI)の中核をなすこのプロセスにより、自動化システムは大規模な視覚データの整理・分類・解釈が可能となる。人間の目には単純に見えるかもしれないが、コンピュータにパターン認識を可能にするには、生のピクセルと意味のある概念の間の隔たりを埋める高度な機械学習(ML)アルゴリズムが必要である。
現代の画像分類は、 畳み込みニューラルネットワーク(CNN)として知られる 深層学習(DL)アーキテクチャに大きく依存している。 これらのネットワークは、生物の視覚野が情報を処理する方法を模倣するように設計されている。 特徴抽出と呼ばれるプロセスを通じて、 モデルは初期層でエッジやテクスチャといった低次元の属性を識別することを学習し、 最終的にそれらを組み合わせて深層層で複雑な形状や物体を認識するようになる。
分類器を構築するため、開発者は 教師あり学習を用い、ラベル付き例を含む膨大な 量の訓練データをモデルに供給する。 大規模な公開データセット(例: ImageNet は、これらのシステムの精度向上に大きく貢献してきた。推論フェーズでは、モデルは各カテゴリに対する確率スコアを出力し、多くの場合 ソフトマックス関数を利用して最も可能性の高いクラスを判定する。
画像分類は関連するコンピュータビジョン技術と区別することが重要である。なぜなら、 技術選択は特定の問題に依存するためである:
画像分類技術は、多様な産業分野における 数多くの実世界のAIアプリケーションを 支えています:
医療分野では、分類モデルが診断用スキャンを分析することで放射線科医を支援する。 医療画像解析ツールは、X線やMRIを「正常」または「異常」と迅速に分類したり、 腫瘍検出などの特定の病状を特定したりできるため、 患者のトリアージと診断を迅速化できる。
工場では製品基準を維持するため 自動視覚検査を活用している。 組立ラインのカメラが部品の画像を撮影し、 分類モデルが視覚的な欠陥に基づき 即座に「合格」または「不合格」と判定する。 この自動化された品質管理により、 欠陥のない製品のみが包装工程に進む。
農家は農業分野でAIを活用し、作物の健康状態を監視している。ドローンやスマートフォンで撮影した画像を分類することで、システムは病気の兆候、栄養不足、害虫の被害を特定でき、対象を絞った精密農業対策が可能となる。
Ultralytics フレームワークは、物体検出で有名ですが、 画像分類タスクにおいても最先端の性能を発揮します。 そのアーキテクチャは速度と精度に最適化されており、 リアルタイムアプリケーションに適しています。
以下に、事前学習済みモデルを読み込み、classify を行う簡潔な例を示します。
ultralytics Python パッケージ:
from ultralytics import YOLO
# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")
# Run inference on an image source
results = model("https://ultralytics.com/images/bus.jpg")
# Print the top predicted class name
print(f"Prediction: {results[0].names[results[0].probs.top1]}")
ワークフローの効率化を目指すチーム向けに、 Ultralytics パイプライン全体を簡素化します。これによりユーザーは 分類データセットの管理、クラウドベースの トレーニング実行、およびモデルを ONNX や TensorRT といった多様な形式へのモデルデプロイを、複雑なコーディングインフラなしで実現します。