Ultralytics YOLOv8 を使ってカスタムオブジェクト検出を探求しましょう!ウェブカメラでライブ推論をトレーニング、エクスポート、実行する方法を学びます!
を使ったカスタム・オブジェクト検出を詳しく見ていきましょう。 Ultralytics YOLOv8.このブログポストでは、カスタムモデルをトレーニングし、トレーニングされた重みをエクスポートし、ウェブカメラ上でライブ推論を実行する複雑なプロセスを探ります。
前回のビデオでは、Google Colabのカスタム・カップ・データセットでYOLOv8 モデルの トレーニング領域を掘り下げてみた。トレーニングのグラフは着実に改善され、損失は減少し、平均エラー位置は増加しているのがわかりました。これに基づいて、私たちの特別なモデルは5つの異なるタイプのカップを非常に正確に識別できるようになりました。
カスタム・モデルのトレーニングが完了し、準備が整ったので、次のフロンティアを探検する時が来た。
モデル推論とは、学習されたコンピュータビジョンモデルを使用して、新しい未知のデータに基づいて予測や決定を行うプロセスである。モデルが画像などの入力データを使用し、学習したパラメータと構造を通して処理することである。その後、モデルは学習課題に基づいて、分類、検出、セグメンテーションなどの出力を生成する。
実際的には、学習したモデルを実稼働環境に導入し、リアルタイムまたはバッチ処理のシナリオで実世界のデータ処理に使用することが多い。
Colabからダウンロードした学習済みモデルの重みを、Python 環境にシームレスにインポートし、カスタムモデルの潜在能力をフルに発揮させる準備ができる。
数行のコードを使用することで、Python スクリプトをセットアップして、ウェブカメラ上でライブ推論を実行し、リアルタイムの映像をキャプチャして、さまざまなカップを驚くほどの精度で検出することができます。私たちのモデルが様々な形、大きさ、色のカップを難なく識別することで、YOLOv8 の威力が発揮され、実世界のシナリオにおける汎用性と信頼性が示されました。
微調整モデルにはいくつかの利点がある。事前に訓練されたモデルでは対応できないようなオブジェクトの 検出、 セグメンテーション、 分類を行うことができる。さらに、研究者やデータサイエンティストが、実世界のデータセットでモデルアーキテクチャーがどのように機能するかを理解するのに役立ちます。
カスタムモデルのトレーニングから、トレーニングされた重みのエクスポート、ウェブカメラ上でのライブ推論の実行まで、YOLOv8 のパワーと汎用性を目の当たりにしてきました。
Ultralytics YOLOv8 で、カスタムオブジェクト検出の可能性を最大限に引き出す探求に参加しませんか?一緒に、一度に1つの検出でAIの未来を形作ろう。 Ultralytics HUBや、Ultralytics の ドキュメントをチェックし、 コミュニティに参加して最新情報を入手しよう!
カスタム学習済みYOLOv8 モデルのエクスポートとウェブカメラでの推論の実行に興味がある方は、こちらのビデオをご覧ください!