グリーンチェック
クリップボードにコピーされたリンク

SharkEyeが物体検出にUltralytics YOLOv8 使用

YOLO Vision 2024で発表されたSharkEyeが、Ultralytics YOLOv8 活用し、リアルタイムの物体検知とビーチの安全性をどのように実現しているかを理解しよう。

牧場で草を食む牛や海岸近くを移動するサメなど、自然の生息地で動物を監視することは、彼らの安全と幸福のために常に重要である。しかし、手作業で動物を観察するのは容易ではない。観察者は行動や動きの変化を注意深く観察しなければならないため、何時間もの忍耐と注意深い集中力を必要とすることが多い。それでも、微妙だが重要なサインを見逃しがちだ。

人工知能(AI)が参入したおかげで、このプロセスはより速く、より賢く、はるかに効率的になりつつあり、人間の観察者の負担を減らすと同時に精度を向上させている。特にコンピューター・ビジョンは、動物を追跡し、危険を察知し、リアルタイムで判断を下すために使用できる。かつては何時間もかかっていた作業が数分でできるようになり、動物の行動を理解する新たな道が開かれた。

Ultralytics主催の年次ハイブリッド・イベントであるYOLO Vision 2024(YV24)では、専門家やイノベーターが集まり、AIが日常の課題にどのように取り組んでいるかを探った。展示されたトピックの中には、リアルタイムの物体検出や動物モニタリングの進歩が含まれ、AIが様々な分野でいかに安全性と効率性を高めているかを実証した。

イベントのハイライトのひとつは、AIマスター・グループの創設者であるジム・グリフィンによる講演で、彼はビジョンAIがサメが岸に近づきすぎる前に検知することで、ビーチの安全性を高めていることを実演した。彼は Ultralytics YOLOv8最先端のコンピューター・ビジョン・モデルであるUltralytics YOLOv8を使用することで、波の揺れやまぶしさ、水中の障害物などの厳しい条件下でも、リアルタイムでサメを正確に識別する方法を説明した。

この記事では、SharkEyeプロジェクトを詳しく見ていき、ジムの講演から興味深い洞察を共有する。

SharkEyeを知る:コンピュータビジョンアプリケーション

ジムはまず、サーファーとサメがしばしば同じ海を共有するカリフォルニアの有名なサーフスポット、パダロ・ビーチを紹介して話を始めた。もちろん、サメに噛まれれば発見するのは簡単だ。

図1.YOLO ビジョン2024のステージ上のジム。

シャークアイは、カリフォルニア大学サンタバーバラ校の支援を受けて、この問題に取り組むために作られた。ジムは、高解像度のAIカメラを搭載したドローンが水面から約200フィート上空を飛行し、リアルタイムで海をスキャンする様子を説明した。

サメが発見されると、ライフガード、サーフショップのオーナー、最新情報の登録者など、約80人にSMS通知が届く。ジムは、このような即時通知によって迅速な対応が可能になり、サメが海岸近くにいるときに海水浴客をより安全に保つことができると指摘した。

ジムはまた、SharkEyeがライブ・ダッシュボードを備えており、ユーザーがサメ発見の統計を見ることができることにも言及した。例えば、12週間で大型のサメを2匹、小型のサメを15匹発見。

そして、シャークアイの開発を主導した科学者、ニール・ネイサンを紹介した。ネイサンは、コンピューターサイエンスではなく環境学を専攻していたにもかかわらず、プロジェクトを成功に導いた。ジムは、SharkEyeで使用されているような最新のAIツールがいかに利用しやすいように設計されているかを強調した。

サメの探知にUltralytics YOLOv8 使用

ジムはさらに詳しく、SharkEyeのボンネットの中身と、サメ検出ソリューションが単純な物体検出タスクだけではなかったことを説明した。サメと間違えやすい海藻の浮遊など、ダイナミックで予測不可能な状況に対処しなければならなかった。静止した物体を見つけるのとは異なり、サメを識別するには精度と適応性が必要であり、YOLOv8 理想的な選択であった。

YOLOv8 もうひとつの利点は、クラウドサーバーに頼ることなくドローンに搭載できることだった。ジムは、このアプローチによって、SharkEyeが即座にアラートを送ることが可能になったことを説明した。

わずか6行のコードでオブジェクトを検出

SharkEyeの仕組みとその背後にある共同作業を紹介した後、ジムはライブデモを披露した。

Jim Griffinは、Ultralytics YOLO モデルの"hello world "コード・スニペットという身近な例を通して聴衆を案内し、ライブ・デモを開始した。たった6行のPython コードで、彼は事前に訓練されたUltralytics YOLOv8 モデルが画像内のバスを簡単に検出できることを示した。 

図2.YOLO ビジョン2024でのジムによるデモ。

彼のデモでは、ドローンのような低電力デバイス用の軽量版であるYOLOv8 Nanoモデルが使用された。同じモデルがSharkEyeでリアルタイムにサメを検知するために使用された。 

さらに背景を説明するために、ジムはデモのモデルが、広く使われているCOCOデータセットの小さいサブセットであるCOCO128で訓練されていることに言及した。COCOデータセットには、80の異なるオブジェクトカテゴリにわたって20,000以上の画像が含まれています。COCO128は迅速なデモには適しているが、SharkEyeにはもっと堅牢なもの、つまり実世界の複雑なシナリオに対応できるアプリケーション固有のサメ検出データセットが必要だと指摘した。

シャークアイのYOLOv8 カスタムトレーニング 

ジムによれば、SharkEyeプロジェクトで最も大変だったのは、AIモデルのトレーニングではなく、適切なデータを集めることだったという。このプロジェクトの主な仕事はAIではなかった。このプロジェクトの主な仕事は、ドローンを5年間飛ばし、ビデオから画像を抽出し、適切なタグ付けをすることだった"

パダロ・ビーチで15,000枚の画像を収集した方法を説明した。サメ、海藻、その他の水中の物体を区別するために、それぞれの画像に手作業でラベルを付ける必要があった。この作業は時間がかかり大変だったが、その後のすべての基礎を築いた。

図3.ドローンを使ってサメの画像を撮影し、リアルタイムの物体検出を行う。

データセットの準備が整うと、Ultralytics YOLOV8 カスタムトレーニングした。ジム氏は、「実際のトレーニングは難しい部分ではなく、T4 GPU(グラフィック・プロセッシング・ユニット)で20時間しかかかりませんでした。また、A100 GPUなど、より強力なハードウェアを使えば、5時間程度に短縮できたかもしれないとも付け加えた。

シャークアイの評価再現率よりも精度

その後、ジムはSharkEyeの性能評価方法について説明した。重要な指標は精度、つまりシステムが実際のサメをどれだけ正確に識別できるかであることを説明した。シャークアイは92%という驚異的な精度を達成し、複雑な海洋環境の中でサメを正確に識別するモデルが非常に有効であることを証明した。

精度の重要性をさらに深く掘り下げると、ジムは、なぜこのケースでは精度が想起よりも重要なのかを明らかにした。「特にヘルスケアのような分野では、ポジティブなケースを見逃すことは致命的ですしかし、このケースでは、サメが何匹いるかわからなかったので、精度を重視しました」と彼は説明した。SharkEyeは精度を重視することで、誤報を最小限に抑え、ライフガードや他の対応者が迅速に行動できるようにした。

図4.YOLO ビジョン2024でSharkEyeを披露するジム。

彼は講演の最後にAIと人間のパフォーマンスを比較し、シャークアイの92%の精度が人間の専門家の60%の精度をはるかに上回っていることを指摘した。彼はこのギャップを強調し、「それは私たちが人間だからです。あなたや私がどんなに専門家であっても、一日中画面の前に座ってサメを探さなければならないのであれば、やがて心が離れてしまうでしょう。人間とは異なり、AIモデルは疲れたり気が散ったりすることがないため、継続的な監視が必要なタスクにとって信頼できるソリューションとなる。

Ultralytics YOLO11:最新のYOLO

ジム・グリフィンの講演の中にあった「6行のコードが、ある日あなたの命を救うかもしれない」という興味深い言葉は、AIがいかに高度でありながら身近なものになったかを見事に表現している。Ultralytics YOLO モデルは、このことを念頭に置いて作成されており、最先端のコンピュータビジョン技術をあらゆる規模の開発者や企業に利用しやすくしています。 Ultralytics YOLO11は、より高速な推論と高い精度を実現しています。 

YOLO11 特徴を簡単に紹介しよう:

  • 再設計されたアーキテクチャ:強化されたバックボーンとネックアーキテクチャにより、より優れた特徴抽出と精度の向上が可能になりました。
  • 使いやすさ:Python コーディングや、Ultralytics HUBのようなノーコードツールでアクセスできる。
  • タスク間の柔軟性:YOLO11 、物体検出、インスタンス分割、画像分類、追跡、姿勢推定、オリエンテッドバウンディングボックス(OBB)などのコンピュータビジョンタスクをサポートしている。
  • 精度の向上:YOLO11 、COCOデータセットにおいて、YOLOv8m 比較して22%高い平均平均精度(mAP)を達成し、より正確な検出を実現しました。

これらの機能により、YOLO11 農場であれ野生であれ、ダイナミックな環境における動物の行動追跡に最適なのだ。

要点

ビジョンAIの進歩は、様々な分野に実用的なツールを提供することで、現実世界の課題への取り組みを容易にしている。例えば、YOLO11 ようなコンピュータ・ビジョン・モデルは、厳しい条件下でも動物のリアルタイム監視や追跡に使用できる。 

YV24でのジム・グリフィンの基調講演は、YOLOv8 最小限のコーディングで複雑な問題を解決するためにどのように使用できるかを説明した。ドローンとAIを組み合わせてリアルタイムでサメを探知するSharkEyeプロジェクトは、テクノロジーがビーチの安全性をどのように向上させるかを紹介した。 

AIがいかに身近な存在となり、さまざまな背景を持つ人々が効果的なソリューションを生み出せるようになったかを示す興味深いケーススタディだった。AIが進化し続けるにつれ、AIは産業を変革し、世界をより安全で、よりスマートで、より効率的な場所にするために、個人がその可能性を活用することを可能にしている。

私たちのコミュニティーの一員になり、GitHubリポジトリを探索してAIを深く掘り下げましょう。農業におけるコンピュータビジョンから 自動運転車における AI まで、これらのテクノロジーがどのようにイノベーションを促進しているかをご覧ください。今すぐAIプロジェクトを始めるために、ライセンスオプションをチェックしてください!

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう