Ultralytics 、AUVとYOLOv5 、効率的な水中探知と清掃のために海洋プラスチック汚染にどのように取り組んでいるかをご覧ください。
プラスチックは海洋の野生生物を窒息させている。毎分トラック2台分のプラスチックが海に投棄されており、これは年間1000万トン以上に相当する。ディーププラスチックの科学者たちは、この海洋プラスチックが「海洋環境、食の安全、人間の健康、エコツーリズム、気候変動への貢献」に対して社会的脅威をもたらすと述べている。
これに対抗するため、この研究者とエンジニアのチームは、コンピューター・ビジョンによって海洋のプラスチックをどのように除去できるかを研究している。
ディープ・プラスチックの研究者たちは、ディープ・ラーニング(深層学習)技術を使って、自律型水中探査機(AUV)を使い、光が透過する海面直下(表層)にあるプラスチックをスキャン、識別、定量化するアプローチを開発した。
「私たちの目標は、プラスチックの検出に使用できる、推論速度が非常に速い非常に小さなモデルを持つことでした」。
ジェイ・ロウ機械学習研究者
DeepPlasticチームは、YOLOv4とYOLOv4という2つの小型で精密なモデルを学習させた。 YOLOv5を訓練し、リアルタイムの物体検出を可能にした。これらのモデルはDeepTrashデータセットで学習された:
AUVは水中を移動するロボットである。深海まで自由に滑空し、海面に戻ってくることができる低速の乗り物である。AUVが水中でプラスチックを識別・回収するためには、ディープラーニングモデルを搭載する必要がある。AUVは、水中でプラスチックを検出するために、3つの簡単なステップで展開することができる。
1.ディープラーニング・モデルをAUVに組み込む
2.海をスキャンする
3.プラスチックの特定
DeepPlasticチームは、YOLOv4やFaster R-CNNなどいくつかのディープラーニングモデルをAUVでテストした。しかし、研究者たちは、海洋洗浄を問題にするさまざまな課題に直面した。
チームにディープラーニングの専門家がいないため、研究者たちはディープラーニング・モデルを最大限に活用することができなかった。
推論とは、AUVがどれだけ速くプラスチックを認識できるかということである。YOLOv4とFaster R-CNNでは、AUVはプラスチックの検知にそれほど効果がなく、水をきれいにする能力が損なわれた。
YOLOv4とFaster R-CNNは、プラスチック識別の成功率が平均77%~80%しかなかった。
Faster R-CNNを使用した場合、AUVによってプラスチックと識別されたサンゴは3~5%で、これは許容基準を下回った。
YOLOv5 に切り替えると、研究者たちはすぐに変化を実感した。精度は向上し、スピードは最大化され、YOLOv5 のシンプルさによってチームの誰もがアクセスできるようになった。
より高速なR-CNNと比較して、平均20%高速な推論速度
93%の精度
セットアップに1時間以内YOLOv5
YOLOv5 、私たちがリポジトリ上で確立したシンプルなステップ・バイ・ステップのプロセスに基づいて、チームが簡単に作業できるようにするいくつかの側面がありました。
YOLOv5 は、Faster RCNNよりも推論速度が20%速く、平均9ミリ秒で1枚の画像を処理した。その結果、AUVは浮遊プラスチックをより速い速度で検出できるようになり、プラスチックの捕獲量とプロジェクト全体の効率が向上した。
精度は平均85%で、93%に達することもあった。これは以前のモデルで見られた平均77~80%から急上昇した。
YOLOv5 のセットアップは、研究者にとってシームレスで楽な体験だった。セットアップの全プロセスを通じて、ユーザーはA-Z方式で案内されたので、チームは1時間足らずでYOLOv5 。
数日のうちに、補強なしの3000枚の画像からなる小さなデータセットを使って、研究グループはAUVを湖や川で使えるように訓練することができた。濁った水やその他の悪条件にもかかわらず、YOLOv5 で訓練されたAUVは、高い精度でプラスチックを検出し、識別することができた。
「私たちは、高精度で非常に高速な物体検出アルゴリズムを探していました。私たちが作業する海洋環境は、過酷で荒れた地形です。YOLOv5 、私たちが使用できる最高の物体検出モデルとして、すべての面で成果をあげてくれました。
「YOLOv5 、セットアップも使い方もとても簡単で、一貫して望んでいた結果を出してくれるので、とても気に入っています。
"今後展開するモデルについては、間違いなくYOLOv5 を第一候補として検討することになるだろう"
ゴータム・タタ機械学習研究者
DeepPlasticのリポジトリ、発表された論文、ビデオをご覧ください。