Ultralytics' 年次イベントのハイライトを探り、YOLO ビジョンのハイブリッド体験を追体験する。Ultralytics' YOLO11の発表、魅力的なパネルなどを取り上げます。
9月27日、Ultralytics 、AIとコンピュータ・ビジョンのコミュニティが、毎年恒例のエキサイティングなハイブリッド・イベント、YOLO Vision 2024(YV24)に集結した。マドリードのGoogle for Startups Campusで開催され、世界中にストリーム配信されたこのイベントには、専門家、開発者、愛好家が集まり、新しいUltralytics YOLO11モデルなど、ビジョンAIの最新の進歩について議論しました。このイベントのライブストリームは、すでに5,400回以上の視聴、10,600回以上のインプレッション、469.5時間以上の視聴時間を記録し、世界中のイノベーターを魅了しました。
YV24は、ホストのオイシン・ルニーの温かい歓迎で始まった。彼は、コミュニティとつながりの重要性を強調し、次のように語った。「私は、素晴らしいアイデアと素晴らしいコミュニティの力を信じています。Ultralytics がYOLO Visionと共に作り上げたものは、まさにそれです。素晴らしいアイデアを持つ素晴らしい人々の素晴らしいコミュニティなのです」。
この記事では、魅力的なパネルディスカッションから コンピュータビジョンの魅力的な実世界での使用例まで、YOLO Vision 2024 の主なハイライトを紹介する。また、エッジAIからハードウェアアクセラレーションまで幅広い技術的な講演や、イベントを成功に導いたネットワーキングとコミュニティ形成の瞬間についても探ります。AIのイノベーション、重要な発表、Vision AIの未来など、このYOLO Vision 2024 イベントレポは、重要なポイントをすべて網羅しています!
YOLO Vision 2024の前に予告されていた製品発表が、Ultralytics' 創設者兼CEOのグレン・ジョーチャーによる最初の基調講演での発表でついに明らかになった。グレンが紹介したのは、Ultralytics YOLO11。数ヶ月前から開発が進められていた次世代コンピュータ・ビジョン・モデルである。発表の興奮をさらに盛り上げるため、グレンは後にThe Ravit Showのインタビューに応じ、YOLO11の開発に関する洞察を披露した。
基調講演の中でグレンは、素粒子物理学のバックグラウンドから始まり、宇宙を理解することに魅了され、最終的に機械学習とコンピューター・ビジョンに至った経緯など、会社の歩みを語った。
彼は、物理学の研究者が粒子の相互作用を分析する初期の仕事が、コンピューター・ビジョンにおける物体検出に似ていると説明した。彼の好奇心と最先端技術への意欲が、最終的に Ultralytics YOLOv5.グレンは講演を通じて、オープンソースコミュニティにおけるコラボレーションと貢献の重要性を強調し、フィードバックを提供し、YOLOv5 、時間の経過とともに改善するのを助けてくれた世界中の開発者に感謝した。 Ultralytics YOLOv8の改良に貢献してくれた世界中の開発者に感謝した。
そして、 Ultralytics YOLO11の主な特徴を紹介し、従来のモデルよりも高速で、より正確で、より効率的であることを説明した。実際、YOLO11mは、YOLOv8m より22%少ないパラメーターを使用しながら、COCOデータセットでより高い精度を実現しており、YOLO11は、スピードと精度が基本であるリアルタイム・アプリケーションに最適である。
グレンは、「私たちは全部で30モデルを発表し、そのうち25モデルはオープンソースで、5つの異なるタスクに対して5つの異なるサイズで発表します」と発表の規模を強調した。タスクは、画像分類、物体検出、インスタンス分割、ポーズ推定、オリエンテッドバウンディングボックスだ。"企業向けには、100万枚の画像からなる独自のデータセットで訓練されたロバストモデルが来月から利用可能になると発表した。言うまでもなく、この発表はイベントの幕開けを盛り上げ、参加者は製造業や 自動運転車などの分野を革新するYOLO11の可能性についてもっと知りたいと思った。
YOLO Vision 2024では、オイシン・ルニーがモデレーターを務めるパネルディスカッションが行われ、AI、コンピュータービジョン、コミュニティ形成に関するさまざまな見識が示された。
最初のパネルでは、グレン・ジョーチャー氏、ジン・チウ氏(YOLO モデル開発の中心人物、Ultralytics )、そしてYOLOv10の共著者である清華大学のアオ・ワン氏が登壇した。パネルでは、生成AIと コンピュータ・ビジョンの 最近の発展について 、それぞれの類似点、相違点、そしてそれぞれの分野が他方に与えた影響に焦点を当てて議論した。最近の大規模言語モデル(LLM)の台頭にもかかわらず、パネルディスカッションでは、伝統的なコンピュータ・ビジョンが、ヘルスケアなどの産業における特定のタスクには依然として不可欠であることが指摘された。
次のパネルディスカッションでは、AIリーダーシップにおいて女性が直面する課題に取り組み、Ultralytics' Director of GrowthPaula Derrenger、SaaSにおける元CPO兼COOのBruna de Guimarães、Latinas in TechMadridのChapter LeadMariana Hernandez、Dare to Dataの創設者Christina Stathopoulousがそれぞれの経験を語り、メンターシップの重要性や、女性がリーダーシップの役割を求めて積極的に行動する必要性について議論した。ヘルナンデス氏は、「物事が自分のために起こるのを待つのではなく、積極的に行動しましょう」とアドバイスし、聴衆の女性たちに自分を主張し、積極的にチャンスを追い求めるよう促した。パネルディスカッションでは、より協力的な職場環境を作ることの価値についても話し合われた。
最後のパネルディスカッションでは、強力なコミュニティを構築することで、AIにおけるイノベーションをどのように促進できるかを探った。Burhan Qaddoumi氏、Harpreet Sahota氏、Bart Farrell氏は、オンラインと対面イベントの両方で、技術的な聴衆と関わる方法について議論した。ファレル氏の「彼らのいる場所で彼らに会わなければならない」という洞察は、コラボレーションと共有学習を促進するために、コミュニティ・メンバーと彼らの条件でつながることの重要性を共感させるものだった。
YV24のいくつかの講演では、YOLO モデルが様々な産業における現実の課題を解決するためにどのように応用されているかが明らかにされた。AI Master Groupのポッドキャストのホストであるジム・グリフィンは、YOLOv8 モデルを使って、カリフォルニアの海岸線沿いのサメの動きを ドローン監視で モニターするプロジェクトについて話した。このシステムは、ライフガード、サーフショップのオーナー、保護者に警告を発し、海から200フィート上空からサメを検知することで、海水浴客の安全を確保している。グリフィンは、真の課題はAIモデルそのものではなく、モデルの訓練に必要な大規模なドローン飛行とデータ収集であると説明した。
同様に、The Main Branchの デビッド・スコット氏は、コンピュータ・ビジョンの単純な物体検出から行動分析への拡大について議論した。彼の講演では、牛の行動追跡や 小売店での不審な行動の特定など、実際の応用例が紹介された。スコット氏は、YOLOv8 、食べる、飲む、歩くといった特定の行動を分析することで、牛の健康状態をモニターするためにどのように利用できるかを紹介した。
さらに、特に心に響いた基調講演は、NASCO Feeding Mindsの ウスマン・ウマール氏によるもので、同氏はガーナでIT教育を提供することによって、自身の組織がどのように生活を変えているかを語った。彼の財団は17のICTセンターを設立し、65,000人以上の学生を訓練しており、不法移民などの問題に対処するために地元の技術職を創出することを目標としている。ウマル氏の力強い話は、教育とテクノロジーがいかにして恵まれない地域社会に永続的な変化をもたらすことができるかを伝えた。
YV24では、AIとハードウェアがどのように融合し、新たなアイデアを生み出すかに焦点を当てたさまざまな講演も行われた。以下のような企業の専門家が登壇した。 IntelソニーNVIDIAなどの専門家が、エッジ・デバイスへのYOLO モデルの導入とパフォーマンスの最適化について講演した。Intel のドミトリー・パストゥシェンコフ(Dmitriy Pastushenkov)氏とエイドリアン・ボグシェフスキー(Adrian Boguszewski)氏は、同社のハードウェアがNPU、CPU 、GPU にまたがる YOLO のモデルをどのようにサポートしているかについて概説し、ソニーのアミール・セルヴィ(Amir Servi)氏とウェイ・タン(Wei Tang)氏は、YOLO がエッジAIを効率的に展開するためにAITRIOSプラットフォームとどのように統合されているかを紹介した。NVIDIA のGuy Dahan氏は、GPU アーキテクチャを使用してYOLO モデル推論を改善することについて語った。
クアルコムのような他の企業、 Hugging FaceやLightning AIなどの企業も、各社のプラットフォームによって開発者がYOLO モデルの統合と導入をいかに簡単に行えるかを紹介した。クアルコムのDevang Aggarwal氏は、Qualcomm AI Hubを通じて、YOLOv8 のようなモデルをSnapdragonデバイス向けに最適化する方法を紹介した。
同様に、Hugging Face のPavel Lakubovskii氏は、彼らのオープンソースツールが、YOLOv8 のようなモデルを様々なワークフローにシームレスに統合することを可能にする方法について説明し、Lightning AI のLuca Antiga氏は、開発者がYOLOv8 のようなモデルをコードレベルで簡単に組み込んで、より迅速なプロトタイピングとイテレーションを行う方法について説明した。
YV24までの1週間、Ultralytics チームはマドリードに集まり、ワークショップ、共同ミーティング、オフサイト・アクティビティなどを行った。これらの活動は仕事を超え、より強い人間関係を育み、イベントを前にポジティブな雰囲気を作り出した。お祝いのアフターパーティーで締めくくられた参加者と講演者は、ネットワークを広げ、重要な収穫を共有し、将来のコラボレーションを模索する機会を得た。チームワークと仲間意識の融合により、YV24はプロフェッショナルな成功を収め、総合的に思い出深い体験となった。
YV24は、イノベーション、コラボレーション、コンピュータビジョンの未来を一堂に集めました。YOLO11の発表、魅力的なパネルディスカッション、AIハードウェアとエッジソリューションに関するディスカッションなど、このイベントは、ビジョンAIがどのように変化をもたらすことができるか、AIの進歩に追いつくために技術がどのように変化しているかに焦点を当てました。また、コミュニティ内のつながりも強化された。専門家と愛好家がアイデアを共有し、コンピュータ・ビジョンとYOLO の可能性を探った。イベントの最後には楽しいクイズ・セッションが行われ、Ultralytics のパーカーがプレゼントされた。参加者はYOLO11のようなイノベーションに期待を膨らませた。
私たちのGitHubリポジトリを訪問し、AIについてもっと学ぶために私たちの繁栄コミュニティと接続します。Vision AIがヘルスケアや 農業などの分野でどのようにイノベーションを再定義しているかをご覧ください。🚀