探索Ultralytics' 年度活动的亮点,重温YOLO Vision 混合体验。我们将介绍Ultralytics'YOLO11 发布会、引人入胜的专题讨论会等内容。
9月27日,Ultralytics ,人工智能和计算机视觉社区齐聚一堂,参加我们激动人心的年度混合盛会YOLO Vision 2024 (YV24)。该活动在马德里的Google for Startups Campus 举办,并向全球直播,专家、开发人员和爱好者齐聚一堂,共同讨论视觉人工智能的最新进展,如新的Ultralytics YOLO11 模型。此次活动的直播流媒体观看次数已超过 5,400 次,观看人次超过 10,600 次,观看时长超过 469.5 小时,吸引了世界各地的创新者。
YV24 以主持人Oisin Lunny 的热情欢迎开场,他强调了社区和联系的重要性,他说:"我非常相信伟大创意和伟大社区的力量,Ultralytics 与YOLO Vision创建的正是这样一个由拥有伟大创意的伟大人物组成的伟大社区"。
在本文中,我们将指出YOLO Vision 2024 的主要亮点,从引人入胜的小组讨论到引人入胜的计算机视觉实际应用案例。我们还将探讨从边缘人工智能到硬件加速的技术讲座,以及使活动取得成功的网络和社区建设时刻。无论您是对人工智能创新、重要公告还是视觉人工智能的未来感兴趣,本YOLO Vision 2024 活动回顾都将涵盖所有重要内容!
Ultralytics' 创始人兼首席执行官格伦-乔彻(Glenn Jocher)在最初的主题演讲中宣布,在 YOLO Vision 2024 之前就已预告的产品发布会终于揭开了神秘的面纱。格伦介绍说 Ultralytics YOLO11这标志着下一代计算机视觉模型已经开发了数月之久。随后,Glenn 接受了The Ravit Show的采访,分享了关于 YOLO11 的开发心得,这让发布会更加激动人心。
在主题演讲中,格伦还分享了公司的发展历程,从他的粒子物理学背景说起,讲述了他对了解宇宙的痴迷是如何最终将他引向机器学习和计算机视觉的。
他解释了自己早期在物理学领域的工作,即研究人员分析粒子间的相互作用,与计算机视觉中的物体检测有异曲同工之妙。他对尖端技术的好奇心和工作动力最终促成了 Ultralytics YOLOv5.在整个演讲过程中,Glenn 强调了开源社区内合作和贡献的重要性,并感谢世界各地的开发人员提供反馈,帮助改进YOLOv5 和 .NET。 Ultralytics YOLOv8的开发人员表示感谢。
随后,他介绍了 Ultralytics YOLO11 的主要特点,并解释说,它比以前的模型更快、更准确、更高效。事实上,YOLO11m 使用的参数比YOLOv8m 少 22%,但在COCO 数据集上的准确性却更高,这使得YOLO11 非常适合速度和准确性至关重要的实时应用。
格伦强调了此次发布的规模,他说:"我们总共发布了 30 个模型,其中 25 个是开源的,有五种不同的尺寸,用于五种不同的任务。这些任务包括图像分类、物体检测、实例分割、姿势估计和定向边界框。在企业方面,他宣布下个月将推出在由 100 万张图像组成的专有数据集上训练出来的强大模型。毋庸置疑,这一宣布为本次活动拉开了序幕,让与会者迫不及待地想更多了解YOLO11在 制造业和自动驾驶汽车等领域的创新潜力。
在YOLO Vision 2024 会议上,由 Oisin Lunny 主持的小组讨论就人工智能、计算机视觉和社区建设发表了一系列见解。
第一个专题讨论小组的成员包括 Glenn Jocher、邱晶(Ultralytics YOLO 模型开发的关键人物)和来自清华大学的王敖(YOLOv10 的共同作者)。该小组讨论了生成式人工智能 和计算机视觉的 最新发展 ,重点讨论了这两个领域的异同以及各自对对方的影响。尽管最近大型语言模型(LLM)兴起,但专家小组指出,传统的计算机视觉对于医疗保健等行业的特定任务仍然至关重要。
接下来的小组讨论探讨了女性在人工智能领导力方面面临的挑战,演讲者:Ultralytics' 增长总监Paula Derrenger、SaaS 行业前首席运营官兼首席运营官Bruna de Guimarães、Latinas in Tech马德里分会负责人Mariana Hernandez 和Dare to Data创始人Christina Stathopoulous分享了她们的经验,同时讨论了导师制的重要性以及女性在寻求领导职位时采取积极措施的必要性。埃尔南德斯建议说:"要积极主动,不要等待事情发生在你身上",并鼓励在座女性坚持自我,积极寻求机会。小组还讨论了创造更具支持性的工作环境的价值。
最后一个专题讨论小组探讨了建立强大的社区如何促进人工智能领域的创新。Burhan Qaddoumi、Harpreet Sahota 和Bart Farrell讨论了如何在网上和现场活动中与技术受众互动。法雷尔的见解是 "你必须在他们所处的位置与他们相遇",这与根据社区成员的条件与他们建立联系以鼓励合作和共同学习的重要性不谋而合。
YV24上的几场演讲揭示了YOLO 模型如何应用于解决各行各业的现实挑战。人工智能大师小组(AI Master Group)播客主持人吉姆-格里芬(Jim Griffin)谈到了一个项目,该项目利用YOLOv8 模型,通过无人机监控 来监测加利福尼亚海岸线的鲨鱼动向。该系统会向救生员、冲浪店主和家长发出警报,通过在距离海面200英尺的高空探测鲨鱼,确保海滩游客的安全。格里芬解释说,真正的挑战并不在于人工智能模型本身,而是训练模型所需的大量无人机飞行和数据收集。
同样,来自The Main Branch的David Scott讨论了计算机视觉从简单的物体检测到行为分析的扩展。他在演讲中介绍了现实世界中的应用,如跟踪牛的行为和识别零售店中的可疑活动。斯科特分享了YOLOv8 如何通过分析吃喝和行走等特定行为来监测牛的健康状况。
此外,来自NASCO Feeding Minds 的奥斯曼-乌马尔(Ousman Umar)做了一个特别感人的主题发言,他分享了他的组织如何通过在加纳提供IT 教育来改变生活。他的基金会建立了 17 个信息和通信技术中心,培训了 65000 多名学生,目标是创造当地的技术工作岗位,帮助解决非法移民等问题。乌玛的故事很有感染力,他传达了教育和技术如何共同推动服务不足社区的持久变革。
YV24 还围绕人工智能和硬件如何共同激发新创意举办了不同的讲座。来自 Intel、索尼和 NVIDIA等公司的专家讨论了在边缘设备上部署YOLO 模型和优化性能的问题。来自Intel 的 Dmitriy Pastushenkov和Adrian Boguszewski 概述了他们的硬件如何跨 NPU、CPU 和GPU支持YOLO 模型,而索尼的Amir Servi和Wei Tang则分享了YOLO 如何与 AITRIOS 平台集成以实现高效的边缘 AI 部署。来自NVIDIA 的Guy Dahan谈到了如何利用他们的GPU 架构来改进YOLO 模型推理。
其他公司如高通公司(Qualcomm、Hugging Face和Lightning AI等公司也展示了他们的平台如何让开发人员更轻松地集成和部署YOLO 模型。来自高通公司的Devang Aggarwal介绍了如何通过高通 AI Hub 为 Snapdragon 终端优化YOLOv8 等模型。
同样,来自Hugging Face 的Pavel Lakubovskii介绍了他们的开源工具如何将YOLOv8 等模型无缝集成到各种工作流程中,而来自 Lightning AI 的Luca Antiga则向我们介绍了开发人员如何在代码层面轻松集成YOLOv8 等模型,以加快原型设计和迭代。
在 YV24 之前的一周,Ultralytics 团队齐聚马德里,参加了各种研讨会、合作会议和场外活动。这些活动超越了工作范畴,培养了更牢固的关系,并在活动前营造了积极的氛围。活动结束后,与会者和演讲者还举行了庆祝派对,有机会建立联系、分享主要收获并探讨未来的合作。团队合作与友情的结合使 YV24 取得了专业上的成功,成为一次全面的难忘经历。
YV24汇聚了创新、合作和对计算机视觉未来的展望。随着YOLO11 的发布、引人入胜的专题讨论会以及有关人工智能硬件和边缘解决方案的讨论,本次活动重点关注视觉人工智能如何发挥作用,以及技术如何不断变化以跟上人工智能的发展。活动还加强了社区内部的联系。专家和爱好者们交流了想法,并探讨了计算机视觉和YOLO 的潜力。活动最后还进行了趣味问答,并有机会获得Ultralytics 连帽衫,让大家对未来更多类似YOLO11 的创新充满期待。
访问我们的GitHub 存储库,与我们蓬勃发展的社区联系,了解更多有关人工智能的信息。了解 Vision AI 如何重新定义医疗保健和农业等领域的创新。🚀