Principais destaques da Ultralytics sobre o YOLO Vision 2024!

Abirami Vina

4 min ler

8 de outubro de 2024

Explore os destaques do evento anual da Ultralytics e reviva a experiência híbrida da YOLO Vision. Cobriremos o lançamento do YOLO11 da Ultralytics, painéis envolventes e muito mais.

Em 27 de setembro, a Ultralytics reuniu a comunidade de IA e visão computacional para o nosso emocionante evento anual híbrido l, YOLO Vision 2024 (YV24). Realizado no Google for Startups Campus em Madrid e transmitido globalmente, o evento reuniu especialistas, programadores e entusiastas para discutir os últimos avanços em IA de visão, como o novo modelo Ultralytics YOLO11. A transmissão em direto do evento já atingiu mais de 5.400 visualizações, com mais de 10.600 impressões e 469,5 horas de visualização, envolvendo inovadores de todo o mundo.

O YV24 começou com as calorosas boas-vindas do nosso anfitrião, Oisin Lunny, que enfatizou a importância da comunidade e da ligação, dizendo: "Acredito muito no poder das grandes ideias e das grandes comunidades, e o que a Ultralytics criou com o YOLO Vision é exatamente isso - uma grande comunidade de grandes pessoas com grandes ideias."

Neste artigo, vamos identificar os principais destaques do YOLO Vision 2024, desde os envolventes painéis de discussão até aos fascinantes casos de utilização da visão computacional no mundo real. Também exploraremos palestras técnicas que vão desde a IA de ponta até à aceleração de hardware, bem como os momentos de criação de redes e de comunidade que tornaram o evento um sucesso. Quer esteja interessado em inovações de IA, anúncios importantes ou no futuro da Visão de IA, esta recapitulação do evento YOLO Vision 2024 abrange todos os pontos essenciais! 

Lançamento do Ultralytics YOLO11 na YOLO Vision

O lançamento do produto que tinha sido anunciado antes do YOLO Vision 2024 foi finalmente revelado com um anúncio durante a apresentação inicial por Glenn Jocher, fundador e diretor executivo da Ultralytics. Glenn apresentou o Ultralytics YOLO11, que assinala a próxima geração de modelos de visão por computador, que estava a ser desenvolvida há vários meses. Para aumentar o entusiasmo do lançamento, Glenn foi mais tarde entrevistado no The Ravit Show e partilhou ideias sobre o desenvolvimento do YOLO11.

Durante a sua apresentação, Glenn também partilhou a história do percurso da empresa, começando com a sua formação em física de partículas e a forma como o seu fascínio pela compreensão do universo acabou por o levar à aprendizagem automática e à visão computacional.

__wf_reserved_inherit
Fig. 1. O Ultralytics YOLO11 foi oficialmente anunciado por Glenn Jocher no palco do YOLO Vision 2024.

Explicou como o seu trabalho inicial em física, em que os investigadores analisavam as interações das partículas, era semelhante à deteção de objectos na visão por computador. A sua curiosidade e vontade de trabalhar em tecnologia de ponta acabaram por levar à criação do Ultralytics YOLOv5. Ao longo da sua palestra, Glenn sublinhou a importância da colaboração e da contribuição no seio da comunidade de código aberto e agradeceu aos programadores de todo o mundo que forneceram feedback e ajudaram a melhorar o YOLOv5 e o Ultralytics YOLOv8 ao longo do tempo.

De seguida, apresentou as principais caraterísticas do Ultralytics YOLO11 e explicou que é mais rápido, mais preciso e mais eficiente do que os modelos anteriores. De facto, o YOLO11m utiliza menos 22% de parâmetros do que o YOLOv8m, mas proporciona uma melhor precisão no conjunto de dados COCO, tornando o YOLO11 perfeito para aplicações em tempo real em que a velocidade e a precisão são fundamentais.

Glenn sublinhou a escala do lançamento dizendo: "Estamos a lançar 30 modelos no total, 25 dos quais são de código aberto, com cinco tamanhos diferentes para cinco tarefas diferentes. As tarefas são classificação de imagens, deteção de objectos, segmentação de instâncias, estimativa de pose e caixas delimitadoras orientadas". No que respeita às empresas, anunciou que, no próximo mês, estarão disponíveis modelos robustos treinados num conjunto de dados proprietário de 1 milhão de imagens. Escusado será dizer que o anúncio deu início ao evento com uma nota alta, deixando os participantes ansiosos por saber mais sobre o potencial do YOLO11 para inovar em áreas como a produção e os carros autónomos.

Painéis de discussão na YOLO Vision: Uma conferência sobre IA

Os painéis de discussão, moderados por Oisin Lunny, no YOLO Vision 2024 proporcionaram uma série de conhecimentos sobre IA, visão computacional e construção de comunidades. 

O primeiro painel contou com a participação de Glenn Jocher, Jing Qiu (uma figura-chave no desenvolvimento dos modelos YOLO na Ultralytics) e Ao Wang da Universidade de Tsinghua, coautor do YOLOv10. O painel discutiu os recentes desenvolvimentos na IA generativa e na visão computacional, centrando-se nas suas semelhanças, diferenças e no impacto que cada campo teve no outro. Apesar da recente ascensão dos modelos de linguagem de grande dimensão (LLM), o painel salientou que a visão computacional tradicional continua a ser essencial para tarefas específicas em sectores como os cuidados de saúde

O painel seguinte abordou os desafios que as mulheres enfrentam na liderança da IA, com oradores: Paula Derrenger, diretora de crescimento da Ultralytics, Bruna de Guimarães, ex-CPO e COO em SaaS, Mariana Hernandez, líder do capítulo para Latinas in Tech Madrid, e Christina Stathopoulous, fundadora da Dare to Data, compartilharam suas experiências, enquanto discutiam a importância da orientação e a necessidade de as mulheres tomarem medidas proativas na busca de papéis de liderança. Hernandez aconselhou: "Sejam proactivas, não esperem que as coisas aconteçam por vocês", e encorajou as mulheres na audiência a afirmarem-se e a procurarem ativamente oportunidades. O painel também discutiu o valor da criação de ambientes de trabalho mais favoráveis.

__wf_reserved_inherit
Fig. 2. Um painel sobre mulheres na tecnologia, da esquerda para a direita: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, com Bruna de Guimarães a participar à distância.

O painel final explorou a forma como a criação de comunidades fortes pode promover a inovação na IA. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell discutiram maneiras de se envolver com públicos técnicos, tanto online quanto em eventos presenciais. A visão de Farrell, "Você tem que encontrá-los onde eles estão", simpatizou com a importância de se conectar com os membros da comunidade em seus termos para incentivar a colaboração e o aprendizado compartilhado.

__wf_reserved_inherit
Fig. 3. Um painel sobre a construção de comunidades, da esquerda para a direita: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell e Oisin Lunny.

Exemplos reais de inovações de IA na YOLO Vision

Várias palestras no YV24 esclareceram como os modelos YOLO estão a ser aplicados para resolver desafios do mundo real em vários sectores. Jim Griffin, anfitrião do podcast AI Master Group, falou sobre um projeto que utiliza modelos YOLOv8 para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia através da vigilância por drones. O sistema alerta os nadadores-salvadores, os proprietários de lojas de surf e os pais, garantindo a segurança dos banhistas ao detetar tubarões a 200 pés acima do oceano. Griffin explicou que o verdadeiro desafio não era o modelo de IA em si, mas os voos extensos de drones e a recolha de dados necessários para treinar o modelo.

__wf_reserved_inherit
Fig. 4. Jim Griffin partilhou como o YOLOv8 estava a ser utilizado para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia utilizando drones.

Da mesma forma, David Scott, do The Main Branch, discutiu a expansão da visão computacional, desde a simples deteção de objectos até à análise de comportamentos. A sua palestra apresentou aplicações do mundo real, como o acompanhamento do comportamento do gado e a identificação de actividades suspeitas em lojas de retalho. Scott partilhou como o YOLOv8 pode ser utilizado para monitorizar a saúde do gado através da análise de comportamentos específicos, como comer, beber e andar.

Além disso, Ousman Umar, da NASCO Feeding Minds, fez uma apresentação particularmente sentida, partilhando a forma como a sua organização está a mudar vidas ao proporcionar educação em TI no Gana. A sua fundação criou 17 centros de TIC, formando mais de 65.000 estudantes, com o objetivo de criar empregos locais no domínio da tecnologia para ajudar a resolver problemas como a imigração ilegal. A poderosa história de Umar demonstrou como a educação e a tecnologia, em conjunto, podem promover mudanças duradouras em comunidades carenciadas.

Conversas sobre tecnologia: Destaques dos oradores da YOLO Vision

O YV24 também apresentou diferentes palestras centradas na forma como a IA e o hardware se estão a unir para gerar novas ideias. Especialistas de empresas como a Intel, Sony e NVIDIA abordaram a implementação de modelos YOLO em dispositivos de ponta e a otimização do desempenho. Dmitriy Pastushenkov e Adrian Boguszewski da Intel descreveram como seu hardware suporta modelos YOLO em NPU, CPU e GPU, enquanto Amir Servi e Wei Tang da Sony compartilharam como o YOLO se integra à plataforma AITRIOS para uma implantação eficiente de IA de ponta. Guy Dahan, da NVIDIA, falou sobre o uso de sua arquitetura de GPU para melhorar a inferência do modelo YOLO. 

__wf_reserved_inherit
Fig. 5. Guy Dahan a falar sobre a otimização da inferência do modelo YOLO utilizando a arquitetura GPU da NVIDIA.

Outras empresas como a Qualcomm, a Hugging Face e a Lightning AItambém mostraram como as suas plataformas facilitam a integração e a implementação de modelos YOLO por parte dos programadores. Devang Aggarwal, da Qualcomm, apresentou como modelos como o YOLOv8 podem ser otimizados para dispositivos Snapdragon por meio do Qualcomm AI Hub.

Da mesma forma, Pavel Lakubovskii, da Hugging Face, descreveu como as suas ferramentas de código aberto permitem uma integração perfeita de modelos como o YOLOv8 em vários fluxos de trabalho, enquanto Luca Antiga, da Lightning AI, nos mostrou como os programadores podem incorporar facilmente modelos como o YOLOv8 ao nível do código para uma prototipagem e iterações mais rápidas.

Uma semana em Madrid: sessões de networking YOLO Vision

Na semana que antecedeu o YV24, a equipa da Ultralytics reuniu-se em Madrid para uma mistura de workshops, reuniões de colaboração e actividades fora das instalações. Estas actividades foram além do trabalho, fomentando relações mais fortes e criando uma atmosfera positiva antes do evento. Terminando com uma festa comemorativa, os participantes e os oradores tiveram a oportunidade de estabelecer contactos, partilhar as principais conclusões e explorar futuras colaborações. A combinação de trabalho de equipa e camaradagem fez do YV24 um sucesso profissional e uma experiência memorável.

__wf_reserved_inherit
Fig. 6. A equipa Ultralytics a celebrar um dia fantástico no YOLO Vision 2024.

Inovações de IA da YOLO Vision e o que está para vir

O YV24 reuniu inovação, colaboração e um olhar sobre o futuro da visão computacional. Com o lançamento do YOLO11, painéis envolventes e debates sobre hardware de IA e soluções de ponta, o evento centrou-se na forma como a IA de visão pode fazer a diferença e como a tecnologia está a mudar para acompanhar os avanços da IA. Também reforçou as ligações no seio da comunidade. Especialistas e entusiastas partilharam ideias e exploraram o potencial da visão computacional e do YOLO. O evento terminou com uma divertida sessão de perguntas e respostas, na qual foram sorteadas camisolas Ultralytics, deixando todos entusiasmados com mais inovações como o YOLO11 no futuro.

Visite o nosso repositório GitHub e ligue-se à nossa próspera comunidade para saber mais sobre IA. Veja como a Vision AI está a redefinir a inovação em sectores como os cuidados de saúde e a agricultura. 🚀

Vamos construir juntos o futuro
da IA!

Comece a sua viagem com o futuro da aprendizagem automática

Comece gratuitamente
Ligação copiada para a área de transferência