Verificação verde
Link copiado para a área de transferência

Ultralytics' Principais destaques do YOLO Vision 2024!

Explora os destaques do evento anual Ultralytics' e revive a experiência híbrida YOLO Vision. Cobriremos o lançamento do Ultralytics' YOLO11 , painéis envolventes e muito mais.

Em 27 de setembro, Ultralytics reuniu a comunidade de IA e visão computacional para o nosso emocionante evento anual híbrido l, YOLO Vision 2024 (YV24). Realizado no Campus Google for Startups em Madrid e transmitido globalmente, o evento reuniu especialistas, programadores e entusiastas para discutir os mais recentes avanços em IA de visão, como o novo modeloUltralytics YOLO11 . A transmissão ao vivo do evento já alcançou mais de 5.400 visualizações, com mais de 10.600 impressões e 469,5 horas de visualização, envolvendo inovadores de todo o mundo.

O YV24 começou com as calorosas boas-vindas do nosso anfitrião, Oisin Lunny, que sublinhou a importância da comunidade e da ligação, dizendo: "Acredito muito no poder das grandes ideias e das grandes comunidades, e o que Ultralytics criou com YOLO Vision é exatamente isso - uma grande comunidade de grandes pessoas com grandes ideias."

Neste artigo, vamos identificar os principais destaques do YOLO Vision 2024, desde os envolventes painéis de discussão até aos fascinantes casos de utilização da visão por computador no mundo real. Exploraremos também as palestras técnicas que vão desde a IA de ponta até à aceleração de hardware, bem como os momentos de criação de redes e de comunidade que tornaram o evento um sucesso. Quer estejas interessado em inovações de IA, anúncios importantes ou no futuro da Visão de IA, esta recapitulação do evento YOLO Vision 2024 abrange todos os pontos essenciais! 

Ultralytics YOLO11Lançamento em YOLO Vision

O lançamento do produto que tinha sido anunciado antes da YOLO Vision 2024 foi finalmente revelado com um anúncio durante a apresentação inicial de Glenn Jocher, fundador e diretor executivo da Ultralytics. Glenn apresentou Ultralytics YOLO11O Vision 2024, que marca a próxima geração de modelos de visão computacional, que estava em desenvolvimento há vários meses. Para aumentar o entusiasmo do lançamento, Glenn foi mais tarde entrevistado no The Ravit Show e partilhou informações sobre o desenvolvimento do YOLO11.

Durante a sua intervenção, Glenn também partilhou a história do percurso da empresa, começando com a sua formação em física de partículas e a forma como o seu fascínio pela compreensão do universo acabou por o levar à aprendizagem automática e à visão por computador.

Fig 1. Ultralytics YOLO11 foi oficialmente anunciado por Glenn Jocher no palco do YOLO Vision 2024.

Explica como o seu trabalho inicial em física, em que os investigadores analisavam as interações das partículas, era semelhante à deteção de objectos na visão por computador. A sua curiosidade e vontade de trabalhar em tecnologia de ponta acabaram por levar à criação do Ultralytics YOLOv5. Ao longo de sua palestra, Glenn enfatizou a importância da colaboração e da contribuição dentro da comunidade de código aberto e agradeceu aos desenvolvedores de todo o mundo que forneceram feedback e ajudaram a melhorar o YOLOv5 e o Ultralytics YOLOv8 ao longo do tempo.

Em seguida, apresentou as principais caraterísticas do Ultralytics YOLO11 e explicou que é mais rápido, mais preciso e mais eficiente do que os modelos anteriores. De facto, o YOLO11m utiliza menos 22% de parâmetros do que o YOLOv8m , mas proporciona uma melhor precisão no conjunto de dados COCO, tornando o YOLO11 perfeito para aplicações em tempo real em que a velocidade e a precisão são fundamentais.

Glenn sublinhou a escala do lançamento dizendo: "Estamos a lançar 30 modelos no total, 25 dos quais são de código aberto, com cinco tamanhos diferentes para cinco tarefas diferentes. As tarefas são classificação de imagens, deteção de objectos, segmentação de instâncias, estimativa de pose e caixas delimitadoras orientadas". Do lado das empresas, anunciou que, no próximo mês, estarão disponíveis modelos robustos treinados num conjunto de dados proprietário de 1 milhão de imagens. Escusado será dizer que o anúncio deu início ao evento com uma nota alta, deixando os participantes ansiosos por saber mais sobre o potencial doYOLO11 para inovar em áreas como a produção e os carros autónomos.

Painéis de discussão em YOLO Vision: Uma conferência sobre IA

Os painéis de discussão, moderados por Oisin Lunny, em YOLO Vision 2024 forneceram uma série de informações sobre IA, visão computacional e construção de comunidades. 

O primeiro painel contou com a participação de Glenn Jocher, Jing Qiu (uma figura-chave no desenvolvimento de modelos YOLO em Ultralytics) e Ao Wang da Universidade de Tsinghua, coautor do YOLOv10. O painel discutiu os recentes desenvolvimentos na IA generativa e na visão computacional, centrando-se nas suas semelhanças, diferenças e no impacto que cada campo teve no outro. Apesar da recente ascensão dos modelos de linguagem de grande dimensão (LLM), o painel salientou que a visão computacional tradicional continua a ser essencial para tarefas específicas em sectores como os cuidados de saúde

O painel seguinte abordou os desafios que as mulheres enfrentam na liderança da IA, com as oradoras: Ultralytics' Diretor of Growth Paula Derrenger, ex-CPO e COO em SaaS Bruna de Guimarães, Chapter lead for Latinas in Tech Madrid Mariana Hernandez, e Founder of Dare to Data Christina Stathopoulous a partilharem as suas experiências, ao mesmo tempo que discutiam a importância da mentoria e a necessidade de as mulheres tomarem medidas proactivas na procura de cargos de liderança. Hernandez aconselhou: "Sê proactiva, não esperes que as coisas aconteçam por ti", e encorajou as mulheres na audiência a afirmarem-se e a procurarem ativamente oportunidades. O painel também discutiu o valor da criação de ambientes de trabalho mais favoráveis.

Fig. 2. Um painel sobre mulheres na tecnologia, da esquerda para a direita: Christina Stathopoulous, Paula Derrenger, Mariana Hernandez, Oisin Lunny, com Bruna de Guimarães a participar à distância.

O painel final explorou a forma como a construção de comunidades fortes pode promover a inovação em IA. Burhan Qaddoumi, Harpreet Sahota e Bart Farrell discutiram maneiras de se envolver com públicos técnicos, tanto on-line quanto em eventos presenciais. A visão de Farrell, "Tens de os encontrar onde eles estão", simpatizou com a importância de se ligar aos membros da comunidade nos seus termos para encorajar a colaboração e a aprendizagem partilhada.

Fig. 3. Um painel sobre a construção de comunidades, da esquerda para a direita: Harpreet Sahota, Burhan Qaddoumi, Bart Farrell e Oisin Lunny.

Exemplos reais de inovações de IA em YOLO Vision

Várias palestras no YV24 mostraram como os modelos YOLO estão a ser aplicados para resolver desafios do mundo real em vários sectores. Jim Griffin, apresentador do podcast AI Master Group, falou sobre um projeto que utiliza modelosYOLOv8 para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia através da vigilância por drones. O sistema alerta os nadadores-salvadores, os proprietários de lojas de surf e os pais, garantindo a segurança dos banhistas ao detetar tubarões a 200 pés acima do oceano. Griffin explicou que o verdadeiro desafio não foi o modelo de IA em si, mas os voos extensos de drones e a recolha de dados necessários para treinar o modelo.

Fig. 4. Jim Griffin partilhou como o site YOLOv8 estava a ser utilizado para monitorizar os movimentos dos tubarões ao longo da costa da Califórnia utilizando drones.

Da mesma forma, David Scott, do The Main Branch, discutiu a expansão da visão computacional, desde a simples deteção de objectos até à análise de comportamentos. Sua palestra apresentou aplicações do mundo real, como o acompanhamento do comportamento do gado e a identificação de atividades suspeitas em lojas de varejo. Scott compartilhou como o YOLOv8 pode ser usado para monitorar a saúde do gado, analisando comportamentos específicos, como comer, beber e andar.

Além disso, Ousman Umar, da NASCO Feeding Minds, fez uma apresentação particularmente sentida, partilhando a forma como a sua organização está a mudar vidas ao proporcionar educação em TI no Gana. A sua fundação criou 17 centros de TIC, formando mais de 65.000 estudantes, com o objetivo de criar empregos locais na área da tecnologia para ajudar a resolver problemas como a imigração ilegal. A poderosa história de Umar mostrou como a educação e a tecnologia juntas podem gerar mudanças duradouras em comunidades carentes.

Conversas técnicas: YOLO Destaques dos oradores do Vision

O YV24 também apresentou diferentes palestras centradas na forma como a IA e o hardware se estão a unir para gerar novas ideias. Especialistas de empresas como a IntelSony, e NVIDIA abordaram a implementação de modelos YOLO em dispositivos de ponta e a otimização do desempenho. Dmitriy Pastushenkov e Adrian Boguszewski da Intel descreveram como o seu hardware suporta modelos YOLO em NPU, CPU e GPU, enquanto Amir Servi e Wei Tang da Sony partilharam como YOLO se integra na plataforma AITRIOS para uma implementação eficiente de IA de ponta. Guy Dahan, da NVIDIA , falou sobre a utilização da sua arquitetura GPU para melhorar a inferência de modelos YOLO . 

Figura 5. Guy Dahan fala sobre a otimização da inferência do modelo YOLO utilizando a arquitetura GPU da NVIDIA.

Outras empresas como a Qualcomm, Hugging Facee Lightning AItambém mostraram como suas plataformas facilitam a integração e a implantação de modelos YOLO pelos desenvolvedores. Devang Aggarwal, da Qualcomm, apresentou como modelos como YOLOv8 podem ser otimizados para dispositivos Snapdragon por meio do Qualcomm AI Hub.

Da mesma forma, Pavel Lakubovskii, de Hugging Face , descreveu como as suas ferramentas de código aberto permitem uma integração perfeita de modelos como YOLOv8 em vários fluxos de trabalho, enquanto Luca Antiga, da Lightning AI, nos mostrou como os programadores podem incorporar facilmente modelos como YOLOv8 ao nível do código para uma prototipagem e iterações mais rápidas.

Uma semana em Madrid: YOLO Sessões de networking sobre a visão

Na semana que antecedeu o YV24, a equipa do Ultralytics reuniu-se em Madrid para uma mistura de workshops, reuniões de colaboração e actividades fora do local de trabalho. Estas actividades foram além do trabalho, fomentando relações mais fortes e criando uma atmosfera positiva antes do evento. Terminando com uma festa comemorativa, os participantes e os oradores tiveram a oportunidade de estabelecer contactos, partilhar as principais conclusões e explorar futuras colaborações. A combinação de trabalho de equipa e camaradagem fez do YV24 um sucesso profissional e uma experiência memorável.

Fig. 6. A equipa de Ultralytics a celebrar um dia fantástico em YOLO Vision 2024.

YOLO Visão das inovações da IA e o que te espera

O YV24 reuniu inovação, colaboração e um olhar sobre o futuro da visão computacional. Com o lançamento de YOLO11, painéis envolventes e debates sobre hardware de IA e soluções de ponta, o evento centrou-se na forma como a IA de visão pode fazer a diferença e como a tecnologia está a mudar para acompanhar os avanços da IA. Também reforçou as ligações dentro da comunidade. Especialistas e entusiastas partilharam ideias e exploraram o potencial da visão por computador e YOLO. O evento terminou com uma divertida sessão de perguntas e respostas, na qual foram sorteadas camisolas Ultralytics , deixando todos entusiasmados com mais inovações como YOLO11 no futuro.

Visita o nosso repositório GitHub e liga-te à nossa próspera comunidade para saberes mais sobre IA. Vê como a Vision AI está a redefinir a inovação em sectores como os cuidados de saúde e a agricultura. 🚀

Logótipo do FacebookLogótipo do TwitterLogótipo do LinkedInSímbolo de ligação de cópia

Ler mais nesta categoria

Vamos construir juntos o futuro
da IA!

Começa a tua viagem com o futuro da aprendizagem automática