Verificação verde
Link copiado para a área de transferência

Como utilizar Ultralytics YOLO11 para a segmentação de instâncias

Compreende como o novo modelo Ultralytics YOLO11 pode ser utilizado para a segmentação de exemplos, de modo a obter uma maior precisão em aplicações como a gestão de resíduos e a monitorização de chamas.

A visão por computador, um campo da inteligência artificial (IA) que ajuda as máquinas a interpretar e compreender a informação visual, permite tarefas como a segmentação de instâncias. A segmentação de instâncias pode ser utilizada para analisar uma imagem ou um fotograma de vídeo para marcar os limites exactos de cada objeto distinto na imagem, mesmo quando estão presentes vários objectos do mesmo tipo. Com o seu elevado nível de precisão, a segmentação de instâncias tem uma vasta gama de aplicações, desde ajudar os carros autónomos a detetar obstáculos na estrada até identificar tumores em exames médicos.

Ao longo dos anos, a segmentação das instâncias evoluiu significativamente. Um desenvolvimento recente foi apresentado durante o evento híbrido anual Ultralytics', YOLO Vision 2024 (YV24), sob a forma do modelo Ultralytics YOLO11 modelo. O novo modelo suporta as mesmas tarefas de visão por computador (incluindo a segmentação de instâncias) que o modelo Ultralytics YOLOv8 modelo, pelo que os utilizadores familiarizados com as versões anteriores podem adotar o novo modelo sem problemas.

Fig. 1. Um exemplo de utilização do modelo Ultralytics YOLO11 para segmentação de instâncias.

Neste artigo, vamos explorar a segmentação de instâncias e como ela difere de outras tarefas de visão computacional, como a segmentação semântica, além de discutir algumas de suas aplicações. Também mostraremos como podes usar o modelo de segmentação de instância YOLO11 usando o pacoteUltralytics Python e a plataforma HUB Ultralytics . Vamos começar!

O que é a segmentação de instâncias?

A segmentação de instâncias pode ser utilizada para identificar objectos numa imagem e delineá-los ao nível do pixel. Normalmente, o processo envolve primeiro a deteção de objectos e o desenho de caixas delimitadoras à sua volta. Depois, um algoritmo de segmentação classifica cada pixel dentro da caixa delimitadora para criar uma máscara precisa para cada objeto.

A segmentação de instâncias também é diferente de tarefas como a segmentação semântica e a segmentação panóptica. A segmentação sem ântica rotula cada pixel com base na categoria geral de um objeto, sem distinguir instâncias individuais. A segmentação panóptica, por outro lado, combina a segmentação de instância e a segmentação semântica, rotulando cada pixel com uma classe e um ID de instância, identificando objetos individuais dentro de cada categoria.

Fig. 2. Utiliza o YOLO11 para detetar e segmentar uma pessoa e um cão.

As capacidades da segmentação de instâncias podem ser aplicadas em vários cenários que podem exigir modelos diferentes. Por exemplo, um modelo leve pode ser ideal para o processamento em tempo real em aplicações móveis, enquanto um modelo mais complexo pode ser utilizado para tarefas de alta precisão, como o controlo de qualidade no fabrico.

Tal como os modelos anteriores, o modelo de YOLO11 modelo de segmentação de instância também vem com diversas variações, dependendo das tuas necessidades. Estas variações incluem o YOLO11n-seg (Nano), YOLO11s-seg (Small), YOLO11m-seg (Medium), YOLO11l-seg (Large) e YOLO11x-seg (Extra Large). Estes modelos variam em termos de tamanho, velocidade de processamento, precisão e quantidade de potência computacional necessária. Com base nos teus requisitos específicos, podes escolher o modelo que melhor se adapta à tua aplicação.

Aplicações de segmentação de instâncias para YOLO11

As capacidades avançadas de segmentação de instâncias do YOLO11 abrem uma gama de aplicações em vários sectores. Vamos analisar mais de perto algumas dessas aplicações.

Usando YOLO11 Segmentação na indústria de petróleo e gás

A extração de petróleo e gás envolve a gestão de flutuações de pressão extremamente elevadas. Técnicas como a queima de gás ajudam a queimar o gás natural que é produzido durante a extração de petróleo. É necessário por razões de segurança. Por exemplo, na extração de petróleo bruto, um pico de pressão súbito ou significativo pode levar a uma explosão. Embora pouco frequentes, os acidentes industriais no sector da produção de petróleo e gás podem resultar em incêndios intensos que são difíceis de conter e controlar. A queima de gás ajuda os operadores a despressurizar com segurança o equipamento e a gerir grandes flutuações de pressão imprevisíveis, queimando o excesso de gás.

Os sistemas de IA podem melhorar este processo de monitorização e o risco de acidentes pode ser reduzido através da utilização de um sistema de monitorização de chamas baseado na segmentação de instâncias. A monitorização da queima de gás também é importante por razões ambientais, uma vez que a queima excessiva pode ter um impacto negativo no ambiente. 

Ultralytics YOLO11 Os modelosde segmentação de instâncias podem ser utilizados para monitorizar a quantidade de fogo e fumo causados pela queima. A área de pixel da chama e do fumo detectados e segmentados pode ser calculada. Com esta informação, os operadores podem obter informações em tempo real sobre as chamas e o fumo provocados pela queima, ajudando-os a evitar acidentes e impactos ambientais negativos. 

Fig. 3. Um exemplo de monitorização de flare utilizando YOLO11 no fabrico de petróleo e gás.

Segmentação de instâncias com YOLO11 para a gestão de resíduos plásticos 

Os trabalhadores das instalações de gestão de resíduos e de reciclagem podem utilizar os sistemas baseados na segmentação da instância YOLO11 para identificar os materiais de resíduos de plástico. O YOLO11 pode ser integrado em sistemas robóticos de triagem para identificar com precisão diferentes materiais de resíduos, como o cartão e o plástico (a serem processados separadamente). Isto é especialmente importante se tivermos em conta que, dos 7 mil milhões de toneladas de resíduos de plástico produzidos a nível mundial, apenas cerca de 10% são reciclados.

Automatizar a identificação e a classificação de resíduos plásticos reduz significativamente o tempo necessário em comparação com os métodos tradicionais, em que os trabalhadores classificam os itens manualmente. Os modelos de visão por computador podem até segmentar plásticos macios, como embalagens e sacos, que são particularmente desafiadores porque muitas vezes ficam emaranhados. YOLO11 modelos também podem ser treinados de forma personalizada para segmentar diferentes tipos de plásticos. Saberemos mais sobre como podes treinar um modelo YOLO11 nas secções seguintes.

Fig. 4. Identifica os resíduos de plástico utilizando Ultralytics YOLO11 . 

YOLO11 Segmentação em veículos autónomos

Outro caso de utilização interessante da segmentação de instâncias é nos automóveis autónomos. O YOLO11 permite que os automóveis autónomos melhorem a segurança dos passageiros e a segurança dos outros na estrada, reconhecendo com precisão os objectos ao nível do pixel. O sistema de câmara de bordo do automóvel pode captar imagens do ambiente e analisá-las utilizando YOLO11 e a segmentação de instâncias. Cada objeto (peões, semáforos, outros veículos, etc.) dentro da imagem é segmentado e é-lhe atribuída uma etiqueta. Este nível de precisão dá aos carros autónomos a capacidade de identificar todos os objectos à sua volta. 

Fig. 5. Utiliza o YOLO11 e a segmentação de instâncias para identificar veículos e peões na estrada.

Experimenta a segmentação de instâncias com o modelo YOLO11

Agora que já explorámos a segmentação de instâncias e discutimos algumas das suas aplicações, vamos ver como podes experimentá-la utilizando o modelo Ultralytics YOLO11 . 

Há duas formas de o fazer: podes utilizar o pacote Ultralytics Python ou o Ultralytics HUB. Vamos explorar ambas, começando com o pacote Python .

Executar inferências usando YOLO11

A execução de uma inferência envolve o uso do modelo para analisar dados novos e não vistos anteriormente. Para executar uma inferência usando o modelo de segmentação de instância YOLO11 por meio de código, precisamos instalar o pacoteUltralytics Python usando pip, conda ou docker. Caso tenhas algum problema durante a instalação, podes consultar o nosso Guia de Problemas Comuns para obter ajuda na resolução de problemas. Depois que o pacote for instalado, é possível executar o código mostrado abaixo para carregar o modelo de segmentação de instância YOLO11 e executar previsões em uma imagem.

Fig. 6. Executa uma inferência numa imagem utilizando o YOLO11n-seg.

Treina um modelo YOLO11 personalizado

Com a mesma configuração de código, também podes treinar um modelo YOLO11 personalizado. Ao aperfeiçoar um modelo YOLO11 , podes criar uma versão personalizada do modelo que satisfaça melhor os requisitos específicos do teu projeto. Por exemplo, os retalhistas podem utilizar um modelo personalizado para segmentar com precisão as caraterísticas físicas de um cliente para recomendar roupas que se ajustem corretamente. O trecho de código abaixo mostra como carregar e treinar um modelo YOLO11 para segmentação de instância. Podes começar a partir de uma configuração YAML ou de um modelo pré-treinado, transferir pesos e treinar num conjunto de dados como COCO para obter uma segmentação eficaz. 


from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)

Uma vez concluída, podes efetuar inferências utilizando o modelo personalizado para as tuas aplicações específicas. Utilizando a opção de exportação, também podes exportar o teu modelo personalizado para um formato diferente.

YOLO11 Segmentação de instâncias em Ultralytics HUB

Agora que exploramos a execução de inferências e o treinamento personalizado de um modelo de segmentação de instância YOLO11 por meio de código, vamos analisar uma alternativa sem código: Ultralytics HUB. Ultralytics O HUB é uma plataforma intuitiva de IA de visão que simplifica o processo de treinamento e implantação de modelos YOLO , incluindo os modelos de segmentação de instância YOLO11 . 

Para executar a inferência em imagens, só tem de criar uma conta, ir à secção "Models" (Modelos) e selecionar a variante do modelo de segmentação de instâncias YOLO11 da sua escolha. Podes carregar uma imagem e ver os resultados da previsão na secção de pré-visualização, como se mostra abaixo.

Figura 7. Executa as inferências em Ultralytics HUB.

Principais conclusões

YOLO11 oferece capacidades fiáveis de segmentação de instâncias que abrem um mundo de possibilidades em várias indústrias. Desde o aumento da segurança em veículos autónomos e a monitorização da queima de gás no sector do petróleo e do gás até à automatização da separação de resíduos em instalações de reciclagem, a precisão ao nível do pixel do YOLO11torna-o ideal para tarefas de segmentação complexas. 

Com opções de formação personalizada através do pacote Ultralytics Python e uma configuração sem código através do Ultralytics HUB, os utilizadores podem integrar sem problemas o YOLO11 nos seus fluxos de trabalho. Quer seja para aplicações industriais, cuidados de saúde, retalho ou monitorização ambiental, o YOLO11 proporciona flexibilidade e precisão para satisfazer diversas necessidades de segmentação.

Para explorar mais, visita o nosso repositório GitHub e participa na nossa comunidade. Explora as aplicações de IA em carros autónomos e na agricultura nas nossas páginas de soluções. 🚀

Logótipo do FacebookLogótipo do TwitterLogótipo do LinkedInSímbolo de ligação de cópia

Ler mais nesta categoria

Vamos construir juntos o futuro
da IA!

Começa a tua viagem com o futuro da aprendizagem automática