Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

CPU

Explore o papel vital da CPU IA. Aprenda a otimizar o pré-processamento e o pós-processamento de dados e execute a inferência Ultralytics em dispositivos de ponta hoje mesmo.

CPU Unidade Central de Processamento (CPU) é o principal componente de um computador que atua como seu "cérebro", responsável por interpretar e executar instruções de hardware e software. No contexto da inteligência artificial (IA), a CPU desempenha um papel fundamental no tratamento de dados, na orquestração do sistema e na execução de inferências, particularmente em dispositivos de ponta onde a eficiência energética é crítica. Embora hardware especializado, como GPUs, seja frequentemente associado ao trabalho pesado de treinar modelos de deep learning, a CPU indispensável para o pipeline geral de machine learning (ML).

O papel das CPUs nos fluxos de trabalho de IA

Embora as GPUs sejam celebradas pelo seu enorme paralelismo durante o treino, a CPU o motor de muitas etapas essenciais do ciclo de vida da visão computacional (CV). A sua arquitetura, normalmente baseada em designs x86 (Intel, AMD) ou ARM, é otimizada para processamento sequencial e controlo lógico complexo .

  • Pré-processamento de dados: Antes que uma rede neural possa aprender, os dados devem ser preparados. As CPUs são excelentes em tarefas como carregamento de ficheiros, limpeza de dados e transformações complexas usando bibliotecas como NumPy e OpenCV.
  • Inferência de borda: para implementação no mundo real, nem sempre é viável executar modelos em servidores de grande porte. As CPUs permitem a implementação eficiente de modelos em hardware de consumo, como a execução Ultralytics em um laptop ou um Raspberry Pi.
  • Pós-processamento: Depois que um modelo gera probabilidades brutas, a CPU lida com a lógica final, como Supressão Não Máxima (NMS) na detecção de objetos, para filtrar previsões duplicadas e refinar os resultados.

CPU . GPU . TPU

Compreender o panorama do hardware é fundamental para otimizar as operações de aprendizagem automática (MLOps). Estes processadores diferem significativamente na sua arquitetura e casos de uso ideais.

  • CPU: Projetada para versatilidade e lógica complexa. Possui alguns núcleos poderosos que processam tarefas sequencialmente. É ideal para aumento de dados, gestão de pipeline e inferência de baixa latência em pequenos lotes.
  • GPU Unidade de Processamento Gráfico): Originalmente destinadas a gráficos, as GPUs possuem milhares de núcleos menores projetados para processamento paralelo. Elas são o padrão para treinamento de modelos, pois podem realizar multiplicações matriciais muito mais rapidamente do que uma CPU.
  • TPU UnidadeTensor ): Um circuito especializado (ASIC) desenvolvido pelo Google especificamente para tensor . Embora seja altamente eficiente para cargas de trabalho específicas, não possui a flexibilidade de uso geral de uma CPU.

Aplicações no Mundo Real

As CPUs são frequentemente o hardware preferido para aplicações em que o custo, a disponibilidade e o consumo de energia superam a necessidade de um rendimento bruto massivo.

  1. Câmaras de segurança inteligentes: Nos sistemas de alarme de segurança, as câmaras geralmente processam os feeds de vídeo localmente. Um modelo de deteção de objetos CPU pode identificar uma pessoa ou veículo e acionar um alerta sem enviar o vídeo para a nuvem, preservando a largura de banda e a privacidade do utilizador.
  2. Automação industrial: Nas fábricas, os sistemas de manutenção preditiva utilizam CPUs para monitorizar os dados dos sensores das máquinas. Esses sistemas analisam vibrações ou picos de temperatura em tempo real para prever falhas, garantindo uma automação de produção tranquila, sem a necessidade de GPU caros.

Executando inferência na CPU Ultralytics

Os programadores costumam testar modelos em CPUs para verificar a compatibilidade com ambientes de computação sem servidor ou dispositivos de baixo consumo de energia . A Ultralytics permite que você direcione facilmente a CPU, garantindo que a sua aplicação seja executada em qualquer lugar.

O exemplo a seguir demonstra como carregar um modelo leve e executar a inferência especificamente na CPU:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

Para melhorar ainda mais o desempenho em Intel , os desenvolvedores podem exportar seus modelos para o OpenVINO , que otimiza a estrutura da rede neural especificamente para a arquitetura x86. Para gerenciar conjuntos de dados e orquestrar essas implementações, ferramentas como Ultralytics simplificam o fluxo de trabalho, desde a anotação até a execução de ponta .

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora