Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Implementación de modelos

Aprenda a implementar modelos de aprendizaje automático en entornos de nube o periféricos. Descubra cómo la Ultralytics optimiza la exportación y la producción de YOLO26.

La implementación de modelos es la fase crítica en la que un modelo de aprendizaje automático entrenado se integra en un entorno de producción para tomar decisiones prácticas o realizar predicciones basadas en nuevos datos. Representa la transición de un entorno de investigación o experimental —a menudo realizado en cuadernos aislados— a una aplicación en vivo donde el modelo interactúa con usuarios y sistemas del mundo real. Este proceso transforma un archivo estático de pesos y arquitectura en un agente de IA activo capaz de generar valor, como identificar objetos en una transmisión de vídeo o recomendar productos en un sitio web.

Una implementación eficaz requiere abordar retos distintos de los del entrenamiento de modelos, como la latencia, la escalabilidad y la compatibilidad del hardware . Las organizaciones suelen utilizar la Ultralytics para optimizar este ciclo de vida, garantizando que los modelos entrenados en la nube puedan entregarse sin problemas a diversos entornos, desde potentes servidores hasta dispositivos periféricos con recursos limitados.

El panorama de implementación

Las estrategias de implementación suelen dividirse en dos categorías: implementación en la nube e implementación en el borde. La elección depende en gran medida de los requisitos específicos de velocidad, privacidad y conectividad.

  • Implementación en la nube: el modelo reside en servidores centralizados, a menudo gestionados por servicios como AWS SageMaker o Google AI. Las aplicaciones envían datos a través de Internet al modelo mediante una REST API, que procesa la solicitud y devuelve el resultado. Este método ofrece una potencia de cálculo prácticamente ilimitada, lo que lo hace ideal para modelos grandes y complejos, pero depende de una conexión a Internet estable.
  • Implementación en el borde: El modelo se ejecuta localmente en el dispositivo donde se generan los datos, como un teléfono inteligente, un dron o una cámara de fábrica. Este enfoque, conocido como computación en el borde, minimiza la latencia y mejora la privacidad de los datos, ya que la información no sale del dispositivo. Herramientas como TensorRT se utilizan con frecuencia para optimizar los modelos para estos entornos.

Preparación de modelos para la producción

Antes de que un modelo pueda implementarse, normalmente se somete a un proceso de optimización para garantizar que funcione de manera eficiente en el hardware de destino . Este proceso implica la exportación del modelo, en la que el formato de entrenamiento (como PyTorch) se convierte a un formato adecuado para la implementación, como ONNX (Open Neural Network Exchange) u OpenVINO.

Las técnicas de optimización, como la cuantificación, reducen el tamaño del modelo y el espacio que ocupa en la memoria sin sacrificar significativamente la precisión. Para garantizar la coherencia entre los diferentes entornos informáticos, los desarrolladores suelen utilizar herramientas de contenedorización como Docker, que empaquetan el modelo con todas sus dependencias de software necesarias.

A continuación se muestra un ejemplo de cómo exportar un modelo YOLO26 al ONNX , un paso habitual en la preparación para la implementación:

from ultralytics import YOLO

# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")

# Export the model to ONNX format for broad compatibility
# This creates a file suitable for various inference engines
path = model.export(format="onnx")

print(f"Model successfully exported to: {path}")

Aplicaciones en el mundo real

El despliegue de modelos impulsa los sistemas de visión artificial ampliamente utilizados en diversas industrias.

  • Control de calidad de fabricación: en la fabricación inteligente, los modelos implementados supervisan las cintas transportadoras en tiempo real. Un sistema de cámaras que ejecuta un modelo optimizado para dispositivos NVIDIA puede detect instantáneamente detect en los productos, lo que activa un brazo robótico para retirar los artículos defectuosos. Esto requiere una latencia ultrabaja que solo puede proporcionar la implementación de IA en el borde.
  • Análisis minorista: Las tiendas utilizan modelos implementados para analizar el tráfico peatonal y el comportamiento de los clientes. Al integrar modelos de seguimiento de objetos en las imágenes de las cámaras de seguridad , los minoristas pueden generar mapas de calor de los pasillos más populares. Esta información ayuda a optimizar la distribución de las tiendas y a mejorar la gestión del inventario, a menudo utilizando una implementación basada en la nube para agregar datos de múltiples ubicaciones.

Implementación frente a inferencia frente a entrenamiento

Es importante distinguir el despliegue de modelos de otros términos relacionados en el ciclo de vida del aprendizaje automático:

  • El entrenamiento del modelo es la fase educativa en la que el algoritmo aprende patrones a partir de un conjunto de datos.
  • La implementación del modelo es la fase de integración en la que el modelo entrenado se instala en una infraestructura de producción (servidores, aplicaciones o dispositivos).
  • La inferencia es la fase operativa, es decir, el acto real por el cual el modelo implementado procesa datos en tiempo real para generar una predicción. Por ejemplo, el motor de inferencia ejecuta los cálculos definidos por el modelo implementado.

Supervisión y mantenimiento

La implementación no es el final del camino. Una vez en funcionamiento, los modelos requieren una supervisión continua para detect como la deriva de datos, en la que los datos del mundo real comienzan a divergir de los datos de entrenamiento. Herramientas como Prometheus o Grafana se integran a menudo para track las métricas track , lo que garantiza que el sistema siga siendo fiable a lo largo del tiempo. Cuando el rendimiento disminuye, es posible que sea necesario volver a entrenar y reimplementar el modelo, completando así el ciclo de MLOps.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora