Aprenda a implementar modelos de aprendizaje automático en entornos de nube o periféricos. Descubra cómo la Ultralytics optimiza la exportación y la producción de YOLO26.
La implementación de modelos es la fase crítica en la que un modelo de aprendizaje automático entrenado se integra en un entorno de producción para tomar decisiones prácticas o realizar predicciones basadas en nuevos datos. Representa la transición de un entorno de investigación o experimental —a menudo realizado en cuadernos aislados— a una aplicación en vivo donde el modelo interactúa con usuarios y sistemas del mundo real. Este proceso transforma un archivo estático de pesos y arquitectura en un agente de IA activo capaz de generar valor, como identificar objetos en una transmisión de vídeo o recomendar productos en un sitio web.
Una implementación eficaz requiere abordar retos distintos de los del entrenamiento de modelos, como la latencia, la escalabilidad y la compatibilidad del hardware . Las organizaciones suelen utilizar la Ultralytics para optimizar este ciclo de vida, garantizando que los modelos entrenados en la nube puedan entregarse sin problemas a diversos entornos, desde potentes servidores hasta dispositivos periféricos con recursos limitados.
Las estrategias de implementación suelen dividirse en dos categorías: implementación en la nube e implementación en el borde. La elección depende en gran medida de los requisitos específicos de velocidad, privacidad y conectividad.
Antes de que un modelo pueda implementarse, normalmente se somete a un proceso de optimización para garantizar que funcione de manera eficiente en el hardware de destino . Este proceso implica la exportación del modelo, en la que el formato de entrenamiento (como PyTorch) se convierte a un formato adecuado para la implementación, como ONNX (Open Neural Network Exchange) u OpenVINO.
Las técnicas de optimización, como la cuantificación, reducen el tamaño del modelo y el espacio que ocupa en la memoria sin sacrificar significativamente la precisión. Para garantizar la coherencia entre los diferentes entornos informáticos, los desarrolladores suelen utilizar herramientas de contenedorización como Docker, que empaquetan el modelo con todas sus dependencias de software necesarias.
A continuación se muestra un ejemplo de cómo exportar un modelo YOLO26 al ONNX , un paso habitual en la preparación para la implementación:
from ultralytics import YOLO
# Load the YOLO26 nano model
model = YOLO("yolo26n.pt")
# Export the model to ONNX format for broad compatibility
# This creates a file suitable for various inference engines
path = model.export(format="onnx")
print(f"Model successfully exported to: {path}")
El despliegue de modelos impulsa los sistemas de visión artificial ampliamente utilizados en diversas industrias.
Es importante distinguir el despliegue de modelos de otros términos relacionados en el ciclo de vida del aprendizaje automático:
La implementación no es el final del camino. Una vez en funcionamiento, los modelos requieren una supervisión continua para detect como la deriva de datos, en la que los datos del mundo real comienzan a divergir de los datos de entrenamiento. Herramientas como Prometheus o Grafana se integran a menudo para track las métricas track , lo que garantiza que el sistema siga siendo fiable a lo largo del tiempo. Cuando el rendimiento disminuye, es posible que sea necesario volver a entrenar y reimplementar el modelo, completando así el ciclo de MLOps.