Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Monitorización de Modelos

Explora la importancia de la supervisión de modelos en la IA. Aprende a track la deriva track y las métricas de rendimiento, y utiliza la Ultralytics para mantener la solidez Ultralytics .

La supervisión de modelos es la práctica continua de rastrear, analizar y evaluar el rendimiento de los modelos de aprendizaje automático (ML) después de que se hayan implementado en producción. Mientras que el software tradicional suele funcionar de forma determinista, es decir, esperando el mismo resultado para una entrada determinada de forma indefinida, los modelos predictivos se basan en patrones estadísticos que pueden evolucionar con el tiempo. A medida que cambia el entorno del mundo real, los datos introducidos en estos modelos pueden variar, lo que provoca una degradación de la precisión o la fiabilidad. La supervisión garantiza que los sistemas de inteligencia artificial (IA) sigan aportando valor al identificar problemas como la deriva de datos o la deriva de conceptos antes de que afecten negativamente a los resultados empresariales o a la experiencia del usuario.

La importancia de la supervisión posterior al despliegue

En el ciclo de vida de las operaciones de aprendizaje automático (MLOps) , la implementación no es la meta final. Un modelo entrenado con datos históricos representa una instantánea del mundo en un momento específico. Con el tiempo, factores externos —como cambios estacionales, cambios económicos o nuevos comportamientos de los usuarios— pueden alterar la distribución de datos subyacente. Este fenómeno, conocido como deriva de datos, puede conducir a «fallos silenciosos» en los que el modelo produce predicciones sin mensajes de error, pero la calidad de esas predicciones cae por debajo de los estándares aceptables .

Una supervisión eficaz proporciona visibilidad de estos cambios sutiles. Al establecer líneas de base utilizando datos de validación y compararlos con flujos de producción en tiempo real, los equipos de ingeniería pueden detect de forma temprana. Este enfoque proactivo permite reentrenar o actualizar los modelos de forma oportuna, lo que garantiza que sistemas como los vehículos autónomos o los algoritmos de detección de fraudes sigan siendo seguros y eficaces.

Métricas clave en la supervisión de modelos

Para mantener un sistema de aprendizaje automático saludable, los profesionales track de track métricas que, por lo general, se clasifican en tres categorías:

  • Métricas de fiabilidad del servicio: estas métricas track estado operativo del motor de inferencia. Los indicadores clave incluyen la latencia de inferencia (el tiempo que tarda una predicción) y la utilización de los recursos del sistema, como GPU . Herramientas como Prometheus se utilizan habitualmente para recopilar y almacenar estas métricas a nivel del sistema.
  • Métricas de calidad de los datos: garantizan que los datos de entrada coincidan con el esquema y la distribución estadística esperados . Por ejemplo, un aumento repentino de los valores perdidos o un cambio en el valor medio de una característica podrían indicar una ruptura en el flujo de datos ascendentes. Las pruebas estadísticas, como la prueba de Kolmogorov-Smirnov , ayudan a cuantificar la distancia entre las distribuciones de formación y producción.
  • Métricas de rendimiento: lo ideal es que los equipos supervisen métricas de referencia como la precisión, la exactitud y la recuperación. Sin embargo, en la producción, las etiquetas verdaderas suelen retrasarse o no estar disponibles. En tales casos, se utilizan métricas proxy como las puntuaciones de confianza de la predicción o la estabilidad de la distribución de los resultados para evaluar el estado.

Aplicaciones en el mundo real

La supervisión de modelos es fundamental en diversos sectores en los que las decisiones automatizadas afectan a las operaciones y la seguridad:

  • Visión artificial en la fabricación: en la fabricación inteligente, los modelos de inspección visual detect en las líneas de montaje. Con el tiempo, las lentes de las cámaras pueden acumular polvo o la iluminación de la fábrica puede cambiar, lo que provoca que el modelo clasifique erróneamente como defectuosas piezas que no lo son. La supervisión de la tasa de detecciones positivas ayuda a identificar esta desviación, lo que da lugar a un mantenimiento o recalibración mediante Ultralytics .
  • Detección de fraudes financieros: los bancos utilizan el aprendizaje automático para señalar transacciones sospechosas. Los delincuentes adaptan constantemente sus estrategias para evadir la detección, lo que conduce a una deriva conceptual. Al supervisar la proporción de transacciones señaladas e investigar los comentarios de los revisores humanos, los científicos de datos pueden actualizar rápidamente los modelos para reconocer nuevos patrones de fraude .

Monitorización frente a observabilidad

Es útil distinguir entre supervisión y observabilidad, ya que desempeñan funciones complementarias. La supervisión de modelos suele ser reactiva y centrarse en «incógnitas conocidas», utilizando paneles de control para alertar a los equipos cuando métricas específicas superan un umbral (por ejemplo, la precisión cae por debajo del 90 %). La observabilidad profundiza en las «incógnitas desconocidas», proporcionando registros y trazas granulares que permiten a los ingenieros depurar por qué ha fallado una predicción específica o por qué un modelo muestra sesgos en la IA contra un determinado grupo demográfico.

Ejemplo: Seguimiento de la confianza en la predicción

Una forma sencilla de supervisar el estado de un modelo de visión por ordenador es track confianza media de sus predicciones. Una caída significativa de la confianza podría indicar que el modelo se está encontrando con datos para cuyo tratamiento no ha sido entrenado.

A continuación se muestra un Python que utiliza YOLO26 para extraer puntuaciones de confianza de un lote de imágenes con fines de supervisión:

import numpy as np
from ultralytics import YOLO

# Load the YOLO26 model
model = YOLO("yolo26n.pt")

# Run inference on a source (e.g., a video frame or image list)
results = model(["bus.jpg", "zidane.jpg"])

# Extract confidence scores for monitoring
for i, result in enumerate(results):
    # Get the confidence scores for all detected objects
    confidences = result.boxes.conf.cpu().numpy()

    if len(confidences) > 0:
        avg_conf = np.mean(confidences)
        print(f"Image {i}: Average Detection Confidence: {avg_conf:.3f}")
    else:
        print(f"Image {i}: No objects detected.")

El registro periódico de estas estadísticas permite a los equipos visualizar las tendencias a lo largo del tiempo utilizando herramientas como Grafana o las funciones de supervisión de la Ultralytics , lo que garantiza que los modelos sigan siendo robustos en entornos dinámicos .

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora