Glosario

Motor de inferencia

Descubre cómo los motores de inferencia potencian la IA proporcionando predicciones en tiempo real, optimizando modelos y permitiendo el despliegue multiplataforma.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

En el ámbito de la inteligencia artificial y el aprendizaje automático, un motor de inferencia es el componente responsable de desplegar modelos entrenados para hacer predicciones sobre datos nuevos y no vistos. Toma un modelo entrenado y lo aplica a datos del mundo real para realizar tareas como la detección de objetos, la clasificación de imágenes o el procesamiento del lenguaje natural. Esencialmente, es el motor que impulsa la fase de "inferencia" del aprendizaje automático, en la que los patrones aprendidos se utilizan para analizar e interpretar nuevas entradas, permitiendo a los sistemas de IA resolver problemas y tomar decisiones en tiempo real.

Cómo funcionan los motores de inferencia

Los motores de inferencia funcionan utilizando modelos preentrenados que ya han sido sometidos a un amplio entrenamiento en grandes conjuntos de datos. Estos modelos, a menudo desarrollados utilizando marcos como PyTorchcontienen el conocimiento aprendido necesario para realizar tareas específicas. Cuando se introducen nuevos datos, como una imagen o un texto, el motor de inferencia los procesa a través del modelo preentrenado. Este proceso genera una salida, que puede ser un cuadro delimitador de detección de objetos, una etiqueta de clasificación o un sentimiento predicho. Ultralytics YOLO Los modelos, por ejemplo, confían en los motores de inferencia para realizar la detección, segmentación y clasificación de objetos en tiempo real en diversas plataformas, desde dispositivos de borde con recursos limitados hasta potentes servidores en la nube. La eficiencia de un motor de inferencia es crucial para las aplicaciones del mundo real, ya que influye tanto en la velocidad como en la precisión de las predicciones.

Características principales de los motores de inferencia

  • Inferencia en tiempo real: Los motores de inferencia están diseñados para la velocidad, permitiendo la inferencia en tiempo real para la toma inmediata de decisiones en entornos dinámicos.
  • Despliegue multiplataforma: Admiten el despliegue en distintos tipos de hardware, desde dispositivos periféricos como NVIDIA Jetson hasta infraestructuras en la nube, garantizando versatilidad y escalabilidad.
  • Optimización de modelos: Los motores de inferencia suelen incorporar técnicas de optimización, como la cuantización y la poda de modelos, para mejorar el rendimiento y reducir las demandas computacionales.
  • Integración con aceleradores de hardware: Están diseñados para aprovechar aceleradores de hardware como TensorRT y OpenVINO para optimizar el rendimiento en arquitecturas de hardware específicas.
  • Compatibilidad con múltiples formatos de modelo: La compatibilidad con formatos de modelo estándar como ONNX permite una integración perfecta con modelos formados en diferentes marcos.

Aplicaciones de los motores de inferencia

1. Conducción autónoma

En los coches autoconducidos, los motores de inferencia son el núcleo del sistema de percepción. Procesan datos en tiempo real procedentes de sensores como cámaras y LiDAR para detectar objetos, peatones y marcas de carril, permitiendo al vehículo circular con seguridad. Ultralytics YOLO Los modelos, cuando se despliegan utilizando motores de inferencia eficientes, garantizan una detección de objetos rápida y precisa, lo que es fundamental para la seguridad y la capacidad de respuesta de los vehículos autónomos.

2. Análisis de imágenes médicas

En sanidad, los motores de inferencia están revolucionando el diagnóstico. Por ejemplo, en el análisis de imágenes médicas, los modelos entrenados para detectar anomalías en imágenes médicas como resonancias magnéticas o tomografías computarizadas pueden desplegarse en motores de inferencia para ayudar a los radiólogos. Estos motores pueden analizar rápidamente las imágenes y resaltar posibles áreas de preocupación, mejorando la velocidad y la precisión del diagnóstico y facilitando la detección precoz de enfermedades como los tumores cerebrales.

Técnicas de optimización

Para que los motores de inferencia funcionen de forma óptima, se emplean diversas técnicas de optimización. La cuantización del modelo reduce la precisión numérica de los pesos del modelo, disminuyendo el tamaño del modelo y acelerando el cálculo. La poda de modelos elimina las conexiones menos importantes de la red neuronal, simplificando el modelo y mejorando la velocidad sin pérdida significativa de precisión. Las optimizaciones específicas del hardware, como el aprovechamiento de NVIDIA TensorRT en las GPU de NVIDIA , mejoran aún más la velocidad de inferencia adaptando la ejecución del modelo a la arquitectura del hardware.

Diferenciar los motores de inferencia de los conceptos relacionados

Aunque los motores de inferencia son cruciales para desplegar modelos de IA, son distintos de los marcos de entrenamiento como PyTorchque se utilizan para construir y entrenar modelos. Los motores de inferencia se centran únicamente en el despliegue y la ejecución de modelos ya entrenados. También son diferentes de las prácticas de despliegue de modelos, que abarcan las estrategias y metodologías más amplias para hacer que los modelos sean accesibles y operativos en entornos del mundo real.

Conclusión

Los motores de inferencia son indispensables para llevar la IA y los modelos de aprendizaje automático del laboratorio a las aplicaciones del mundo real. Su capacidad para ofrecer predicciones rápidas y precisas en diversos entornos los convierte en la piedra angular de la infraestructura moderna de la IA. Para quienes buscan agilizar el despliegue de la IA, plataformas como Ultralytics HUB ofrecen herramientas y recursos para desplegar y gestionar eficientemente modelos de IA impulsados por sólidos motores de inferencia.

Leer todo