Explora cómo Edge AI y las innovaciones de NVIDIA, como Jetson, Triton y TensorRT, están simplificando la implantación de aplicaciones de visión computerizada.
Gracias a los recientes avances en visión por ordenador e inteligencia artificial (IA), lo que antes era sólo un campo de investigación está impulsando ahora aplicaciones de gran impacto en toda una serie de sectores. Desde los coches autoconducidos hasta la imagen médica y la seguridad, los sistemas de visión por ordenador están resolviendo problemas reales a gran escala.
Muchas de estas aplicaciones implican analizar imágenes y vídeo en tiempo real, y confiar en la computación en nube no siempre es práctico debido a la latencia, los costes y los problemas de privacidad. La IA de borde es una gran solución en estas situaciones. Al ejecutar los modelos de Vision AI directamente en los dispositivos periféricos, las empresas pueden procesar los datos más rápidamente, de forma más asequible y con mayor seguridad, haciendo que la IA en tiempo real sea más accesible.
Durante YOLO Vision 2024 (YV24), el evento híbrido anual organizado por Ultralytics, uno de los temas centrales fue la democratización de Vision AI haciendo que el despliegue sea más fácil de usar y eficiente. Guy Dahan, Arquitecto Senior de Soluciones de NVIDIA, habló de cómo las soluciones de hardware y software NVIDIA, incluidos los dispositivos de computación de borde, los servidores de inferencia, los marcos de optimización y los SDK de despliegue de IA, están ayudando a los desarrolladores a optimizar la IA en el borde.
En este artículo, exploraremos los puntos clave de la ponencia de Guy Dahan en YV24 y cómo las últimas innovaciones de NVIDIAestán haciendo que la implementación de Vision AI sea más rápida y escalable.
Guy Dahan comenzó su charla expresando su entusiasmo por unirse virtualmente al YV24 y su interés por el paquetePython Ultralytics y los modelosYOLO de Ultraalytics, diciendo: "Llevo utilizando Ultralytics desde el día en que salió. Me gusta mucho Ultralytics ; ya antes utilizaba YOLOv5 , y soy un verdadero entusiasta de este paquete".
A continuación, introdujo el concepto de IA Edge, explicando que consiste en ejecutar cálculos de IA directamente en dispositivos como cámaras, drones o máquinas industriales, en lugar de enviar los datos a servidores distantes en la nube para su procesamiento.
En lugar de esperar a que se carguen imágenes o vídeos, se analicen y luego se envíen los resultados, Edge AI permite analizar los datos instantáneamente en el propio dispositivo. Esto hace que los sistemas de IA Vision sean más rápidos, más eficientes y menos dependientes de la conectividad a Internet. Edge AI es especialmente útil para aplicaciones de toma de decisiones en tiempo real, como coches autoconducidos, cámaras de seguridad y fábricas inteligentes.
Tras presentar la IA Edge, Guy Dahan destacó sus principales ventajas, centrándose en la eficacia, el ahorro de costes y la seguridad de los datos. Explicó que una de las mayores ventajas es la baja latencia: como los modelos de IA procesan los datos directamente en el dispositivo, no hay necesidad de enviar información a la nube y esperar una respuesta.
La IA Edge también ayuda a reducir costes y a proteger los datos sensibles. Enviar grandes cantidades de datos a la nube, especialmente secuencias de vídeo, puede resultar caro. Sin embargo, procesarlos localmente reduce los costes de ancho de banda y almacenamiento.
Otra ventaja clave es la privacidad de los datos, ya que la información permanece en el dispositivo en lugar de transferirse a un servidor externo. Esto es especialmente importante para las aplicaciones sanitarias, financieras y de seguridad, donde mantener los datos locales y seguros es una prioridad absoluta.
Basándose en estas ventajas, Guy Dahan comentó la creciente adopción de la IA Edge. Señaló que desde que NVIDIA introdujo Jetson en 2014, el uso se ha multiplicado por diez. En la actualidad, más de 1,2 millones de desarrolladores trabajan con dispositivos Jetson.
A continuación, Guy Dahan se centró en los dispositivosNVIDIA Jetson, una familia de dispositivos de computación AI edge diseñados para ofrecer un alto rendimiento con un bajo consumo de energía. Los dispositivos Jetson son ideales para aplicaciones de visión computerizada en sectores como la robótica, la agricultura, la sanidad y la automatización industrial. "Los Jetson son dispositivos Edge AI hechos específicamente a medida para la IA. Incluso podría añadir que originalmente se diseñaron sobre todo para la visión por ordenador", añadió Guy Dahan.
Los dispositivos Jetson se presentan en tres niveles, cada uno adecuado para necesidades diferentes:
Además, Guy Dahan habló del próximo Jetson AGX Thor, que se lanzará este año, y dijo que ofrecerá un rendimiento ocho veces mayor de GPU (Unidad de Procesamiento Gráfico), el doble de capacidad de memoria y un rendimiento mejorado de CPU (Unidad Central de Procesamiento). Está diseñado específicamente para robótica humanoide y aplicaciones avanzadas de IA Edge.
A continuación, Guy Dahan pasó a hablar del lado del software de la IA Edge y explicó que, incluso con un hardware potente, desplegar modelos de forma eficiente puede ser todo un reto.
Uno de los mayores obstáculos es la compatibilidad, ya que los desarrolladores de IA suelen trabajar con diferentes marcos de IA, como PyTorch y TensorFlow. Pasar de un marco a otro puede resultar difícil, ya que los desarrolladores tienen que volver a crear entornos para asegurarse de que todo funciona correctamente.
La escalabilidad es otro reto clave. Los modelos de IA requieren una potencia de cálculo considerable, y como dice Dahan: "Nunca ha habido una empresa de IA que quiera menos computación". Ampliar las aplicaciones de IA a múltiples dispositivos puede resultar caro rápidamente, por lo que la optimización es esencial.
Además, las canalizaciones de IA son complejas, y a menudo implican distintos tipos de datos, procesamiento en tiempo real e integración de sistemas. Los desarrolladores dedican mucho esfuerzo a asegurarse de que sus modelos interactúan sin problemas con los ecosistemas de software existentes. Superar estos retos es una parte crucial para que los despliegues de IA sean más eficientes y escalables.
A continuación, Guy Dahan centró su atención en el Servidor de InferenciaTriton de NVIDIA. Señaló que muchas empresas y startups comienzan el desarrollo de la IA sin optimizar completamente sus modelos. Rediseñar todo un proceso de IA desde cero puede ser perturbador y llevar mucho tiempo, lo que dificulta un escalado eficiente.
En lugar de requerir una revisión completa del sistema, Triton permite a los desarrolladores refinar y optimizar gradualmente sus flujos de trabajo de IA, integrando componentes más eficientes sin romper la configuración existente. Al ser compatible con múltiples marcos de IA, como TensorFlow, PyTorch, ONNX y TensorRT, Triton permite un despliegue sin fisuras en entornos de nube, centros de datos y dispositivos periféricos con ajustes mínimos.
Estas son algunas de las principales ventajas del Servidor de Inferencia Triton de NVIDIA:
Supongamos que buscas aún más aceleración; NVIDIA TensorRT es una opción interesante para optimizar tus modelos de IA. Guy Dahan explicó que TensorRT es un optimizador de aprendizaje profundo de alto rendimiento creado para las GPU NVIDIA . Los modelos de TensorFlow, PyTorch, ONNX y MXNet pueden convertirse en archivos GPU altamente eficientes utilizando TensorRT.
Lo que hace que TensorRT sea tan fiable son sus optimizaciones específicas de hardware. Un modelo optimizado para dispositivos Jetson no funcionará con la misma eficacia en otras GPU porque TensorRT ajusta el rendimiento en función del hardware de destino. Un modelo de visión por ordenador optimizado puede aumentar la velocidad de inferencia hasta 36 veces en comparación con modelos no optimizados.
Guy Dahan también llamó la atención sobre la compatibilidad de Ultralytics con TensorRT, hablando de cómo hace que el despliegue de modelos de IA sea más rápido y eficiente. Los modelosYOLO Ultralytics pueden exportarse directamente al formato TensorRT , lo que permite a los desarrolladores optimizarlos para las GPU NVIDIA sin necesidad de realizar ningún cambio.
Para concluir la charla con broche de oro, Guy Dahan presentó DeepStream 7.0, un marco de IA diseñado para el procesamiento en tiempo real de datos de vídeo, audio y sensores mediante GPU NVIDIA . Diseñado para aplicaciones de visión computerizada de alta velocidad, permite la detección, el seguimiento y el análisis de objetos en sistemas autónomos, seguridad, automatización industrial y ciudades inteligentes. Al ejecutar la IA directamente en los dispositivos periféricos, DeepStream elimina la dependencia de la nube, reduciendo la latencia y mejorando la eficiencia.
En concreto, DeepStream puede gestionar el procesamiento de vídeo basado en IA de principio a fin. Admite flujos de trabajo integrales, desde la descodificación y el preprocesamiento de vídeo hasta la inferencia y el postprocesamiento de IA.
Recientemente, DeepStream ha introducido varias actualizaciones para mejorar la implementación de la IA, haciéndola más accesible y escalable. Las nuevas herramientas simplifican el desarrollo, mejoran el seguimiento multicámara y optimizan los conductos de IA para mejorar el rendimiento.
Los desarrolladores disponen ahora de mayor compatibilidad con entornos Windows, capacidades mejoradas de fusión de sensores para integrar datos de múltiples fuentes, y acceso a aplicaciones de referencia preconstruidas para acelerar la implantación. Estas mejoras hacen de DeepStream una solución más flexible y eficiente para las aplicaciones de IA en tiempo real, ayudando a los desarrolladores a escalar el análisis inteligente de vídeo con facilidad.
Como se ilustró en la ponencia de Guy Dahan en YV24, la IA Edge está redefiniendo las aplicaciones de visión por ordenador. Con los avances en hardware y software, el procesamiento en tiempo real es cada vez más rápido, eficaz y rentable.
A medida que más industrias adoptan la IA Edge, abordar retos como la fragmentación y la complejidad del despliegue será clave para liberar todo su potencial. Adoptar estas innovaciones impulsará aplicaciones de IA más inteligentes y con mayor capacidad de respuesta, dando forma al futuro de la visión por ordenador.
¡Forma parte de nuestra creciente comunidad! Explora nuestro repositorio de GitHub para saber más sobre la IA, y consulta nuestras opciones de licencia para poner en marcha tus proyectos de Vision AI. ¿Sientes curiosidad por innovaciones como la IA en la sanidad y la visión por ordenador en la fabricación? Visita nuestras páginas de soluciones para obtener más información.
Comienza tu viaje con el futuro del aprendizaje automático