Cheque verde
Enlace copiado en el portapapeles

Cómo utilizar Ultralytics YOLO11 para la detección de objetos

Explora cómo puede utilizarse el nuevo modelo Ultralytics YOLO11 para la detección de objetos con el fin de lograr una mayor precisión en diversas aplicaciones de distintos sectores industriales.

La visión por ordenador es un campo de la inteligencia artificial (IA) que ayuda a las máquinas a interpretar y comprender la información visual para realizar tareas esenciales como la detección de objetos. A diferencia de la clasificación de imágenes, la detección de objetos no sólo identifica qué objetos hay en una imagen, sino que también señala su ubicación exacta. Esto la convierte en una herramienta fundamental para aplicaciones de IA de visión como los coches autoconducidos, los sistemas de seguridad en tiempo real y la automatización de almacenes.

Con el tiempo, la tecnología de detección de objetos se ha vuelto más avanzada y fácil de usar. En el evento híbrido anual de Ultralytics', YOLO Vision 2024 (YV24), se anunció un gran paso adelante con el lanzamiento del modeloUltralytics YOLO11 . YOLO11 mejora la precisión y el rendimiento al tiempo que admite las mismas tareas que YOLOv8facilitando a los usuarios de modelos anteriores la transición sin problemas.

Fig. 1. Un ejemplo de utilización del modelo Ultralytics YOLO11 para la detección de objetos.

En este artículo, explicaremos qué es la detección de objetos, en qué se diferencia de otras tareas de visión por ordenador y exploraremos sus aplicaciones en el mundo real. También te explicaremos cómo utilizar el modelo YOLO11 con el paqueteUltralytics Python y la plataformaUltralytics HUB. ¡Vamos a empezar!

¿Qué es la Detección de Objetos?

La detección de objetos es una tarea fundamental de la visión por ordenador que hace algo más que identificar objetos en una imagen. A diferencia de la clasificación de imágenes, que sólo determina si hay un objeto concreto, la detección de objetos reconoce varios objetos y señala su ubicación exacta mediante cuadros delimitadores. 

Por ejemplo, puede identificar y localizar caras en una foto de grupo, coches en una calle concurrida o productos en la estantería de una tienda. Al combinar el reconocimiento de objetos y la localización, resulta especialmente útil para aplicaciones como la vigilancia, el control de multitudes y la gestión automatizada de inventarios.

Fig. 2. Utilizando YOLO11 para detectar caras.

Lo que diferencia la detección de objetos de otras tareas como la segmentación semántica o de instancias es su enfoque y eficacia. 

La segmentación semántica etiqueta cada píxel de una imagen, pero no diferencia entre objetos individuales del mismo tipo (por ejemplo, todas las caras de una foto se agruparían como "cara"). La segmentación por instancias va más allá, separando cada objeto y perfilando su forma exacta, incluso para objetos de la misma clase. 

La detección de objetos, sin embargo, proporciona un enfoque más ágil al identificar y clasificar los objetos mientras marca su posición. Esto la hace ideal para tareas en tiempo real, como la detección de caras en grabaciones de seguridad o la identificación de obstáculos para vehículos autónomos.

Aplicaciones de YOLO11 y Detección de Objetos

YOLO11son útiles en muchos sectores. Veamos algunos ejemplos.

Utilización de YOLO11 para el análisis del comercio minorista

YOLO11 y la detección de objetos están redefiniendo la analítica del comercio minorista al hacer que la gestión del inventario y la supervisión de las estanterías sean más eficaces y precisas. La capacidad del modelo para detectar objetos de forma rápida y fiable ayuda a los minoristas a controlar los niveles de existencias, organizar las estanterías y reducir los errores en los recuentos de inventario.

Por ejemplo YOLO11 puede detectar artículos concretos, como gafas de sol, en la estantería de una tienda. Pero, ¿por qué querría un minorista controlar una estantería? Mantener las estanterías abastecidas y organizadas es vital para garantizar que los clientes encuentren lo que necesitan, lo que repercute directamente en las ventas. Al supervisar las estanterías en tiempo real, los comercios pueden detectar rápidamente si los artículos se están agotando, si están mal colocados o si están abarrotados, ayudándoles a mantener una exposición organizada y atractiva que mejore la experiencia de compra.

Fig. 3. Un ejemplo de utilización de YOLO11 para detectar productos en las estanterías.

YOLO11 en Aplicaciones para ciudades inteligentes

Una ciudad bulliciosa depende de un tráfico fluido y unas calles seguras para funcionar eficazmente, y YOLO11 puede ayudar a que esto sea posible. De hecho, muchas aplicaciones para ciudades inteligentes pueden integrarse con YOLO11. 

Un caso interesante consiste en utilizar la detección de objetos para identificar matrículas de vehículos en movimiento. De este modo, YOLO11 puede facilitar un cobro más rápido de los peajes, una mejor gestión del tráfico y una aplicación más rápida de la normativa. 

Fig. 4. Utilizando la detección de objetos y YOLO11 para detectar matrículas.

Las percepciones de los sistemas Vision AI que vigilan las carreteras pueden alertar a las autoridades de infracciones de tráfico o atascos antes de que se conviertan en problemas mayores. YOLO11 También pueden detectar peatones y ciclistas, haciendo que las calles sean más seguras y eficientes para todos. 

De hecho, la capacidad de YOLO11para procesar datos visuales la convierte en una poderosa herramienta para mejorar la infraestructura de las ciudades. Por ejemplo, puede ayudar a optimizar los tiempos de los semáforos analizando el movimiento de vehículos y peatones. También puede mejorar la seguridad en las zonas escolares detectando a los niños y alertando a los conductores para que reduzcan la velocidad. Con YOLO11, las ciudades pueden tomar medidas proactivas para afrontar los retos y crear un entorno más eficiente para todos.

Detección de vídeo en tiempo real con YOLO11: Aumentar la accesibilidad

La detección de objetos en tiempo real se refiere a la capacidad de un sistema para identificar y clasificar objetos en una secuencia de vídeo en directo a medida que aparecen. YOLO11 está diseñado para ofrecer un rendimiento superior en tiempo real y destaca en el apoyo a esta capacidad. Sus aplicaciones van más allá de la simple agilización de procesos: también puede ayudar a crear un mundo más inclusivo y accesible.

Por ejemplo, YOLO11 puede ayudar a las personas con discapacidad visual identificando objetos en tiempo real. Basándose en las detecciones, se pueden proporcionar descripciones de audio, lo que ayuda a los usuarios a navegar por su entorno con mayor independencia.

Piensa en una persona con discapacidad visual haciendo la compra. Elegir los artículos adecuados puede ser un reto, pero YOLO11 puede ayudarle. Mientras colocan los artículos en su carrito, se podría utilizar un sistema integrado con YOLO11 para identificar cada artículo -como plátanos, aguacates o un cartón de leche- y proporcionar descripciones de audio en tiempo real. Esto les permite confirmar sus elecciones y asegurarse de que tienen todo lo que necesitan. Al reconocer los artículos cotidianos, YOLO11 puede simplificar la compra.

Fig. 5. La detección de objetos puede ayudar a hacer el mundo más accesible para los discapacitados visuales.

Guía Paso a Paso para la Detección de Objetos con YOLO11 

Ahora que hemos cubierto los fundamentos de la detección de objetos y sus diversas aplicaciones, vamos a sumergirnos en cómo puedes empezar a utilizar el modelo Ultralytics YOLO11 para tareas como la detección de objetos.

Hay dos formas sencillas de utilizar YOLO11: a través del paquete Ultralytics Python o del HUB Ultralytics . Exploremos ambos métodos, empezando por el paquete Python .

Ejecutar inferencias utilizando YOLO11

La inferencia es cuando un modelo de IA analiza datos nuevos, no vistos, para hacer predicciones, clasificar información o proporcionar conocimientos basados en lo que aprendió durante el entrenamiento. Con respecto a la detección de objetos, eso significa identificar y localizar objetos concretos dentro de una imagen o vídeo, dibujar cuadros delimitadores a su alrededor y etiquetarlos basándose en el entrenamiento del modelo.

Para inferir utilizando el modelo de detección de objetos YOLO11 , primero tendrás que instalar el paquete Ultralytics Python mediante pip, conda o Docker. Si te encuentras con algún problema de instalación, consulta la guía de solución de problemas para obtener consejos y trucos que te ayuden a resolverlos. Una vez instalado, puedes utilizar el siguiente código para cargar el modelo de detección de objetos YOLO11 y hacer predicciones sobre una imagen.

Fig. 6. Ejecutando una inferencia sobre una imagen utilizando YOLO11n.

Entrenar un modelo personalizado YOLO11

YOLO11 también admite el entrenamiento personalizado para adaptarse mejor a tus casos de uso específicos. Afinando el modelo, puedes adaptarlo para detectar objetos relevantes para tu proyecto. Por ejemplo, al utilizar la visión por ordenador en la sanidad, un modelo YOLO11 entrenado a medida podría utilizarse para detectar anomalías específicas en imágenes médicas, como tumores en resonancias magnéticas o fracturas en radiografías, ayudando a los médicos a hacer diagnósticos más rápidos y precisos.

El fragmento de código siguiente muestra cómo cargar y entrenar un modelo YOLO11 para la detección de objetos. Puedes partir de un archivo de configuración YAML o de un modelo preentrenado, transferir pesos y entrenar en conjuntos de datos como COCO para obtener capacidades de detección de objetos más refinadas.


from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.yaml")  # build a new model from YAML
model = YOLO("yolo11n.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Después de entrenar un modelo, también puedes exportar el modelo entrenado en varios formatos para desplegarlo en distintos entornos.

YOLO11 Detección de objetos en Ultralytics HUB

Para quienes busquen una alternativa sin código, Ultralytics HUB proporciona una plataforma Vision AI fácil de usar para entrenar y desplegar modelos YOLO , incluido YOLO11.

Para ejecutar la detección de objetos en imágenes, sólo tienes que crear una cuenta, ir a la sección "Modelos" y seleccionar la variante del modelo de detección de objetos YOLO11 . Sube tu imagen, y la plataforma mostrará los objetos detectados en una sección de vista previa.

Fig 7. Ejecutando inferencias en Ultralytics HUB.

Al combinar la flexibilidad del paquete Python con la facilidad del HUB, YOLO11 simplifica tanto a los desarrolladores como a las empresas el aprovechamiento de la potencia de la tecnología avanzada de detección de objetos.

Puntos clave

YOLO11 establece un nuevo estándar en la detección de objetos, combinando alta precisión con versatilidad para satisfacer las necesidades de diversas industrias. Desde la mejora de los análisis de los comercios hasta la gestión de las infraestructuras de las ciudades inteligentes, YOLO11 está diseñado para ofrecer un rendimiento fiable y en tiempo real en innumerables aplicaciones.

Con opciones de formación personalizada y una interfaz fácil de usar a través de Ultralytics HUB, integrar YOLO11 en tus flujos de trabajo nunca ha sido tan sencillo. Tanto si eres un desarrollador que explora la visión por ordenador como una empresa que busca innovar con IA, YOLO11 te ofrece las herramientas que necesitas para triunfar.

Para saber más, consulta nuestro repositorio de GitHub y participa en nuestra comunidad. Explora las aplicaciones de la IA en los coches autoconducidos y la visión por ordenador para la agricultura en nuestras páginas de soluciones. 🚀

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático