Cheque verde
Enlace copiado en el portapapeles

Cómo utilizar Ultralytics YOLO11 para la segmentación de instancias

Comprende cómo puede utilizarse el nuevo modelo YOLO11 de Ultralytics para la segmentación de instancias, con el fin de lograr una mayor precisión en aplicaciones como la gestión de residuos y la monitorización de antorchas.

La visión por ordenador, un campo dentro de la inteligencia artificial (IA) que ayuda a las máquinas a interpretar y comprender la información visual, permite realizar tareas como la segmentación de instancias. La segmentación de instancias puede utilizarse para analizar una imagen o un fotograma de vídeo y marcar los límites exactos de cada objeto distinto de la imagen, incluso cuando hay varios objetos del mismo tipo. Con su alto nivel de precisión, la segmentación de instancias tiene una amplia gama de aplicaciones, desde ayudar a los coches autoconducidos a detectar obstáculos en la carretera hasta identificar tumores en exploraciones médicas.

A lo largo de los años, la segmentación de instancias ha evolucionado significativamente. Un avance reciente se presentó durante el evento híbrido anual Ultralytics', YOLO Vision 2024 (YV24), en forma del modelo Ultralytics YOLO11. El nuevo modelo admite las mismas tareas de visión por ordenador (incluida la segmentación de instancias) que el modelo Ultralytics YOLOv8 por lo que los usuarios familiarizados con las versiones anteriores pueden adoptar el nuevo modelo sin problemas.

Fig. 1. Ejemplo de utilización del modelo Ultralytics YOLO11 para la segmentación de instancias.

En este artículo, exploraremos la segmentación de instancias y en qué se diferencia de otras tareas de visión por ordenador como la segmentación semántica, además de discutir algunas de sus aplicaciones. También veremos cómo puedes utilizar el modelo de segmentación de instancias YOLO11 utilizando el paqueteUltralytics Python y la plataforma Ultralytics HUB. ¡Vamos a empezar!

¿Qué es la segmentación de instancias?

La segmentación de instancias puede utilizarse para identificar objetos en una imagen y delinearlos a nivel de píxel. El proceso suele consistir en detectar primero los objetos y dibujar recuadros delimitadores a su alrededor. Después, un algoritmo de segmentación clasifica cada píxel dentro del cuadro delimitador para crear una máscara precisa para cada objeto.

La segmentación por instancias también es diferente de tareas como la segmentación semántica y la segmentación panóptica. La segmentación semántica etiqueta cada píxel basándose en la categoría general de un objeto, sin distinguir instancias individuales. En cambio, la segmentación panóptica combina la segmentación por instancias y la semántica, etiquetando cada píxel con un ID de clase y de instancia, e identificando los objetos individuales dentro de cada categoría.

Fig. 2. Uso de YOLO11 para detectar y segmentar a una persona y un perro.

Las capacidades de la segmentación de instancias pueden aplicarse en diversos escenarios que pueden requerir modelos diferentes. Por ejemplo, un modelo ligero podría ser ideal para el procesamiento en tiempo real en aplicaciones móviles, mientras que un modelo más complejo podría utilizarse para tareas de alta precisión como el control de calidad en la fabricación.

Al igual que los modelos anteriores, el modelo de segmentación de instancias YOLO11 también se presenta con diversas variaciones en función de tus necesidades. Estas variaciones incluyen el YOLO11n-seg (Nano), el YOLO11s-seg (Pequeño), el YOLO11m-seg (Mediano), el YOLO11l-seg (Grande) y el YOLO11x-seg (Extragrande). Estos modelos varían en cuanto a su tamaño, velocidad de procesamiento, precisión y cantidad de potencia de cálculo que requieren. En función de tus requisitos específicos, puedes elegir el modelo que mejor se adapte a tu aplicación.

Aplicaciones de segmentación de instancias para YOLO11

Las capacidades avanzadas de segmentación de instancias de YOLO11 abren un abanico de aplicaciones en diversos sectores. Veamos más de cerca algunas de estas aplicaciones.

Utilización de la segmentación YOLO11 en la industria del petróleo y el gas

La extracción de petróleo y gas implica gestionar fluctuaciones de presión extremadamente altas. Técnicas como la quema de gas ayudan a quemar el gas natural que se produce durante la extracción de petróleo. Es necesario por razones de seguridad. Por ejemplo, en la extracción de petróleo crudo, un pico de presión repentino o importante podría provocar una explosión. Aunque poco frecuentes, los accidentes industriales en el sector de la extracción de petróleo y gas pueden provocar incendios intensos difíciles de contener y controlar. La quema de gas ayuda a los operadores a despresurizar los equipos de forma segura y a gestionar las impredecibles y grandes fluctuaciones de presión quemando el exceso de gas.

Los sistemas de IA pueden mejorar este proceso de supervisión, y el riesgo de accidentes puede reducirse utilizando un sistema de supervisión de la combustión basado en la segmentación de instancias. Supervisar la combustión de gas también es importante por razones medioambientales, ya que demasiada combustión puede tener un impacto negativo en el medio ambiente. 

Ultralytics Los modelos de segmentación de instancias de YOLO11 pueden utilizarse para controlar la cantidad de fuego y humo provocada por la llamarada. Se puede calcular el área en píxeles de la llamarada y el humo detectados y segmentados. Con esta información, los operadores pueden obtener información en tiempo real sobre la llamarada y el humo causados por la quema, ayudándoles a prevenir accidentes e impactos medioambientales negativos. 

Fig. 3. Un ejemplo de control de antorchas mediante YOLO11 en la fabricación de petróleo y gas.

Segmentación de instancias con YOLO11 para la gestión de residuos plásticos 

Los trabajadores de las instalaciones de gestión de residuos y reciclaje pueden utilizar los sistemas basados en la segmentación de instancias de YOLO11 para identificar los materiales de desecho plásticos. YOLO11 puede integrarse con sistemas robóticos de clasificación para identificar con precisión distintos materiales de desecho, como cartón y plástico (que deben procesarse por separado). Es especialmente importante teniendo en cuenta que de los 7.000 millones de toneladas de residuos plásticos que se generan en el mundo, sólo se recicla alrededor del 10%.

Automatizar la identificación y clasificación de los residuos plásticos reduce significativamente el tiempo necesario en comparación con los métodos tradicionales, en los que los trabajadores clasifican los artículos a mano. Los modelos de visión por ordenador pueden incluso segmentar plásticos blandos como envoltorios y bolsas, que son especialmente difíciles porque a menudo se enredan. Los modelos YOLO11 también pueden entrenarse a medida para segmentar distintos tipos de plásticos. En las secciones siguientes aprenderemos más sobre cómo puedes entrenar a medida un modelo YOLO11.

Fig 4. Identificación de residuos plásticos mediante Ultralytics YOLO11. 

YOLO11 Segmentación en vehículos autónomos

Otro caso de uso interesante de la segmentación de instancias es en los coches autónomos. YOLO11 permite a los coches autónomos mejorar la seguridad de los pasajeros y de los demás en la carretera, reconociendo con precisión los objetos a nivel de píxel. El sistema de cámaras a bordo del coche puede captar imágenes del entorno y analizarlas utilizando YOLO11 y la segmentación de instancias. Cada objeto (peatones, semáforos, otros vehículos, etc.) de la imagen se segmenta y se le asigna una etiqueta. Tal nivel de precisión proporciona a los coches autónomos la capacidad de identificar todos y cada uno de los objetos que les rodean. 

Fig. 5. Uso de YOLO11 y segmentación de instancias para identificar vehículos y peatones en la carretera.

Probar la segmentación de instancias con el modelo YOLO11

Ahora que hemos explorado la segmentación de instancias y discutido algunas de sus aplicaciones, veamos cómo puedes probarla utilizando el modelo Ultralytics YOLO11. 

Hay dos formas de hacerlo: puedes utilizar el paquete Ultralytics Python o el HUB Ultralytics . Exploraremos ambos, empezando por el paquete Python .

Ejecutar inferencias con YOLO11

Ejecutar una inferencia implica utilizar el modelo para analizar datos nuevos, no vistos previamente. Para ejecutar una inferencia utilizando el modelo de segmentación de instancias YOLO11 mediante código, necesitamos instalar el paqueteUltralytics Python utilizando pip, conda o docker. En caso de que te encuentres con algún problema durante la instalación, puedes consultar nuestra Guía de problemas comunes para obtener ayuda con la resolución de problemas. Una vez instalado el paquete, puedes ejecutar el código que se muestra a continuación para cargar el modelo de segmentación de instancias YOLO11 y ejecutar predicciones en una imagen.

Fig. 6. Ejecutando una inferencia sobre una imagen utilizando YOLO11n-seg.

Entrenar un modelo YOLO11 personalizado

Con la misma configuración de código, también puedes entrenar un modelo YOLO11 personalizado. Afinando un modelo YOLO11, puedes crear una versión personalizada del modelo que satisfaga mejor los requisitos específicos de tu proyecto. Por ejemplo, los minoristas pueden utilizar un modelo personalizado para segmentar con precisión las características físicas de un cliente y recomendarle ropa que le quede bien. El fragmento de código siguiente muestra cómo cargar y entrenar un modelo YOLO11 para la segmentación de instancias. Puedes partir de una configuración YAML o de un modelo preentrenado, transferir pesos y entrenar en un conjunto de datos como COCO para conseguir una segmentación eficaz. 


from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n-seg.yaml")  # build a new model from YAML
model = YOLO("yolo11n-seg.pt")  # load a pretrained model (recommended for training)
model = YOLO("yolo11n-seg.yaml").load("yolo11n.pt")  # build from YAML and transfer weights

# Train the model
results = model.train(data="coco8-seg.yaml", epochs=100, imgsz=640)

Una vez completado, puedes realizar inferencias utilizando el modelo personalizado para tus aplicaciones específicas. Mediante la opción Exportar, también puedes exportar tu modelo personalizado a un formato diferente.

Segmentación de instancias YOLO11 en Ultralytics HUB

Ahora que hemos explorado la ejecución de inferencias y el entrenamiento personalizado de un modelo de segmentación de instancias YOLO11 mediante código, veamos una alternativa sin código: Ultralytics HUB. Ultralytics HUB es una plataforma intuitiva de Vision AI que simplifica el proceso de entrenamiento y despliegue de los modelos YOLO , incluidos los modelos de segmentación de instancias YOLO11. 

Para ejecutar la inferencia sobre imágenes, todo lo que tienes que hacer es: crear una cuenta, ir a la sección "Modelos" y seleccionar la variante del modelo de segmentación de instancias YOLO11 que prefieras. Puedes subir una imagen y ver los resultados de la predicción en la sección de vista previa, como se muestra a continuación.

Fig 7. Ejecutando inferencias en Ultralytics HUB.

Puntos clave

YOLO11 ofrece funciones fiables de segmentación de instancias que abren un mundo de posibilidades en diversos sectores. Desde la mejora de la seguridad en vehículos autónomos y el control de la combustión de gases en el sector del petróleo y el gas hasta la automatización de la clasificación de residuos en instalaciones de reciclaje, la precisión a nivel de píxel de YOLO11 lo hace ideal para tareas de segmentación complejas. 

Con opciones de formación personalizada a través del paquete Ultralytics Python y una configuración sin código a través de Ultralytics HUB, los usuarios pueden integrar YOLO11 sin problemas en sus flujos de trabajo. Ya sea para aplicaciones industriales, sanitarias, minoristas o de control medioambiental, YOLO11 aporta flexibilidad y precisión para satisfacer diversas necesidades de segmentación.

Para saber más, visita nuestro repositorio de GitHub y participa en nuestra comunidad. Explora las aplicaciones de la IA en los coches autónomos y la agricultura en nuestras páginas de soluciones. 🚀

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático