Cheque verde
Enlace copiado en el portapapeles

Corriente Ultralytics Modelos de detección y segmentación de objetos en unas pocas líneas de código

Una guía paso a paso sobre cómo ejecutar Ultralytics Modelos de detección y segmentación de objetos en unas pocas líneas de código.

Bienvenidos a otra entrada del blog en la que profundizaremos en las capacidades de Ultralytics' YOLOv5 y YOLOv8modelos cuando se trata de detección y segmentación de objetos. Exploraremos cómo integrar estos modelos fáciles de usar en sus proyectos con solo unas pocas líneas de código. Tanto si eres un principiante como un desarrollador experimentado, verás cómoUltralytics Admite varios modelos y arquitecturas, incluidos diferentes YOLO versiones y modelos basados en transformadores. 

En su video, Nicolai Nielsen nos guía a través del proceso de configuración y uso de varios modelos dentro de la Ultralytics Marco de referencia. Vamos a desglosarlo paso a paso y ver cómo puedes empezar a utilizar estas increíbles herramientas.

Primeros pasos con Ultralytics Modelos

Ultralytics ofrece un marco integral que admite múltiples modelos de detección y segmentación de objetos. Esto incluye el popular YOLO modelos, que van desde YOLOv3 hasta los últimos YOLOv8, así como YOLO-NAS y SAM modelos. Estos modelos están diseñados para manejar una variedad de tareas, como la detección en tiempo real, la segmentación y la estimación de poses.

Para comenzar, visite el Ultralytics página de documentación. Aquí puede encontrar información detallada sobre cada modelo, incluidas sus características clave, arquitecturas y cómo usarlos en su Python Scripts.

Configuración del entorno

En primer lugar, asegúrese de tener Ultralytics Instalado. Para ello, ejecute:

bash

Copiar código


pip install ultralytics

Una vez hecho esto, puede comenzar a usar estos modelos en sus proyectos. Comencemos con el YOLOv8 modelo como ejemplo.

Características clave de YOLOv8

YOLOv8 Viene con varias mejoras con respecto a sus predecesores. Está diseñado para ser más rápido y preciso, lo que lo hace perfecto para aplicaciones en tiempo real. Algunas características clave incluyen: 

  • Velocidad y precisión mejoradas
  • Pesas preentrenadas para múltiples tareas
  • Compatibilidad con la detección, segmentación y clasificación de objetos
  • Arquitectura de modelo mejorada para un mejor rendimiento

Corriente YOLOv8 en Python

A continuación, te explicamos cómo puedes empezar con YOLOv8 en unas pocas líneas de código:

Copiar código


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()

¡Eso es todo! Acabas de ejecutar un YOLOv8 modelo en una imagen. Esta simplicidad es lo que hace que Ultralytics modelos tan potentes y fáciles de usar.

Detección de cámara web en vivo

¿Quieres ver? YOLOv8 ¿En acción en una transmisión de cámara web en vivo? A continuación te explicamos cómo puedes hacerlo:

python

Copiar código


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
# Open a live webcam feed
cap = cv2.VideoCapture(0)
while True:
	ret, frame = cap.read()
	if not ret:
		break
	results = model.predict(frame)
	results.show()
	if cv2.waitKey(1) & 0xFF == ord('q'):
		break
cap.release()
cv2.destroyAllWindows()

Este script abrirá su cámara web y aplicará el comando YOLOv8 para detectar objetos en tiempo real.

Figura 1. Nicolai Nielsen describe cómo correr Ultralytics Modelos de detección y segmentación de objetos.

Explorando otros modelos

Ultralytics no se detiene solo en YOLOv8. También son compatibles con otros modelos como YOLOv5, YOLO-NAS, y modelos basados en transformadores para detección en tiempo real. Cada modelo tiene sus propios puntos fuertes y casos de uso.

Modelos de transformadores y cómo hacerlos funcionar

El modelo RT-DETR desarrollado por Baidu y apoyado por Ultralytics, es un detector de objetos de última generación que ofrece un rendimiento en tiempo real y una gran precisión. Utiliza una columna vertebral basada en conv y un codificador híbrido eficiente para la velocidad en tiempo real, destacando en CUDA con TensorRT, y admite un ajuste flexible de la velocidad de inferencia.

A continuación, te explicamos cómo puedes ejecutar un RT-DETR modelo:

Copiar código


from Ultralytics import YOLO
# Load a pretrained YOLOv8n model
model = YOLO("rtdetr-l.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)

"Segmentar cualquier cosa Modelos

Ultralytics también ofrece modelos para tareas de segmentación, tales como MobileSAM y FastSAM. Estos modelos están diseñados para segmentar todo en una imagen, proporcionando información detallada de la escena.

Corriente FastSAM

FastSAM está optimizado para la segmentación en tiempo real, y así es como puede ejecutarlo:

Copiar código


import ultralytics
model = ultralytics.SAM("FastSAM-s.pt")
results = model.predict('path/to/your/image.jpg')
results.show()

Este modelo es perfecto para aplicaciones que requieren una segmentación rápida y precisa.

Rendimiento y comparaciones

Una de las grandes características de la Ultralytics es la capacidad de comparar diferentes modelos uno al lado del otro. Puede determinar fácilmente qué modelo funciona mejor para su aplicación específica al observar las métricas de rendimiento, como la velocidad de inferencia y la precisión media media (mAP).

Conclusiones principales

Ultralytics hace que sea increíblemente fácil ejecutar modelos de detección y segmentación de objetos con solo unas pocas líneas de código. Ya sea que esté trabajando en aplicaciones en tiempo real o necesite modelos de alta precisión, Ultralytics tiene una solución para ti. Asegúrate de consultar el tutorial completo de Nicolai Nielsen sobre el Ultralytics YouTube para obtener información más detallada y ejemplos.

Estén atentos para más tutoriales y actualizaciones de la Ultralytics comunidad!

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático