X
Ultralytics YOLOv8.2 RilascioUltralytics YOLOv8.2 RilascioUltralytics YOLOv8.2 Freccia di rilascio
Controllo verde
Link copiato negli appunti

Corsa Ultralytics Modelli di rilevamento e segmentazione degli oggetti in poche righe di codice

Una guida passo passo su come correre Ultralytics Modelli di rilevamento e segmentazione degli oggetti in poche righe di codice.

Benvenuti in un altro post del blog in cui approfondiremo le funzionalità di Ultralytics' YOLOv5 e YOLOv8 modelli quando si tratta di rilevamento e segmentazione degli oggetti. Esploreremo come integrare questi modelli facili da usare nei tuoi progetti con poche righe di codice. Che tu sia un principiante o uno sviluppatore esperto, vedrai come Ultralytics supporta vari modelli e architetture, tra cui diversi YOLO versioni e modelli basati su trasformatori. 

Nel suo video Nicolai Nielsen ci guida attraverso il processo di configurazione e utilizzo di vari modelli all'interno del Ultralytics struttura. Analizziamolo passo dopo passo e vediamo come puoi iniziare con questi incredibili strumenti.

Guida introduttiva Ultralytics Modelli

Ultralytics Offre un framework completo che supporta più modelli di rilevamento e segmentazione degli oggetti. Ciò include il popolare YOLO modelli, che vanno da YOLOv3 ai più recenti YOLOv8, nonché YOLO-NAS e SAM modelli. Questi modelli sono progettati per gestire una varietà di attività come il rilevamento in tempo reale, la segmentazione e la stima della posa.

Per iniziare, visita il sito Ultralytics pagina di documentazione. Qui puoi trovare informazioni dettagliate su ciascun modello, comprese le loro caratteristiche principali, le architetture e come utilizzarle nel tuo Python Script.

Configurazione dell'ambiente

Innanzitutto, assicurati di avere Ultralytics Installato. A tale scopo, è possibile eseguire:

bash

Copia il codice


pip install ultralytics

Una volta fatto ciò, puoi iniziare a utilizzare questi modelli nei tuoi progetti. Cominciamo con il YOLOv8 modello come esempio.

Caratteristiche principali di YOLOv8

YOLOv8 Viene fornito con diversi miglioramenti rispetto ai suoi predecessori. È progettato per essere più veloce e preciso, il che lo rende perfetto per le applicazioni in tempo reale. Alcune caratteristiche chiave includono: 

  • Maggiore velocità e precisione
  • Pesi pre-allenati per più attività
  • Supporto per il rilevamento, la segmentazione e la classificazione degli oggetti
  • Architettura del modello migliorata per prestazioni migliori

Corsa YOLOv8 in Python

Ecco come iniziare con YOLOv8 in poche righe di codice:

Copia il codice


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()

Questo è tutto! Hai appena eseguito un YOLOv8 modellare su un'immagine. Questa semplicità è ciò che rende Ultralytics modelli così potenti e facili da usare.

Rilevamento webcam in tempo reale

Da vedere YOLOv8 In azione su un feed di webcam in diretta? Ecco come puoi farlo:

python

Copia il codice


# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
# Open a live webcam feed
cap = cv2.VideoCapture(0)
while True:
	ret, frame = cap.read()
	if not ret:
		break
	results = model.predict(frame)
	results.show()
	if cv2.waitKey(1) & 0xFF == ord('q'):
		break
cap.release()
cv2.destroyAllWindows()

Questo script aprirà la webcam e applicherà il YOLOv8 per rilevare gli oggetti in tempo reale.

Figura 1. Nicolai Nielsen spiega come correre Ultralytics modelli di rilevamento e segmentazione degli oggetti.

Esplorazione di altri modelli

Ultralytics non si ferma solo a YOLOv8. Supportano anche vari altri modelli come YOLOv5, YOLO-NAS e modelli basati su trasformatori per il rilevamento in tempo reale. Ogni modello ha i suoi punti di forza e i suoi casi d'uso.

Modelli di trasformatori e come eseguirli

Le RT-DETR modello sviluppato da Baidu e supportato da Ultralytics, è un rilevatore di oggetti end-to-end all'avanguardia che offre prestazioni in tempo reale e un'elevata precisione. Utilizza una dorsale basata su conv e un efficiente encoder ibrido per la velocità in tempo reale, eccellendo su CUDA con TensorRTe supporta la regolazione flessibile della velocità di inferenza.

Ecco come è possibile eseguire un file RT-DETR modello:

Copia il codice


from Ultralytics import YOLO
# Load a pretrained YOLOv8n model
model = YOLO("rtdetr-l.pt")

# Run inference on 'bus.jpg' with arguments
model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)

"Segmenta qualsiasi cosa modelli

Ultralytics offre anche modelli per attività di segmentazione, come MobileSAM e FastSAM. Questi modelli sono progettati per segmentare tutto in un'immagine, fornendo informazioni dettagliate sulla scena.

Corsa FastSAM

FastSAM è ottimizzato per la segmentazione in tempo reale ed ecco come eseguirlo:

Copia il codice


import ultralytics
model = ultralytics.SAM("FastSAM-s.pt")
results = model.predict('path/to/your/image.jpg')
results.show()

Questo modello è perfetto per le applicazioni che richiedono una segmentazione rapida e accurata.

Prestazioni e confronti

Una delle grandi caratteristiche del Ultralytics framework è la capacità di confrontare diversi modelli fianco a fianco. È possibile determinare facilmente quale modello funziona meglio per l'applicazione specifica esaminando le metriche delle prestazioni, ad esempio la velocità di inferenza e la precisione media media (mAP).

Principali punti di forza

Ultralytics Semplifica incredibilmente l'esecuzione di modelli di rilevamento e segmentazione degli oggetti con poche righe di codice. Sia che tu stia lavorando su applicazioni in tempo reale o che tu abbia bisogno di modelli ad alta precisione, Ultralytics ha una soluzione per te. Assicurati di dare un'occhiata al tutorial completo di Nicolai Nielsen sul Ultralytics YouTube per informazioni ed esempi più approfonditi.

Resta sintonizzato per ulteriori tutorial e aggiornamenti dal Ultralytics comunità!

Logo di FacebookLogo di TwitterLogo di LinkedInSimbolo di copia-link

Leggi tutto in questa categoria

Costruiamo insieme il futuro
di AI!

Inizia il tuo viaggio nel futuro dell'apprendimento automatico