Um guia passo-a-passo sobre como executar modelos de deteção e segmentação de objectos Ultralytics em poucas linhas de código.
Bem-vindo a mais um post do blogue em que vamos mergulhar nas capacidades de Ultralytics' YOLOv5 e YOLOv8 quando se trata de deteção e segmentação de objectos . Vamos explorar a forma de integrar estes modelos fáceis de utilizar nos teus projectos com apenas algumas linhas de código. Quer sejas um principiante ou um programador experiente, verás como o Ultralytics suporta vários modelos e arquitecturas, incluindo diferentes versões do YOLO e modelos baseados em transformadores.
No seu vídeo, Nicolai Nielsen mostra-nos o processo de configuração e utilização de vários modelos na estrutura Ultralytics . Vamos explicar passo a passo e ver como podes começar a utilizar estas ferramentas incríveis.
Ultralytics oferece uma estrutura abrangente que suporta vários modelos de deteção e segmentação de objectos. Inclui os populares modelos YOLO , desde o YOLOv3 até ao mais recente YOLOv8, bem como os modelos YOLO-NAS e SAM . Estes modelos foram concebidos para lidar com uma variedade de tarefas, como a deteção em tempo real, a segmentação e a estimativa de pose.
Para começar, visita a página de documentaçãoUltralytics . Aqui, podes encontrar informações detalhadas sobre cada modelo, incluindo as suas principais características, arquitecturas e como utilizá-las nos teus scripts Python .
Primeiro, certifica-te de que tens o Ultralytics instalado. Podes fazer isso executando:
bash
Copia o código
1<pre style="width: 75%;">
2<code>
3pip install ultralytics
4</code>
5</pre>
Uma vez feito isto, podes começar a utilizar estes modelos nos teus projectos. Vamos começar com o modelo YOLOv8 como exemplo.
YOLOv8 vem com várias melhorias em relação aos seus antecessores. Foi concebido para ser mais rápido e mais preciso, tornando-o perfeito para aplicações em tempo real. Algumas das principais características incluem:
Eis como podes começar a utilizar o YOLOv8 com apenas algumas linhas de código:
Copia o código
<pre style="width: 75%;">
<code>
# Copy code
import ultralytics
model = ultralytics.YOLO('yolov8')
results = model.predict('path/to/your/image.jpg')
results.show()
</code>
</pre>
Já está! Acabaste de executar um modelo YOLOv8 numa imagem. Esta simplicidade é o que torna os modelos Ultralytics tão poderosos e fáceis de utilizar.
Queres ver o YOLOv8 em ação através de uma webcam em direto? Eis como o podes fazer:
python
Copia o código
1<pre style="width: 75%;">
2<code>
3# Copy code
4import ultralytics
5model = ultralytics.YOLO('yolov8')
6# Open a live webcam feed
7cap = cv2.VideoCapture(0)
8while True:
9 ret, frame = cap.read()
10 if not ret:
11 break
12 results = model.predict(frame)
13 results.show()
14 if cv2.waitKey(1) & 0xFF == ord('q'):
15 break
16cap.release()
17cv2.destroyAllWindows()
18</code>
19</pre>
Este script abre a tua webcam e aplica o modelo YOLOv8 para detetar objectos em tempo real.
Ultralytics não se limita a YOLOv8. Eles também suportam vários outros modelos como YOLOv5, YOLO-NAS e modelos baseados em transformadores para deteção em tempo real. Cada modelo tem os seus próprios pontos fortes e casos de utilização.
O modelo RT-DETR , desenvolvido pela Baidu e apoiado por Ultralytics, é um detetor de objectos topo de gama, de ponta a ponta, que oferece desempenho em tempo real e elevada precisão. Utiliza uma espinha dorsal baseada em conv e um codificador híbrido eficiente para velocidade em tempo real, destacando-se em CUDA com TensorRT, e suporta um ajuste flexível da velocidade de inferência.
Eis como podes executar um modelo RT-DETR :
Copia o código
1<pre style="width: 75%;">
2<code>
3from Ultralytics import YOLO
4# Load a pretrained YOLOv8n model
5model = YOLO("rtdetr-l.pt")
6
7# Run inference on 'bus.jpg' with arguments
8model.predict("bus.jpg", save=True, imgsz=320, conf=0.5)
9</code>
10</pre>
Ultralytics também oferece modelos para tarefas de segmentação, tais como MobileSAM e FastSAM. Estes modelos foram concebidos para segmentar tudo numa imagem, fornecendo informações detalhadas sobre a cena.
FastSAM está optimizado para a segmentação em tempo real, e eis como podes executá-lo:
Copia o código
1<pre style="width: 75%;">
2<code>
3import ultralytics
4model = ultralytics.SAM("FastSAM-s.pt")
5results = model.predict('path/to/your/image.jpg')
6results.show()
7</code>
8</pre>
Este modelo é perfeito para aplicações que requerem uma segmentação rápida e precisa.
Uma das grandes características da estrutura Ultralytics é a capacidade de comparar diferentes modelos lado a lado. Podes determinar facilmente qual o modelo que funciona melhor para a tua aplicação específica, observando as métricas de desempenho, como a velocidade de inferência e a precisão média (mAP).
Ultralytics torna incrivelmente fácil a execução de modelos de deteção e segmentação de objectos com apenas algumas linhas de código. Quer estejas a trabalhar em aplicações em tempo real ou precises de modelos de alta precisão, o Ultralytics tem uma solução para ti. Não te esqueças de ver o tutorial completo de Nicolai Nielsen no canal do YouTube Ultralytics para obteres informações e exemplos mais aprofundados.
Fica atento a mais tutoriais e actualizações dacomunidade Ultralytics !
Começa a tua viagem com o futuro da aprendizagem automática