Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Veicoli Autonomi

Esplora il futuro della mobilità con i veicoli autonomi. Scopri come Ultralytics potenzia la percezione in tempo reale, il rilevamento degli oggetti e la fusione dei sensori per i veicoli autonomi.

I veicoli autonomi (AV), spesso denominati auto a guida autonoma, sono sistemi di trasporto intelligenti in grado di rilevare l'ambiente circostante e funzionare senza l'intervento umano. Questi sistemi rappresentano l'apice dell' innovazione nel campo dell'intelligenza artificiale applicata al settore automobilistico, combinando hardware sofisticato con algoritmi software avanzati per interpretare ambienti complessi. L'obiettivo principale della tecnologia AV è quello di migliorare la sicurezza stradale riducendo al minimo gli incidenti causati da errori umani, ottimizzando al contempo l'efficienza del traffico e fornendo mobilità a coloro che non sono in grado di guidare. Fondamentalmente, questi veicoli si basano sull' intelligenza artificiale (AI) per percepire gli stimoli, elaborare le informazioni e prendere decisioni di guida in frazioni di secondo.

Tecnologie di percezione e sensori

Affinché un veicolo autonomo possa navigare in sicurezza, deve possedere una comprensione completa dell'ambiente circostante. Ciò si ottiene attraverso un livello di percezione che aggrega i dati provenienti da una suite di sensori.

  • Visione artificiale (CV): le telecamere fungono da sensori visivi primari, imitando la vista umana. Gli algoritmi elaborano i feed video per riconoscere la segnaletica orizzontale, i semafori e i cartelli stradali.
  • Tecnologia LiDAR: il sistema di rilevamento e misurazione della distanza tramite luce (LiDAR) utilizza impulsi laser per creare mappe 3D precise e ad alta risoluzione dell' ambiente circostante, essenziali per la percezione della profondità.
  • Rilevamento di oggetti: i modelli di deep learning identificano e localizzano gli ostacoli dinamici. I modelli ad alta velocità come YOLO26 sono fondamentali per rilevare i pedoni e gli altri veicoli con una bassa latenza.
  • Fusione dei sensori: nessun sensore è perfetto in tutte le condizioni (ad esempio, le telecamere nella nebbia). Gli algoritmi di fusione combinano i dati provenienti da telecamere, radar e LiDAR per formare un modello ambientale robusto.
  • Segmentazione semantica: questa tecnica classifica ogni pixel di un'immagine, aiutando il veicolo a distinguere tra la superficie stradale percorribile , i marciapiedi e la vegetazione.

Livelli di autonomia

Le capacità dei sistemi autonomi sono classificate in base ai livelli di automazione della guida SAE J3016, che definiscono l' entità del controllo computerizzato rispetto all'intervento umano.

  • Sistemi avanzati di assistenza alla guida (ADAS): coprendo i livelli 1 e 2, questi sistemi assistono nella sterzata o nell'accelerazione (ad esempio, il cruise control adattivo), ma richiedono che il conducente rimanga coinvolto.
  • Automazione condizionata: al livello 3, il veicolo è in grado di gestire la maggior parte delle attività di guida in condizioni specifiche, come gli ingorghi autostradali, ma l'essere umano deve essere pronto a prendere il controllo quando viene avvisato.
  • Automazione elevata e completa: i livelli 4 e 5 rappresentano veicoli in grado di funzionare senza l'intervento umano. Il livello 4 è limitato ad aree delimitate geograficamente, mentre il livello 5 mira alla piena autonomia su qualsiasi strada, richiedendo spesso un potente hardware Edge AI.

Applicazioni dell'intelligenza artificiale nel mondo reale

La tecnologia dei veicoli autonomi è attualmente in fase di implementazione in vari settori e si basa su complessi calcoli di machine learning (ML) per gestire la complessità del mondo reale.

  1. Robotaxi: aziende come Waymo utilizzano flotte di veicoli completamente autonomi per trasportare passeggeri in ambienti urbani. Questi veicoli utilizzano modelli predittivi per anticipare il comportamento dei pedoni e degli altri conducenti in contesti urbani complessi.
  2. Autotrasporto autonomo: la logistica a lungo raggio trae vantaggio dall'automazione su percorsi autostradali prevedibili. Innovatori come Aurora sviluppano camion a guida autonoma che sfruttano la percezione a lungo raggio per migliorare l'efficienza dei consumi e la sicurezza.
  3. Consegna dell'ultimo miglio: piccoli robot autonomi utilizzano il tracciamento degli oggetti per muoversi sui marciapiedi e consegnare pacchi, riducendo i costi e l'impronta di carbonio della logistica.

Distinguere i concetti correlati

È importante distinguere i veicoli autonomi dai termini correlati nei campi della robotica e dell'automotive.

  • Vs. Robotica: mentre i veicoli autonomi sono tecnicamente robot mobili, il campo della robotica è più ampio e comprende bracci industriali fissi e assistenti umanoidi. I veicoli autonomi sono specificamente specializzati per la logica dei trasporti.
  • Vs. Veicoli connessi (V2X): i veicoli connessi comunicano tra loro (V2V) e con le infrastrutture (V2I) per condividere dati quali velocità e posizione. Un veicolo può essere connesso senza essere autonomo, anche se la connettività spesso migliora la sicurezza dei veicoli autonomi.
  • Vs. Teleoperazione: la teleoperazione prevede che un essere umano guidi un veicolo a distanza. Al contrario, i veri veicoli autonomi si affidano a reti neurali integrate per prendere decisioni a livello locale.

Implementazione della percezione con YOLO26

Una componente fondamentale di qualsiasi sistema autonomo è la capacità di track nel tempo. L'esempio seguente mostra come utilizzare il Piattaforma Ultralytics compatibile ultralytics libreria per eseguire il tracciamento degli oggetti su un video, simulando il sistema di percezione di un veicolo.

from ultralytics import YOLO

# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")

# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
    source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
    show=True,
)

# Process results (e.g., counting objects or estimating speed)
for r in results:
    print(r.boxes.xywh)  # Print bounding box coordinates

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora