Glossario

Veicoli autonomi

Scopri come i veicoli autonomi utilizzano l'intelligenza artificiale, la visione computerizzata e i sensori per rivoluzionare i trasporti con sicurezza, efficienza e innovazione.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

I veicoli autonomi (AV), comunemente noti come auto a guida autonoma, sono veicoli progettati per percepire l'ambiente circostante e navigare senza l'intervento umano. Questi sistemi rappresentano un'importante applicazione dell'intelligenza artificiale (AI) e dell'apprendimento automatico (ML), con l'obiettivo di automatizzare completamente il complesso compito della guida. Lo sviluppo degli AV integra sensori avanzati, algoritmi sofisticati e potenti piattaforme informatiche per consentire un funzionamento sicuro ed efficiente, promettendo di rivoluzionare il trasporto personale, la logistica e la pianificazione urbana. La comprensione degli AV richiede una certa familiarità con i concetti fondamentali della percezione, del processo decisionale e dei sistemi di controllo, tutti fortemente basati sull'intelligenza artificiale.

Le tecnologie principali che guidano l'autonomia

La capacità di un veicolo autonomo di operare in sicurezza si basa su una serie di tecnologie integrate, principalmente guidate da AI e ML, in particolare dal Deep Learning (DL).

  • Visione artificiale (CV): È fondamentale per consentire agli AV di "vedere" e interpretare il mondo. Le telecamere acquisiscono dati visivi che vengono elaborati con algoritmi di CV per identificare corsie stradali, segnali stradali, pedoni, altri veicoli e ostacoli.
  • Rilevamento degli oggetti: Un'attività chiave del CV in cui i modelli identificano e localizzano gli oggetti all'interno del campo visivo del veicolo, spesso disegnando un riquadro di delimitazione intorno a ciascun oggetto rilevato. Modelli all'avanguardia come Ultralytics YOLO11 sono spesso utilizzati per le loro capacità di inferenza in tempo reale, fondamentali per reagire rapidamente. Puoi esplorare i confronti tra i diversi modelli YOLO per comprenderne l'evoluzione.
  • Suite di sensori: Gli AV utilizzano in genere più tipi di sensori:
    • Telecamere: Forniscono informazioni visive ricche.
    • LiDAR (Light Detection and Ranging): Utilizza impulsi laser per creare mappe 3D dettagliate dell'ambiente circostante, efficaci in diverse condizioni di luce.
    • Radar (Radio Detection and Ranging): Utilizza le onde radio per rilevare gli oggetti e misurarne la velocità; è affidabile anche in condizioni atmosferiche avverse come pioggia o nebbia.
  • Sensor Fusion: Gli algoritmi combinano i dati provenienti da vari sensori (telecamere, LiDAR, radar, GPS, IMU) per creare una comprensione completa e solida dell'ambiente. In questo modo si superano le limitazioni di ogni singolo tipo di sensore.
  • Pianificazione del percorso: Gli algoritmi di intelligenza artificiale determinano il percorso più sicuro ed efficiente e la traiettoria immediata in base all'ambiente percepito, alla destinazione, alle regole del traffico e alle dinamiche del veicolo. Ciò comporta complessi processi decisionali.
  • Sistemi di controllo: Traducono il percorso pianificato in azioni fisiche come sterzata, accelerazione e frenata, spesso utilizzando i principi della robotica.

Livelli di automazione della guida

Per standardizzare le capacità, SAE International definisce sei livelli di automazione della guida, dal livello 0 (nessuna automazione) al livello 5 (automazione completa, nessun conducente umano necessario in nessuna condizione). Molti degli attuali sistemi avanzati di assistenza alla guida (ADAS) rientrano nei livelli 1 e 2. Le aziende che sviluppano sistemi completamente autonomi spesso puntano al Livello 4 (elevata automazione all'interno di specifici domini operativi di progettazione, come le aree urbane georeferenziate) o al Livello 5.

Applicazioni AI/ML del mondo reale nei veicoli autonomi

I veicoli autonomi non sono solo concetti futuristici, ma vengono sviluppati e utilizzati attivamente, mostrando la potenza dell'intelligenza artificiale in scenari complessi e reali.

  1. Servizi di robotaxi: Aziende come Waymo (di proprietà della società madre di Google, Alphabet) e Cruise (controllata in maggioranza da GM) gestiscono servizi di ride-hailing completamente autonomi in aree limitate. I loro veicoli utilizzano una sofisticata intelligenza artificiale per la percezione(sfruttando il rilevamento e la segmentazione degli oggetti), la previsione del comportamento degli altri utenti della strada e la navigazione in ambienti urbani complessi. Questi sistemi imparano e migliorano continuamente sulla base dei dati raccolti durante il funzionamento, un principio fondamentale delle Machine Learning Operations (MLOps). Ulteriori approfondimenti sono disponibili nelle discussioni sull'IA nelle auto a guida autonoma.
  2. Rilevamento ed evitamento dei pericoli: Gli AV devono identificare e reagire ai pericoli stradali imprevisti. Ad esempio, i modelli di rilevamento degli oggetti possono essere addestrati su misura utilizzando piattaforme come Ultralytics HUB per rilevare buche, detriti o zone di costruzione. Un esempio prevede l'utilizzo di modelliYOLO per il rilevamento delle buche, consentendo all'intelligenza artificiale del veicolo di pianificare un percorso sicuro intorno all'ostacolo o di avvisare il sistema. Questa applicazione evidenzia la necessità di un'elevata precisione e di una bassa latenza nel rilevamento.

Sviluppo e formazione

Lo sviluppo di AV comporta test e convalide rigorose, spesso utilizzando dataset di grandi dimensioni come COCO o dataset di guida specializzati come Argoverse. L'addestramento dei modelli di deep learning sottostanti richiede risorse computazionali significative(GPU, TPU) e framework come PyTorch o TensorFlow. Gli ambienti di simulazione svolgono un ruolo fondamentale per testare in sicurezza gli algoritmi in innumerevoli scenari prima dell'implementazione nel mondo reale. L 'implementazione dei modelli spesso coinvolge tecniche di ottimizzazione come la quantizzazione e acceleratori hardware specializzati(dispositivi Edge AI, NVIDIA Jetson). L'intero ciclo di vita beneficia di solide pratiche MLOps per il miglioramento e il monitoraggio continui.

Leggi tutto