Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Vehículos autónomos

Explora el futuro de la movilidad con vehículos autónomos. Descubre cómo Ultralytics potencia la percepción en tiempo real, la detección de objetos y la fusión de sensores para los vehículos autónomos.

Los vehículos autónomos (AV), a menudo denominados coches autónomos, son sistemas de transporte inteligentes capaces de detectar su entorno y funcionar sin intervención humana. Estos sistemas representan la cúspide de la IA en innovación automovilística, ya que combinan hardware sofisticado con algoritmos de software avanzados para interpretar entornos complejos. El objetivo principal de la tecnología AV es mejorar la seguridad vial minimizando los accidentes causados por errores humanos, al tiempo que se optimiza la eficiencia del tráfico y se proporciona movilidad a quienes no pueden conducir. En esencia, estos vehículos se basan en la inteligencia artificial (IA) para percibir estímulos, procesar información y tomar decisiones de conducción en fracciones de segundo.

Tecnologías de percepción y sensores

Para que un vehículo autónomo pueda circular de forma segura, debe tener un conocimiento exhaustivo de su entorno. Esto se consigue mediante una capa de percepción que agrega datos procedentes de un conjunto de sensores.

  • Visión artificial (CV): Las cámaras sirven como sensores visuales primarios, imitando la vista humana. Los algoritmos procesan las señales de vídeo para reconocer las marcas de los carriles, los semáforos y las señales de tráfico.
  • Tecnología LiDAR: La detección y medición de distancias por luz (LiDAR) utiliza pulsos láser para crear mapas 3D precisos y de alta resolución del entorno, esenciales para la percepción de la profundidad.
  • Detección de objetos: Los modelos de aprendizaje profundo identifican y localizan obstáculos dinámicos. Los modelos de alta velocidad como YOLO26 son cruciales aquí para detectar peatones y otros vehículos con baja latencia.
  • Fusión de sensores: Ningún sensor es perfecto en todas las condiciones (por ejemplo, las cámaras en la niebla). Los algoritmos de fusión combinan datos de cámaras, radares y LiDAR para formar un modelo ambiental robusto.
  • Segmentación semántica: Esta técnica clasifica cada píxel de una imagen, lo que ayuda al vehículo a distinguir entre la superficie de la carretera transitable , las aceras y la vegetación.

Niveles de autonomía

Las capacidades de los sistemas autónomos se clasifican según los niveles de automatización de la conducción SAE J3016, que definen el grado de control informático frente a la intervención humana.

  • Sistemas avanzados de asistencia al conductor (ADAS): Estos sistemas, que abarcan los niveles 1 y 2, ayudan con la dirección o la aceleración (por ejemplo, el control de crucero adaptativo), pero requieren que el conductor permanezca atento.
  • Automatización condicional: En el nivel 3, el vehículo puede encargarse de la mayoría de las tareas de conducción en condiciones específicas, como atascos en autopistas, pero el humano debe estar preparado para tomar el control cuando se le avise.
  • Alta y plena automatización: Los niveles 4 y 5 representan vehículos que pueden funcionar sin intervención humana. El nivel 4 se limita a áreas geolocalizadas, mientras que el nivel 5 tiene como objetivo la autonomía total en cualquier carretera, lo que a menudo requiere un potente hardware de IA periférica.

Aplicaciones reales de la IA

La tecnología de los vehículos autónomos se está implementando actualmente en diversos sectores, y se basa en el aprendizaje automático (ML) para gestionar la complejidad del mundo real.

  1. Robotaxis: Empresas como Waymo utilizan flotas de vehículos totalmente autónomos para transportar pasajeros en entornos urbanos. Estos vehículos utilizan modelos predictivos para anticipar el comportamiento de los peatones y otros conductores en paisajes urbanos complejos.
  2. Transporte autónomo: la logística de larga distancia se beneficia de la automatización en rutas de autopista predecibles. Innovadores como Aurora desarrollan camiones autónomos que aprovechan la percepción de largo alcance para mejorar la eficiencia del combustible y la seguridad.
  3. Entrega de última milla: pequeños robots autónomos utilizan el seguimiento de objetos para desplazarse por las aceras y entregar paquetes, reduciendo el coste y la huella de carbono de la logística.

Distinguir conceptos relacionados

Es importante diferenciar los vehículos autónomos de términos relacionados en los campos de la robótica y la automoción.

  • Vs. Robótica: Aunque los vehículos autónomos son técnicamente robots móviles, el campo de la robótica es más amplio, ya que abarca desde brazos industriales fijos hasta asistentes humanoides. Los vehículos autónomos están especializados específicamente en la lógica del transporte.
  • Vs. Vehículos conectados (V2X): los vehículos conectados se comunican entre sí (V2V) y con la infraestructura (V2I) para compartir datos como la velocidad y la ubicación. Un vehículo puede estar conectado sin ser autónomo, aunque la conectividad suele mejorar la seguridad de los vehículos autónomos.
  • Vs. Teleoperación: La teleoperación implica que un humano conduzca un vehículo de forma remota. Por el contrario, los verdaderos vehículos autónomos se basan en redes neuronales a bordo para tomar decisiones de forma local.

Implementación de la percepción con YOLO26

Un componente crítico de cualquier sistema autónomo es la capacidad de track a lo largo del tiempo. El siguiente ejemplo muestra cómo utilizar el Plataforma Ultralytics compatible ultralytics biblioteca para realizar el seguimiento de objetos en un vídeo, simulando el sistema de percepción de un vehículo.

from ultralytics import YOLO

# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")

# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
    source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
    show=True,
)

# Process results (e.g., counting objects or estimating speed)
for r in results:
    print(r.boxes.xywh)  # Print bounding box coordinates

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora