Vehículos autónomos
Explora el futuro de la movilidad con vehículos autónomos. Descubre cómo Ultralytics potencia la percepción en tiempo real, la detección de objetos y la fusión de sensores para los vehículos autónomos.
Los vehículos autónomos (AV), a menudo denominados coches autónomos, son sistemas de transporte inteligentes capaces de
detectar su entorno y funcionar sin intervención humana. Estos sistemas representan la cúspide de la
IA en innovación automovilística, ya que combinan
hardware sofisticado con algoritmos de software avanzados para interpretar entornos complejos. El objetivo principal de la
tecnología AV es mejorar la seguridad vial minimizando los accidentes causados por errores humanos, al tiempo que se optimiza la
eficiencia del tráfico y se proporciona movilidad a quienes no pueden conducir. En esencia, estos vehículos se basan en la
inteligencia artificial (IA) para percibir
estímulos, procesar información y tomar decisiones de conducción en fracciones de segundo.
Tecnologías de percepción y sensores
Para que un vehículo autónomo pueda circular de forma segura, debe tener un conocimiento exhaustivo de su entorno. Esto
se consigue mediante una capa de percepción que agrega datos procedentes de un conjunto de sensores.
-
Visión artificial (CV): Las cámaras sirven como sensores visuales primarios, imitando la vista humana. Los algoritmos procesan las señales de vídeo para reconocer
las marcas de los carriles, los semáforos y las señales de tráfico.
-
Tecnología LiDAR: La detección y medición de distancias por luz (LiDAR) utiliza pulsos láser para crear mapas 3D precisos y de alta resolución del
entorno, esenciales para la percepción de la profundidad.
-
Detección de objetos: Los modelos de aprendizaje profundo identifican y localizan obstáculos dinámicos. Los modelos de alta velocidad como
YOLO26 son cruciales aquí para detectar peatones y
otros vehículos con baja latencia.
-
Fusión de sensores: Ningún sensor es perfecto en todas las condiciones (por ejemplo, las cámaras en la niebla). Los algoritmos de fusión
combinan datos de cámaras, radares y LiDAR para formar un modelo ambiental robusto.
-
Segmentación semántica: Esta técnica clasifica cada píxel de una imagen, lo que ayuda al vehículo a distinguir entre la superficie de la carretera transitable
, las aceras y la vegetación.
Niveles de autonomía
Las capacidades de los sistemas autónomos se clasifican según los
niveles de automatización de la conducción SAE J3016, que definen el
grado de control informático frente a la intervención humana.
-
Sistemas avanzados de asistencia al conductor (ADAS): Estos sistemas, que abarcan los niveles 1 y 2, ayudan con la dirección o la aceleración (por ejemplo, el control de crucero adaptativo), pero
requieren que el conductor permanezca atento.
-
Automatización condicional: En el nivel 3, el vehículo puede encargarse de la mayoría de las tareas de conducción en condiciones específicas, como atascos en autopistas, pero
el humano debe estar preparado para tomar el control cuando se le avise.
-
Alta y plena automatización: Los niveles 4 y 5 representan vehículos que pueden funcionar sin intervención humana. El nivel 4 se limita a áreas geolocalizadas,
mientras que el nivel 5 tiene como objetivo la autonomía total en cualquier carretera, lo que a menudo requiere un potente
hardware de IA periférica.
Aplicaciones reales de la IA
La tecnología de los vehículos autónomos se está implementando actualmente en diversos sectores, y se basa en
el aprendizaje automático (ML) para gestionar
la complejidad del mundo real.
-
Robotaxis: Empresas como Waymo utilizan flotas de vehículos totalmente
autónomos para transportar pasajeros en entornos urbanos. Estos vehículos utilizan
modelos predictivos para anticipar el
comportamiento de los peatones y otros conductores en paisajes urbanos complejos.
-
Transporte autónomo: la logística de larga distancia se beneficia de la automatización en rutas de autopista predecibles.
Innovadores como Aurora desarrollan camiones autónomos que aprovechan la percepción de largo alcance
para mejorar la eficiencia del combustible y la seguridad.
-
Entrega de última milla: pequeños robots autónomos utilizan el
seguimiento de objetos para desplazarse por las aceras y entregar paquetes,
reduciendo el coste y la huella de carbono de la logística.
Distinguir conceptos relacionados
Es importante diferenciar los vehículos autónomos de términos relacionados en los campos de la robótica y la automoción.
-
Vs. Robótica: Aunque los vehículos autónomos son técnicamente robots móviles, el campo de la robótica es más amplio, ya que abarca desde brazos industriales fijos
hasta asistentes humanoides. Los vehículos autónomos están especializados específicamente en la lógica del transporte.
-
Vs.
Vehículos conectados (V2X): los vehículos conectados se comunican entre sí (V2V) y con la infraestructura (V2I) para compartir datos como la velocidad y la
ubicación. Un vehículo puede estar conectado sin ser autónomo, aunque la conectividad suele mejorar la seguridad de los vehículos autónomos.
-
Vs.
Teleoperación: La teleoperación implica que un humano conduzca un vehículo de forma remota. Por el contrario, los verdaderos vehículos autónomos se basan en
redes neuronales a bordo para tomar decisiones de forma local.
Implementación de la percepción con YOLO26
Un componente crítico de cualquier sistema autónomo es la capacidad de track a lo largo del tiempo. El siguiente ejemplo
muestra cómo utilizar el Plataforma Ultralytics compatible
ultralytics biblioteca para realizar el seguimiento de objetos en un vídeo, simulando el sistema de percepción de un vehículo.
from ultralytics import YOLO
# Load the YOLO26 model, optimized for speed and accuracy
model = YOLO("yolo26n.pt")
# Track vehicles and pedestrians in a video stream
# This simulates the continuous perception required by an AV
results = model.track(
source="https://www.ultralytics.com/blog/ultralytics-yolov8-for-speed-estimation-in-computer-vision-projects",
show=True,
)
# Process results (e.g., counting objects or estimating speed)
for r in results:
print(r.boxes.xywh) # Print bounding box coordinates