Biblioteca122.739 documentos en línea

Artículo

Real-Time Vehicle Detection Algorithm Based on Vision and Lidar Point Cloud FusionAlgoritmo de detección de vehículos en tiempo real basado en la fusión de nubes de puntos de visión y Lidar

Resumen

La detección de vehículos es una de las tareas de percepción del entorno más importantes para los vehículos autónomos. Los métodos tradicionales de detección de vehículos basados en la visión no son lo suficientemente precisos, especialmente en el caso de objetivos pequeños y ocluidos, mientras que los métodos basados en la detección y el alcance de la luz (lidar) son buenos en la detección de obstáculos, pero consumen mucho tiempo y tienen una tasa de clasificación baja para diferentes tipos de objetivos. Centrándose en estas deficiencias para aprovechar al máximo las ventajas de la información de profundidad del lidar y la capacidad de clasificación de obstáculos de la visión, este trabajo propone un algoritmo de detección de vehículos en tiempo real que fusiona la información de la nube de puntos de visión y del lidar. En primer lugar, los obstáculos se detectan mediante el método de proyección de cuadrícula utilizando la información de la nube de puntos lidar. A continuación, los obstáculos se mapean en la imagen para obtener varias regiones de interés (ROI) separadas. A continuación, las ROI se expanden en función del umbral dinámico y se fusionan para generar la ROI final. Por último, se aplica un método de aprendizaje profundo denominado You Only Look Once (YOLO) a la ROI para detectar vehículos. Los resultados experimentales en el conjunto de datos KITTI demuestran que el algoritmo propuesto tiene una alta precisión de detección y un buen rendimiento en tiempo real. En comparación con el método de detección basado únicamente en el aprendizaje profundo YOLO, la precisión media promedio (mAP) aumenta en un 17%.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento