Biblioteca122.294 documentos en línea

Artículo

Real-Time Obstacle Detection System in Indoor Environment for the Visually Impaired Using Microsoft Kinect SensorSistema de detección de obstáculos en tiempo real en interiores para personas con discapacidad visual mediante el sensor Microsoft Kinect

Resumen

Cualquier sistema de ayuda a la movilidad para personas con discapacidad visual debe ser capaz de detectar con precisión y advertir de la proximidad de obstáculos. En este artículo, presentamos un método de sistema de ayuda para detectar obstáculos en entornos interiores basado en el sensor Kinect y el procesamiento de imágenes 3D. Los datos de color y profundidad de la escena frente al usuario se recogen utilizando el Kinect con el apoyo del marco estándar para la detección 3D OpenNI y se procesan mediante la biblioteca PCL para extraer información 3D precisa de los obstáculos. Los experimentos se han realizado con el conjunto de datos en múltiples escenarios interiores y en diferentes condiciones de iluminación. Los resultados mostraron que nuestro sistema es capaz de detectar con precisión los cuatro tipos de obstáculos: paredes, puertas, escaleras y una clase residual que cubre los obstáculos sueltos en el suelo. Precisamente, las paredes y los obstáculos sueltos en el suelo se detectan prácticamente en todos los casos, mientras que las puertas se detectan en el 90,69% de las 43 muestras de imágenes positivas. En cuanto a la detección de escalones, hemos detectado correctamente el piso de arriba en un 97,33% de 75 imágenes positivas, mientras que la tasa de detección correcta del piso de abajo es inferior, con un 89,47% de 38 imágenes positivas. Nuestro método permite además calcular la distancia entre el usuario y los obstáculos.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento