Biblioteca122.739 documentos en línea

Artículo

RGB-D Human Action Recognition of Deep Feature Enhancement and Fusion Using Two-Stream ConvNetRGB-D Human Action Recognition of Deep Feature Enhancement and Fusion Using Two-Stream ConvNet (Reconocimiento de acciones humanas en RGB-D mediante la mejora y fusión de características profundas con ConvNet de dos flujos)

Resumen

El reconocimiento de acciones es una importante dirección de investigación de la visión por ordenador, cuyo rendimiento basado en imágenes de vídeo se ve fácilmente afectado por factores como el fondo y la luz, mientras que las imágenes de vídeo profundas pueden reducir mejor las interferencias y mejorar la precisión del reconocimiento. Por lo tanto, este trabajo hace un uso completo de los datos de vídeo y de esqueleto profundo y propone una red de dos flujos basada en el reconocimiento de acciones RGB-D (SV-GCN), que puede describirse como una arquitectura de dos flujos que trabaja con dos datos diferentes. Propone una red no local (S-Stream) basada en datos de esqueleto, añadiendo datos no locales para obtener una relación de dependencia entre una gama más amplia de articulaciones, con el fin de proporcionar características de puntos de esqueleto más ricas para el modelo; propone una red dilatada-lenta basada en vídeo (V-Stream), que sustituye la capa de muestreo aleatorio tradicional por capas convolucionales dilatadas, que pueden hacer un mejor uso de la profundidad de la característica; finalmente, la información de dos flujos se fusiona para realizar el reconocimiento de la acción. Los resultados experimentales sobre el conjunto de datos NTU-RGB D muestran que el método propuesto mejora significativamente la precisión del reconocimiento y es superior a st-gcn y Slowfastnet tanto en CS como en CV.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento