Biblioteca122.739 documentos en línea

Artículos

Gesture Recognition Algorithm of Human Motion Target Based on Deep Neural NetworkAlgoritmo de reconocimiento gestual de objetivos de movimiento humano basado en redes neuronales profundas

Resumen

Existen algunos problemas en los algoritmos actuales de reconocimiento de gestos objetivo de movimiento humano, como la precisión de clasificación, la proporción de superposición, baja precisión y recuperación de reconocimiento, y largo tiempo de reconocimiento. Se propuso un algoritmo de reconocimiento de gestos de movimiento humano basado en redes neuronales profundas. En primer lugar, se utilizó el equipo de interfaz Kinect para recopilar la información de coordenadas de las articulaciones del esqueleto humano, extraer las características de los nodos de gestos de movimiento y construir toda la estructura de la red de nodos clave utilizando redes neuronales profundas. En segundo lugar, se introdujo la región de reconocimiento local para generar un mapa de características de alta dimensión, y se definió la función del núcleo de muestreo. El dominio espacio-temporal mínimo del mapa de la estructura del nodo se localizó mediante muestreo en el dominio espacio-temporal. Finalmente, se construyó un clasificador de redes neuronales profundas para integrar y clasificar las características de los datos de gestos objetivo de movimiento humano para realizar el reconocimiento del gesto objetivo de movimiento humano. Los resultados muestran que el algoritmo propuesto tiene una alta precisión de clasificación y proporción de superposición de gestos objetivo de movimiento humano, la precisión de reconocimiento es de hasta el 93%, la tasa de recuperación es de hasta el 88%, y el tiempo de reconocimiento es de 17.8 segundos, lo que puede mejorar efectivamente el efecto de reconocimiento de actitud objetivo de movimiento humano.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento