Biblioteca122.739 documentos en línea

Artículo

Efficient Interaction Recognition through Positive Action RepresentationReconocimiento eficaz de interacciones mediante la representación de acciones positivas

Resumen

Este artículo propone un enfoque novedoso para descomponer la interacción entre dos personas en una Acción Positiva y una Acción Negativa para un reconocimiento más eficaz del comportamiento. Una Acción Positiva desempeña el papel decisivo en un intercambio entre dos personas. Así, el reconocimiento de la interacción puede simplificarse al reconocimiento basado en la Acción Positiva, centrándose en la representación de la acción de una sola persona. Recientemente, se ha generalizado la disponibilidad de un nuevo sensor de profundidad, la cámara Kinect de Microsoft, que proporciona datos RGB-D con información espacial 3D para el análisis cuantitativo. Sin embargo, existen pocos conjuntos de datos de prueba accesibles al público que utilicen esta cámara para evaluar enfoques de reconocimiento de interacciones entre dos personas. Por lo tanto, creamos un nuevo conjunto de datos con seis tipos de interacciones humanas complejas (denominadas K3HI), que incluyen dar patadas, señalar, dar puñetazos, empujar, intercambiar un objeto y darse la mano. Para cada acción positiva se extrajeron tres tipos de características: de articulación, de plano y de velocidad. Utilizamos modelos ocultos de Markov (HMM) continuos para evaluar el método de reconocimiento de interacciones basado en acciones positivas y el método tradicional de reconocimiento de interacciones entre dos personas con nuestro conjunto de datos de prueba. Los resultados experimentales mostraron que la técnica de reconocimiento propuesta es más precisa que el método tradicional, acorta el tiempo de entrenamiento de la muestra y, por tanto, logra una superioridad integral.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento