Biblioteca122.739 documentos en línea

Artículos

Recognition of Emotions Using Multichannel EEG Data and DBN-GC-Based Ensemble Deep Learning FrameworkReconocimiento de emociones usando datos de EEG multicanal y un marco de aprendizaje profundo basado en DBN-GC

Resumen

La fusión de señales neurofisiológicas multicanal para reconocer los estados emocionales humanos resulta cada vez más atractiva. Los métodos convencionales ignoran la complementariedad entre las características del dominio del tiempo, las características del dominio de la frecuencia y las características de tiempo-frecuencia de las señales de electroencefalograma (EEG) y no pueden capturar completamente la información de correlación entre los diferentes canales. En este trabajo, se propone un marco de aprendizaje profundo integrado basado en redes de creencia profunda mejoradas con cadenas de glía (DBN-GCs). En el marco, las DBN-GCs miembros se emplean para extraer representaciones intermedias de las características brutas del EEG de múltiples dominios por separado, así como para extraer información de correlación entre canales mediante cadenas de glía. A continuación, las características de nivel superior que describen las características del dominio del tiempo, las características del dominio de la frecuencia y las características de la frecuencia del tiempo se fusionan mediante una máquina de Boltzmann restringida (RBM) discriminatoria para implementar la tarea de reconocimiento de emociones. Los experimentos realizados con el conjunto de datos de referencia DEAP logran una precisión media de 75,92 y 76,83 en la clasificación de los estados de excitación y valencia, respectivamente. Los resultados muestran que el marco propuesto supera a la mayoría de los clasificadores profundos anteriores. Así, se demuestra el potencial del marco propuesto.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento