Biblioteca122.294 documentos en línea

Artículo

Practical Speech Emotion Recognition Based on Online Learning: From Acted Data to Elicited DataReconocimiento práctico de las emociones del habla basado en el aprendizaje en línea: De los datos actuados a los datos obtenidos

Resumen

Estudiamos el reconocimiento de emociones del habla entre bases de datos basado en el aprendizaje en línea. Cómo aplicar un clasificador entrenado en datos actuados a datos naturalistas, como los datos obtenidos, sigue siendo un reto importante en los sistemas actuales de reconocimiento de emociones del habla. Introducimos tres tipos de fuentes de datos diferentes: en primer lugar, un conjunto de datos básicos de emociones del habla que se recopila a partir del habla actuada de actores y actrices profesionales; en segundo lugar, un conjunto de datos independientes del hablante que contiene un gran número de hablantes; en tercer lugar, un conjunto de datos de habla elicitada que se recopila a partir de una tarea cognitiva. Las características acústicas se extraen de las expresiones emocionales y se evalúan mediante el coeficiente de información máxima (MIC). Se diseña un clasificador básico de valencia y excitación basado en modelos de mezclas gaussianas. El módulo de entrenamiento en línea se implementa mediante AdaBoost. Mientras que el reconocedor offline se entrena con los datos actuados, los datos de prueba online incluyen los datos independientes del hablante y los datos elicitados. Los resultados experimentales muestran que, al introducir el módulo de aprendizaje en línea, nuestro sistema de reconocimiento de emociones del habla puede adaptarse mejor a los nuevos datos, lo que constituye un carácter importante en las aplicaciones del mundo real.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento