La producción del habla emocional está determinada por el movimiento de la lengua, los labios y la mandíbula de los hablantes. Con el fin de combinar los datos articulatorios y acústicos de los hablantes, se ha estudiado la conversión articulatoria-acústica del habla emocional. En este artículo, se han optimizado los parámetros del modelo LSSVM utilizando el método PSO, y el modelo PSO-LSSVM optimizado se aplicó a la conversión articulatoria-acústica. El error cuadrático medio (RMSE) y la distorsión mel-cepstral media (MMCD) se han utilizado para evaluar los resultados de la conversión; el resultado evaluado muestra que el MMCD de MFCC es de 1.508 dB, y el RMSE del segundo formante (F2) es de 25.10 Hz. Los resultados de esta investigación pueden aplicarse posteriormente a la fusión de características del reconocimiento del habla emocional para mejorar la precisión del reconocimiento de emociones.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Estudio de ondas polarizadas con un modelo hidrodinámico y el método espectral de Fourier
Artículo:
Investigación sobre el método de clasificación de recursos de red basado en el algoritmo SVM modificado
Artículo:
Dinámica de opiniones con aprendizaje bayesiano
Artículo:
Método de extracción de información oculta en secuencias de audio basado en HM-EMD
Artículo:
Estimación de aguas residuales municipales basada en escenarios: Desarrollo y aplicación de un modelo de simulación dinámica