La producción del habla emocional está determinada por el movimiento de la lengua, los labios y la mandíbula de los hablantes. Con el fin de combinar los datos articulatorios y acústicos de los hablantes, se ha estudiado la conversión articulatoria-acústica del habla emocional. En este artículo, se han optimizado los parámetros del modelo LSSVM utilizando el método PSO, y el modelo PSO-LSSVM optimizado se aplicó a la conversión articulatoria-acústica. El error cuadrático medio (RMSE) y la distorsión mel-cepstral media (MMCD) se han utilizado para evaluar los resultados de la conversión; el resultado evaluado muestra que el MMCD de MFCC es de 1.508 dB, y el RMSE del segundo formante (F2) es de 25.10 Hz. Los resultados de esta investigación pueden aplicarse posteriormente a la fusión de características del reconocimiento del habla emocional para mejorar la precisión del reconocimiento de emociones.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Un algoritmo de combinación de doble capa para el problema de diseño de redes de intercambio de información en tiempo real.
Artículo:
Un protocolo seguro de delimitación de distancias con autenticación mutua
Artículo:
Influencia de la animación de Hayao Miyazaki en la difusión intercultural de la cultura tradicional japonesa en el contexto de 5G y comunicación inalámbrica.
Artículo:
Rooting de Android: Una carrera armamentística entre la evasión y la detección
Artículo:
Dualidad de Sistemas Complejos Construidos a partir de Elementos de Orden Superior
Artículo:
Creación de empresas y estrategia : reflexiones desde el enfoque de recursos
Artículo:
La gestión de las relaciones con los clientes como característica de la alta rentabilidad empresarial
Artículo:
Análisis socioeconómico de la problemática de los desechos plásticos en el mar
Artículo:
Los web services como herramienta generadora de valor en las organizaciones