El cambio de estilo de vida de los tiempos también ha impulsado la reforma de muchas formas de arte (incluidos los musicales). Hoy en día, la audiencia no solo puede disfrutar de las maravillosas actuaciones de musicales en vivo, sino también sentir el encanto de los musicales en línea. Sin embargo, cómo llevar la integridad emocional de los musicales al público es un problema técnico. En este documento, se estudia el modelo de reconocimiento de emociones musicales de aprendizaje profundo basado en el efecto escénico musical. En primer lugar, hay poca diferencia entre los resultados emocionales identificados por la prueba del modelo CRNN y los sentimientos reales de las personas, y el grado de coincidencia de las respuestas emocionales es tan alto como el 95.68%. En segundo lugar, la tasa de reconocimiento final del modelo es del 98.33%, y la tasa de precisión promedio final es tan alta como el 93.22%. Finalmente, en comparación con otros métodos en el conjunto de emociones CASIA, el CRNN-AttGRU tiene solo el 71.77%
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Navegación peatonal de cálculo aproximado con ayuda de grafos de rutas basados en - en grandes espacios sin restricciones
Artículo:
El papel de la generación, adaptación y refinamiento de mallas en el cálculo de flujos con fuertes impactos
Artículo:
Investigación sobre clasificación múltiple basada en un algoritmo SVM mejorado para un árbol de decisión binario equilibrado.
Artículo:
Gestión de múltiples poblaciones en algoritmos evolutivos y aplicación a problemas complejos de programación de almacenes.
Artículo:
Asignación óptima de bits para la codificación por transformada dependiente de la fuente basada en la clasificación