El método de gradiente en línea ha sido ampliamente utilizado en el entrenamiento de redes neuronales. En este documento consideramos un algoritmo de gradiente en línea de números complejos para redes neuronales de valores complejos. Elegimos una tasa de aprendizaje adaptativa durante el procedimiento de entrenamiento. Bajo ciertas condiciones, al mostrar primero la monotonía de la función de error, se demuestra que el gradiente de la función de error tiende a cero y la secuencia de pesos tiende a un punto fijo. Se presenta un ejemplo numérico para respaldar los hallazgos teóricos.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Desarrollos recientes en esquemas de operador-diferencia para resolver problemas de valor inicial no locales para la ecuación de onda.
Artículo:
Nuevas soluciones de interacción de las ecuaciones KP tridimensionales (3+1) y Boussinesq bidimensionales (2+1)
Artículo:
Maniobras óptimas de sistemas mecánicos lineales subactuados: El caso del control de operaciones de grúas puente.
Artículo:
Método de diagnóstico de fallos en multiplicadoras de aerogeneradores basado en el colector riemanniano
Artículo:
Estrategias óptimas de tratamiento para el VIH con respuesta de anticuerpos
Artículo:
Creación de empresas y estrategia : reflexiones desde el enfoque de recursos
Libro:
Ergonomía en los sistemas de trabajo
Artículo:
La gestión de las relaciones con los clientes como característica de la alta rentabilidad empresarial
Artículo:
Los web services como herramienta generadora de valor en las organizaciones