Se considera el algoritmo de retropropagación dividida en lotes complejos (BSCBP) para entrenar redes neuronales de valores complejos. Para una tasa de aprendizaje constante, se demuestra que la función de error del algoritmo BSCBP es monótona durante el proceso de iteración de entrenamiento, y que el gradiente de la función de error tiende a cero. Al agregar una condición moderada, también se demuestra que la secuencia de pesos en sí misma es convergente. Se proporciona un ejemplo numérico para respaldar el análisis teórico.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Identificación de Parámetros de Motor de Inducción en Accionamientos Industriales con Redes Neuronales Artificiales
Artículo:
Propiedades de subordinación para ciertas funciones analíticas
Artículo:
Análisis de los métodos de determinación de la actitud mediante mediciones de la fase portadora del GPS
Artículo:
Prueba secuencial probabilística de la razón para el parámetro de escala de la distribución -Norm.
Artículo:
Perfil de deformación longitudinal de un túnel de roca: Un análisis elástico