Biblioteca122.294 documentos en línea

Artículo

Exploration on Robustness of Exponentially Global Stability of Recurrent Neural Networks with Neutral Terms and Generalized Piecewise Constant ArgumentsExploración sobre la robustez de la estabilidad global exponencial de redes neuronales recurrentes con términos neutros y argumentos generalizados constantes por tramos.

Resumen

Con miras a la interferencia de los argumentos constantes por partes (PCAs) y los términos neutros (NTs) en el sistema original y las aplicaciones significativas en el proceso de transmisión de señales, exploramos la robustez de la estabilidad global exponencial (EGS) de la red neuronal recurrente (RNN) con PCAs y NTs (NPRNN). Surgen los siguientes desafíos: ¿cuál es el rango de PCAs y el alcance de los NTs que NPRNN puede tolerar para ser exponencialmente estable? Así que derivamos dos indicadores importantes: la longitud máxima del intervalo de PCAs y el alcance del coeficiente de compresión de términos neutros (NT) para que NPRNN sea exponencialmente estable. Además, demostramos teóricamente que si la longitud del intervalo de PCAs y el límite del coeficiente de compresión de NT son ambos inferiores a los resultados dados aquí, la NPRNN perturbada seguirá manteniendo la estabilidad exponencial global. Finalmente, hay dos ejemplos numéricos para verificar la

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento