En trabajos previos, se desarrolló una ley de aprendizaje con una función de zona muerta para redes neuronales diferenciales de múltiples capas. Este esquema requiere estrictamente conocimiento a priori de un límite superior para la dinámica no modelada. En este artículo, la ley de aprendizaje se modifica de tal manera que esta condición se relaja. Con esta modificación, el proceso de ajuste es más simple y la función de zona muerta ya no es necesaria. Sobre la base de esta modificación y utilizando un análisis similar a Lyapunov, se demuestra un resultado más sólido aquí: la convergencia exponencial del error de identificación a una zona acotada. Además, se proporciona un valor para el límite superior de dicha zona. La viabilidad de este enfoque se prueba con un ejemplo de simulación.
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículos:
Optimización de Monte Carlo usando la distribución beta
Artículos:
Seguimiento robusto de objetos en línea basado en la agrupación de características y 2DPCA
Artículos:
Ideales primitivos principales en órdenes cuadráticas y ecuaciones de Pell
Artículos:
Filtrado extendido y de Kalman no lineal aplicado a un robot con articulaciones flexibles con estimación de sacudidas.
Artículos:
Operadores de retícula y topologías
Artículos:
Comportamiento del aguacate Hass liofilizado durante la operación de rehidratación
Artículos:
Caracterización estructural de la materia orgánica de tres suelos provenientes del municipio de Aquitania-Boyacá, Colombia
Informes y Reportes:
Técnicas de recuperación de suelos contaminados
Artículos:
Una revisión de la etiopatogenia y características clínicas e histopatológicas del melanoma mucoso oral.