Biblioteca122.294 documentos en línea

Artículo

PiLiMoT: A Modified Combination of LoLiMoT and PLN Learning Algorithms for Local Linear Neurofuzzy ModelingPiLiMoT: Una combinación modificada de los algoritmos de aprendizaje LoLiMoT y PLN para el modelado neurofuzzy lineal local

Resumen

Los algoritmos de aprendizaje Locally linear model tree (LoLiMoT) y Piecewise linear network (PLN) son dos enfoques en el modelado neurofuzzy lineal local. Aunque ambos métodos pertenecen a la clase de algoritmos de aprendizaje de árboles crecientes, utilizan lógicas diferentes. El aprendizaje PLN se basa en datos de entrenamiento, necesita un conjunto de datos de entrenamiento rico y ninguna prueba de división, por lo que es mucho más rápido que LoLiMoT, pero puede crear neuronas adyacentes que pueden conducir a la singularidad en la matriz de regresión. Por otro lado, LoLiMoT casi siempre conduce a un error de salida aceptable, pero a menudo necesita más reglas. En este artículo, se introduce el algoritmo de aprendizaje PiLiMoT (Piecewise linear model tree) para explotar el rendimiento complementario de ambos algoritmos. En esencia, PiLiMoT es una combinación de LoLiMoT y el aprendizaje PLN. El algoritmo propuesto inicialmente se mejora añadiendo la capacidad de fusionar modelos lineales locales previamente divididos, y utilizando un proceso de decisión estocástico de recocido simulado para seleccionar un modelo local para la división. En comparación con LoLiMoT y el aprendizaje PLN, nuestro algoritmo de aprendizaje mejorado propuesto muestra la capacidad de construir modelos con un menor número de reglas con errores de modelado comparables. Los algoritmos se comparan mediante un caso de estudio de aproximación de funciones no lineales. Los resultados obtenidos demuestran las ventajas del método combinado modificado.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento