Biblioteca122.739 documentos en línea

Artículos

Deep Network Based on Stacked Orthogonal Convex Incremental ELM AutoencodersRed profunda basada en autocodificadores ELM incrementales ortogonales convexos apilados

Resumen

La máquina de aprendizaje extremo (ELM), como tecnología emergente, ha atraído recientemente el interés de muchos investigadores debido a su rápida velocidad de aprendizaje y su capacidad de generalización de vanguardia en la implementación. Mientras tanto, se propuso la máquina de aprendizaje extremo incremental (I-ELM) basada en el algoritmo de aprendizaje incremental, que supera a muchos algoritmos de aprendizaje populares. Sin embargo, los algoritmos incrementales con ELM no recalculan los pesos de salida de todos los nodos existentes cuando se añade un nuevo nodo y no pueden obtener la solución de mínimos cuadrados de los vectores de pesos de salida. En este trabajo, proponemos una máquina de aprendizaje incremental ortogonal convexa (OCI-ELM) con el método de ortogonalización de Gram-Schmidt y el método de aprendizaje de optimización convexa de Barron para resolver el problema de optimización no convexo y el problema de solución por mínimos cuadrados, y a continuación damos las pruebas rigurosas en teoría. Además, en este trabajo proponemos una arquitectura profunda basada en autocodificadores OCI-ELM apilados según la filosofía de generalización apilada para resolver problemas de datos grandes y complejos. Los resultados experimentales verificados tanto con conjuntos de datos UCI como con grandes conjuntos de datos demuestran que la red profunda basada en autocodificadores OCI-ELM apilados (DOC-IELM-AEs) supera a los otros métodos mencionados en el artículo con un mejor rendimiento en problemas de regresión y clasificación.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento