Un Perceptrón Multicapa (MLP) es un modelo de red neuronal feedforward que consiste en una o más capas ocultas entre las capas de entrada y salida. Los MLP han sido aplicados con éxito para resolver una amplia gama de problemas en los campos de la neurociencia, la lingüística computacional y el procesamiento distribuido en paralelo. Si bien los MLP son altamente exitosos en la resolución de problemas que no son linealmente separables, dos de los mayores desafíos en su desarrollo y aplicación son el problema de los mínimos locales y el problema de la convergencia lenta bajo el desafío de grandes volúmenes de datos. Para abordar estos problemas, este estudio propone un algoritmo de Optimización Hibrida Basada en Biogeografía Caótica (HCBBO) para entrenar MLPs en el análisis y procesamiento de grandes volúmenes de datos. Se emplean cuatro conjuntos de datos de referencia para investigar la efectividad de HCBBO en el entrenamiento de MLPs. La precisión de los resultados y la convergencia de HCBBO se comparan
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Control Deslizante de la Velocidad del Vehículo basado en LMI
Artículo:
Investigación sobre la adaptabilidad de la aplicación de Big Data e IoT en la construcción disciplinar de la especialidad de ingeniería mecánica en las universidades
Artículo:
Filtrado de partículas con suma gaussiana rao-blackwellizada para el posicionamiento asistido por trayectorias múltiples
Artículo:
Análisis centrado en la movilidad de la descarga de comunicaciones para dispositivos heterogéneos del Internet de las cosas
Artículo:
Modelado mecatrónico de Vehículos Automáticos de Guiado (AGVs) Industriales: Una Arquitectura de Sistema Compleja