Los problemas de optimización de varios objetivos se han resuelto ampliamente usando algoritmos evolutivos durante algunas décadas.A pesar de que los algoritmos NSGA-II y NSGA-III se emplean con frecuencia como referencia para evaluar nuevos algoritmos evolutivos,este último es propietario. En este artículo, utilizamos el marco NSGA-II, similar al NSGA-III, con cambios en su operador de selección.Tomamos el primer frente generado por ordenamiento no dominante para obtener puntos extremos no negativos y no repetidos. Esta versión del NSGA-III se llama EF1-NSGA-III, y su implementación no comienza desde cero; eso sería reinventar la rueda. En lugar de eso, tomamos el código NSGA-II de los autores en el repositorio del Laboratorio de Algoritmos Genéticos Kanpur para extender elEF1-NSGA-III. Luego ajustamos su operador de selección de la diversidad en función de la distancia de hacinamiento al que se encuentrausando los puntos de referencia y preservamos sus parámetros. Después continuamos con el EF1-NSGA-III adaptativo (A-EF1-NSGA-III),y el eficiente adaptativo EF1-NSGA-III (A2-EF1-NSGA-III) contribuyendo en la explicación de cómo generar diferentes tipos de puntos dereferencia. Los algoritmos propuestos resuelven problemas de optimización con restricciones de hasta 10 funciones objetivos. Los probamos en una amplia gama de problemas de referencia, y mostraron mejoras notables en términos de convergencia y diversidad utilizando las métricas de rendimiento de Distancia Generacional Invertida (IGD) e Hipervolumen (HV). El EF1-NSGA-III tiene como objetivo resolver el consumo de energía para las redes de acceso de radio centralizado y los problemas del árbol de expansión de diámetro mínimo bi-objetivo.
INTRODUCCIÓN
Los algoritmos genéticos (AG) son métodos evolutivos basados en el azar. Se prefieren a la optimización clásica por su versatilidad para resolver problemas complejos y encontrar múltiples soluciones sin información a priori (Deb, 1999). Se inspiran en leyes genéticas fundamentales como la selección natural, introducida por primera vez por Fraser (1957) y popularizada por Holland (1975). Cuando estudiamos los AG, contemplamos una población inicial de soluciones pseudoaleatorias que pasan por funciones genéticas como la selección, el cruce y la mutación para recombinar y perturbar las soluciones. A continuación, evaluamos estas soluciones con una función de aptitud con la esperanza de crear las más aptas que sobrevivan y evolucionen a la siguiente generación. Por último, este proceso termina cuando utilizamos un criterio de terminación predefinido.
Posteriormente, los AG evolucionaron a algoritmos evolutivos multiobjetivo y multiobjetivo (MOEA y MaOEA) para optimizar problemas de optimización multiobjetivo o multiobjetivo (MOOP y MaOP) para campos como la ingeniería, los negocios, las matemáticas y la física (Li, Wang, Zhang e Ishibuchi, 2018).
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
El potencial energético del pasto varilla y del carrizo gigante cuando se cultivan en suelos contaminados con metales pesados.
Artículo:
Análisis termodinámico de dos ciclos combinados de oxicombustión de tamaño medio en competencia
Artículo:
Generación de energía a partir de residuos sólidos urbanos en Bangladesh: Posibles escenarios para generar electricidad renovable en las ciudades de Dhaka y Chittagong
Artículo:
Integración de sistemas eléctricos y energéticos para un transporte marítimo respetuoso con el ambiente
Artículo:
Perspectivas de la conversión de biogás en bioGNC para combustible de automoción en Bangladesh