Biblioteca93.141 documentos en línea

Artículo

EF1-NSGA-III: An Evolutionary Algorithm Based on the First Front to Obtain Non-Negative and Non-Repeated Extreme PointsEF1-NSGA-III: Un Algoritmo Evolutivo Basado en el Primer Frente para Obtener Puntos Extremos no Negativos y no Repetidos

Resumen

Los problemas de optimización de varios objetivos se han resuelto ampliamente usando algoritmos evolutivos durante algunas décadas.A pesar de que los algoritmos NSGA-II y NSGA-III se emplean con frecuencia como referencia para evaluar nuevos algoritmos evolutivos,este último es propietario. En este artículo, utilizamos el marco NSGA-II, similar al NSGA-III, con cambios en su operador de selección.Tomamos el primer frente generado por ordenamiento no dominante para obtener puntos extremos no negativos y no repetidos. Esta versión del NSGA-III se llama EF1-NSGA-III, y su implementación no comienza desde cero; eso sería reinventar la rueda. En lugar de eso, tomamos el código NSGA-II de los autores en el repositorio del Laboratorio de Algoritmos Genéticos Kanpur para extender elEF1-NSGA-III. Luego ajustamos su operador de selección de la diversidad en función de la distancia de hacinamiento al que se encuentrausando los puntos de referencia y preservamos sus parámetros. Después continuamos con el EF1-NSGA-III adaptativo (A-EF1-NSGA-III),y el eficiente adaptativo EF1-NSGA-III (A2-EF1-NSGA-III) contribuyendo en la explicación de cómo generar diferentes tipos de puntos dereferencia. Los algoritmos propuestos resuelven problemas de optimización con restricciones de hasta 10 funciones objetivos. Los probamos en una amplia gama de problemas de referencia, y mostraron mejoras notables en términos de convergencia y diversidad utilizando las métricas de rendimiento de Distancia Generacional Invertida (IGD) e Hipervolumen (HV). El EF1-NSGA-III tiene como objetivo resolver el consumo de energía para las redes de acceso de radio centralizado y los problemas del árbol de expansión de diámetro mínimo bi-objetivo.

INTRODUCCIÓN

Los algoritmos genéticos (AG) son métodos evolutivos basados en el azar. Se prefieren a la optimización clásica por su versatilidad para resolver problemas complejos y encontrar múltiples soluciones sin información a priori (Deb, 1999). Se inspiran en leyes genéticas fundamentales como la selección natural, introducida por primera vez por Fraser (1957) y popularizada por Holland (1975). Cuando estudiamos los AG, contemplamos una población inicial de soluciones pseudoaleatorias que pasan por funciones genéticas como la selección, el cruce y la mutación para recombinar y perturbar las soluciones. A continuación, evaluamos estas soluciones con una función de aptitud con la esperanza de crear las más aptas que sobrevivan y evolucionen a la siguiente generación. Por último, este proceso termina cuando utilizamos un criterio de terminación predefinido.

Posteriormente, los AG evolucionaron a algoritmos evolutivos multiobjetivo y multiobjetivo (MOEA y MaOEA) para optimizar problemas de optimización multiobjetivo o multiobjetivo (MOOP y MaOP) para campos como la ingeniería, los negocios, las matemáticas y la física (Li, Wang, Zhang e Ishibuchi, 2018).

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño:136 Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento

  • Titulo:EF1-NSGA-III: An Evolutionary Algorithm Based on the First Front to Obtain Non-Negative and Non-Repeated Extreme Points
  • Autor:Ariza Vesga, Luis Felipe; Eslava Garzón, Johan Sebastián; Puerta, Rafael
  • Tipo:Artículo
  • Año:2020
  • Idioma:Inglés
  • Editor:Universidad Nacional de Colombia; Facultad de Ingeniería
  • Materias:Algoritmo de evolución Consumo de energía Problemas de Optimización
  • Descarga:2