DE Neuronal: Un Método Evolutivo Basado en la Evolución Diferencial Adecuado para el Entrenamiento de Redes Neuronales
Autores: Tsoulos, Ioannis G.; Charilogis, Vasileios
Idioma: Inglés
Editor: MDPI
Año: 2025
Acceso abierto
Artículo científico
Categoría
Matemáticas
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 9
Citaciones: Sin citaciones
Las redes neuronales artificiales han demostrado ser un modelo de aprendizaje automático importante que se ha utilizado ampliamente en las últimas décadas para abordar una serie de problemas difíciles de clasificación o ajuste de datos en áreas del mundo real. Debido a su importancia, se han desarrollado varias técnicas para identificar de manera eficiente los vectores de parámetros para estos modelos. Estas técnicas suelen provenir del campo de la optimización y, al minimizar el error de entrenamiento de las redes neuronales artificiales, pueden estimar el vector de sus parámetros. Sin embargo, estas técnicas a menudo se quedan atrapadas en los mínimos locales de un error de entrenamiento o conducen al sobreajuste en la red neuronal artificial, lo que resulta en un rendimiento deficiente cuando se aplican a datos que no estaban presentes durante el proceso de entrenamiento. Este artículo presenta una técnica de entrenamiento innovadora para redes neuronales artificiales basada en el método de optimización por evolución diferencial. Esta nueva técnica crea una población inicial de redes neuronales artificiales que evolucionan, así como aplica periódicamente una técnica de optimización local para acelerar el entrenamiento de estas redes. La aplicación de la técnica de minimización local se realizó de tal manera que se evitara el fenómeno del sobreajuste. Este nuevo método se aplicó con éxito a una serie de problemas de clasificación y ajuste de datos, y se llevó a cabo un estudio comparativo con otras técnicas de entrenamiento de la literatura relevante.
Descripción
Las redes neuronales artificiales han demostrado ser un modelo de aprendizaje automático importante que se ha utilizado ampliamente en las últimas décadas para abordar una serie de problemas difíciles de clasificación o ajuste de datos en áreas del mundo real. Debido a su importancia, se han desarrollado varias técnicas para identificar de manera eficiente los vectores de parámetros para estos modelos. Estas técnicas suelen provenir del campo de la optimización y, al minimizar el error de entrenamiento de las redes neuronales artificiales, pueden estimar el vector de sus parámetros. Sin embargo, estas técnicas a menudo se quedan atrapadas en los mínimos locales de un error de entrenamiento o conducen al sobreajuste en la red neuronal artificial, lo que resulta en un rendimiento deficiente cuando se aplican a datos que no estaban presentes durante el proceso de entrenamiento. Este artículo presenta una técnica de entrenamiento innovadora para redes neuronales artificiales basada en el método de optimización por evolución diferencial. Esta nueva técnica crea una población inicial de redes neuronales artificiales que evolucionan, así como aplica periódicamente una técnica de optimización local para acelerar el entrenamiento de estas redes. La aplicación de la técnica de minimización local se realizó de tal manera que se evitara el fenómeno del sobreajuste. Este nuevo método se aplicó con éxito a una serie de problemas de clasificación y ajuste de datos, y se llevó a cabo un estudio comparativo con otras técnicas de entrenamiento de la literatura relevante.