Aprendizaje por Refuerzo Profundo Sensible al Riesgo para la Optimización de Carteras
Autores: Wang, Xinyao; Liu, Lili
Idioma: Inglés
Editor: MDPI
Año: 2025
Acceso abierto
Artículo científico
Categoría
Gestión y administración
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 7
Citaciones: Sin citaciones
Navegar la complejidad de los mercados de futuros de petróleo, marcados por una volatilidad extrema, incertidumbre geopolítica y choques macroeconómicos, exige estrategias adaptativas y sensibles al riesgo. Este documento explora un marco de Aprendizaje por Refuerzo Profundo Sensible al Riesgo y Adaptativo (ART-DRL) para mejorar la optimización de carteras en el comercio de futuros de materias primas. Si bien el aprendizaje por refuerzo profundo (DRL) se ha aplicado en acciones y divisas, su uso en materias primas sigue siendo poco explorado. Evaluamos modelos de DRL, incluyendo Redes Neuronales Profundas Q (DQN), Optimización de Políticas Proximales (PPO), Actor-Crítico Ventajoso (A2C) y Gradiente de Política Determinista Profunda (DDPG), integrando funciones de recompensa dinámicas y optimización específica de activos. Los resultados empíricos muestran mejoras en el rendimiento ajustado al riesgo, con un retorno anualizado de 1.353, un Ratio de Sharpe de 4.340 y un Ratio de Sortino de 57.766. Aunque el retorno está por debajo de DQN (1.476), el modelo propuesto logra una mejor estabilidad y control del riesgo. Notablemente, los modelos demuestran resiliencia al aprender de períodos históricos de volatilidad extrema, incluyendo la pandemia de COVID-19 (2020-2021) y choques geopolíticos como el conflicto Rusia-Ucrania (2022), a pesar de que las pruebas comenzaron en enero de 2023. Esta investigación ofrece un marco práctico y basado en datos para la toma de decisiones sensibles al riesgo en materias primas, mostrando cómo el aprendizaje automático puede apoyar la gestión de carteras en condiciones de mercado volátiles.
Descripción
Navegar la complejidad de los mercados de futuros de petróleo, marcados por una volatilidad extrema, incertidumbre geopolítica y choques macroeconómicos, exige estrategias adaptativas y sensibles al riesgo. Este documento explora un marco de Aprendizaje por Refuerzo Profundo Sensible al Riesgo y Adaptativo (ART-DRL) para mejorar la optimización de carteras en el comercio de futuros de materias primas. Si bien el aprendizaje por refuerzo profundo (DRL) se ha aplicado en acciones y divisas, su uso en materias primas sigue siendo poco explorado. Evaluamos modelos de DRL, incluyendo Redes Neuronales Profundas Q (DQN), Optimización de Políticas Proximales (PPO), Actor-Crítico Ventajoso (A2C) y Gradiente de Política Determinista Profunda (DDPG), integrando funciones de recompensa dinámicas y optimización específica de activos. Los resultados empíricos muestran mejoras en el rendimiento ajustado al riesgo, con un retorno anualizado de 1.353, un Ratio de Sharpe de 4.340 y un Ratio de Sortino de 57.766. Aunque el retorno está por debajo de DQN (1.476), el modelo propuesto logra una mejor estabilidad y control del riesgo. Notablemente, los modelos demuestran resiliencia al aprender de períodos históricos de volatilidad extrema, incluyendo la pandemia de COVID-19 (2020-2021) y choques geopolíticos como el conflicto Rusia-Ucrania (2022), a pesar de que las pruebas comenzaron en enero de 2023. Esta investigación ofrece un marco práctico y basado en datos para la toma de decisiones sensibles al riesgo en materias primas, mostrando cómo el aprendizaje automático puede apoyar la gestión de carteras en condiciones de mercado volátiles.