Optimización de la trayectoria del manipulador utilizando aprendizaje por refuerzo en un modelo dinámico de orden reducido con compensación de red neuronal profunda
Autores: Chen, Yung-Hsiu; Yang, Wu-Te; Chen, Bo-Hsun; Lin, Pei-Chun
Idioma: Inglés
Editor: MDPI
Año: 2023
Acceso abierto
Artículo científico
Categoría
Tecnología de Equipos y Accesorios
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 17
Citaciones: Sin citaciones
Este artículo informa sobre la construcción de un modelo dinámico híbrido de un manipulador articulado y la planificación y optimización de la trayectoria del manipulador utilizando aprendizaje por refuerzo profundo (RL) en el modelo dinámico. El modelo híbrido estaba compuesto por un modelo dinámico de orden reducido basado en la física, términos de fricción y amortiguamiento lineales, y un modelo de red neuronal profunda para compensar las características no lineales del manipulador. El modelo híbrido luego sirvió como el gemelo digital del manipulador para la planificación de trayectorias con el fin de optimizar la eficiencia energética y la velocidad de operación utilizando RL, teniendo en cuenta la evitación de obstáculos. La estrategia propuesta fue simulada y validada experimentalmente. El consumo de energía a lo largo de las trayectorias se redujo y la velocidad aumentó, de modo que el manipulador pudiera lograr un movimiento más eficiente.
Descripción
Este artículo informa sobre la construcción de un modelo dinámico híbrido de un manipulador articulado y la planificación y optimización de la trayectoria del manipulador utilizando aprendizaje por refuerzo profundo (RL) en el modelo dinámico. El modelo híbrido estaba compuesto por un modelo dinámico de orden reducido basado en la física, términos de fricción y amortiguamiento lineales, y un modelo de red neuronal profunda para compensar las características no lineales del manipulador. El modelo híbrido luego sirvió como el gemelo digital del manipulador para la planificación de trayectorias con el fin de optimizar la eficiencia energética y la velocidad de operación utilizando RL, teniendo en cuenta la evitación de obstáculos. La estrategia propuesta fue simulada y validada experimentalmente. El consumo de energía a lo largo de las trayectorias se redujo y la velocidad aumentó, de modo que el manipulador pudiera lograr un movimiento más eficiente.