Mecanismo de Seguimiento Adaptativo Independiente de Modelo y Multi-Objetivo en Línea para Sistemas Dinámicos
Autores: Abouheaf, Mohammed; Gueaieb, Wail; Spinello, Davide
Idioma: Inglés
Editor: MDPI
Año: 2019
Acceso abierto
Artículo científico
Categoría
Ingeniería y Tecnología
Subcategoría
Ingeniería Robótica
Palabras clave
Seguimiento
Control adaptativo
Robusto
Mecanismo de aprendizaje
Aprendizaje por refuerzo
Críticos adaptativos
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 28
Citaciones: Sin citaciones
El problema de seguimiento óptimo se aborda en la literatura de robótica utilizando una variedad de enfoques de control robustos y adaptativos. Sin embargo, estos esquemas están asociados con limitaciones de implementación, como la aplicabilidad en entornos dinámicos inciertos con estructuras de control basadas en modelos completos o parciales, la complejidad y la integridad en entornos de tiempo discreto, y la escalabilidad en sistemas dinámicos acoplados complejos. Se desarrolla un mecanismo de aprendizaje adaptativo en línea para abordar las limitaciones mencionadas y proporcionar una plataforma de solución generalizada para una clase de problemas de control de seguimiento. Este esquema minimiza los errores de seguimiento y optimiza el comportamiento dinámico general utilizando estrategias de control de retroalimentación lineal simultáneas. Se adoptan enfoques de aprendizaje por refuerzo basados en procesos de iteración de valor para resolver las ecuaciones de optimalidad de Bellman subyacentes. Las estrategias de control resultantes se actualizan en tiempo real de manera interactiva sin requerir información sobre la dinámica de los sistemas subyacentes. Se emplean medios de críticos adaptativos para aproximar las funciones de valor de solución óptima y las estrategias de control asociadas en tiempo real. El mecanismo de seguimiento adaptativo propuesto se ilustra en simulación para controlar un avión de ala flexible en un entorno de aprendizaje aerodinámico incierto.
Descripción
El problema de seguimiento óptimo se aborda en la literatura de robótica utilizando una variedad de enfoques de control robustos y adaptativos. Sin embargo, estos esquemas están asociados con limitaciones de implementación, como la aplicabilidad en entornos dinámicos inciertos con estructuras de control basadas en modelos completos o parciales, la complejidad y la integridad en entornos de tiempo discreto, y la escalabilidad en sistemas dinámicos acoplados complejos. Se desarrolla un mecanismo de aprendizaje adaptativo en línea para abordar las limitaciones mencionadas y proporcionar una plataforma de solución generalizada para una clase de problemas de control de seguimiento. Este esquema minimiza los errores de seguimiento y optimiza el comportamiento dinámico general utilizando estrategias de control de retroalimentación lineal simultáneas. Se adoptan enfoques de aprendizaje por refuerzo basados en procesos de iteración de valor para resolver las ecuaciones de optimalidad de Bellman subyacentes. Las estrategias de control resultantes se actualizan en tiempo real de manera interactiva sin requerir información sobre la dinámica de los sistemas subyacentes. Se emplean medios de críticos adaptativos para aproximar las funciones de valor de solución óptima y las estrategias de control asociadas en tiempo real. El mecanismo de seguimiento adaptativo propuesto se ilustra en simulación para controlar un avión de ala flexible en un entorno de aprendizaje aerodinámico incierto.