Biblioteca76.964 documentos en línea

Artículo

Dynamical Motor Control Learned with Deep Deterministic Policy GradientControl motor dinámico aprendido con gradiente de política determinista profunda

Resumen

Los modelos convencionales de control de motores explotan la representación espacial del sistema controlado para generar órdenes de control. Normalmente, la orden de control se obtiene con el estado de retroalimentación de un instante específico en el tiempo, que se comporta como un regulador óptimo o filtro espacial del estado de retroalimentación. Sin embargo, estudios neurocientíficos recientes han descubierto que la red motora puede constituir un sistema dinámico autónomo y que los patrones temporales de la orden de control pueden estar contenidos en la dinámica de la red motora, es decir, la hipótesis del sistema dinámico (DSH). Inspirados en estos hallazgos, aquí proponemos un modelo computacional que incorpora este mecanismo neural, en el que la orden de control podría desplegarse a partir de un controlador dinámico cuyo estado inicial se especifica con los parámetros de la tarea. El modelo se entrena por ensayo y error en el marco del gradiente de política determinista profunda (DDPG). Los resultados experimentales muestran que el controlador dinámico aprende con éxito la política de control para los movimientos de alcance del brazo, mientras que el análisis de las actividades internas del controlador dinámico proporciona la evidencia computacional al DDPG de la codificación neural en las cortezas motoras.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento