Políticas de enrutamiento dinámico para centros de llamadas multi-habilidad utilizando la red Q profunda
Autores: Zhang, Qin
Idioma: Inglés
Editor: MDPI
Año: 2023
Acceso abierto
Artículo científico
Categoría
Matemáticas
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 15
Citaciones: Sin citaciones
Cuando el sistema de encolamiento del centro de llamadas se vuelve complejo, resulta que la política de enrutamiento estático no es óptima. Este documento considera el problema de la política de enrutamiento dinámico para centros de llamadas con múltiples tipos de habilidades y grupos de agentes. Se propone una política de enrutamiento dependiente del estado basada en la Red Q Profunda (DQN), y se aplica un algoritmo de aprendizaje por refuerzo para optimizar el enrutamiento. Se diseña un algoritmo de simulación para ayudar a los clientes y agentes a interactuar con el entorno externo y aprender la estrategia óptima. La evaluación del rendimiento considerada en este documento es el nivel de servicio/tasa de abandono. Los experimentos muestran que la política de enrutamiento dinámico basada en DQN tiene un mejor rendimiento que la común política estática FCFS (Primero en llegar, primero en ser atendido) y la política dinámica Prioridades con Umbrales de Agentes Inactivos y Enrutamiento Basado en Peso en varios ejemplos. Por otro lado, el tiempo de entrenamiento del modelo de política de enrutamiento basado en DQN es mucho más rápido que la optimización de enrutamiento basada en simulación y un algoritmo genético.
Descripción
Cuando el sistema de encolamiento del centro de llamadas se vuelve complejo, resulta que la política de enrutamiento estático no es óptima. Este documento considera el problema de la política de enrutamiento dinámico para centros de llamadas con múltiples tipos de habilidades y grupos de agentes. Se propone una política de enrutamiento dependiente del estado basada en la Red Q Profunda (DQN), y se aplica un algoritmo de aprendizaje por refuerzo para optimizar el enrutamiento. Se diseña un algoritmo de simulación para ayudar a los clientes y agentes a interactuar con el entorno externo y aprender la estrategia óptima. La evaluación del rendimiento considerada en este documento es el nivel de servicio/tasa de abandono. Los experimentos muestran que la política de enrutamiento dinámico basada en DQN tiene un mejor rendimiento que la común política estática FCFS (Primero en llegar, primero en ser atendido) y la política dinámica Prioridades con Umbrales de Agentes Inactivos y Enrutamiento Basado en Peso en varios ejemplos. Por otro lado, el tiempo de entrenamiento del modelo de política de enrutamiento basado en DQN es mucho más rápido que la optimización de enrutamiento basada en simulación y un algoritmo genético.