A3GT: un método de entrenamiento adversario generalizado asíncrono adaptativo
Autores: He, Zeyi; Liu, Wanyi; Huang, Zheng; Chen, Yitian; Zhang, Shigeng
Idioma: Inglés
Editor: MDPI
Año: 2024
Acceso abierto
Artículo científico
Categoría
Ingeniería y Tecnología
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 15
Citaciones: Sin citaciones
Los métodos de ataque adversarial pueden mejorar significativamente la precisión de clasificación de los modelos de aprendizaje profundo, pero la investigación ha encontrado que aunque la mayoría de los modelos de aprendizaje profundo con métodos de defensa aún muestran una buena precisión de clasificación frente a varios ataques adversariales, los modelos robustos mejorados tienen una precisión de clasificación significativamente menor al enfrentarse a muestras limpias en comparación con ellos mismos sin utilizar métodos de defensa. Esto significa que, si bien se mejora la robustez adversarial del modelo, es necesario encontrar un método de defensa que equilibre la precisión de clasificación de muestras limpias (precisión limpia) y la precisión de clasificación de muestras adversariales (precisión robusta). Por lo tanto, en este trabajo, proponemos un método de Entrenamiento Adversarial Generalizado Asincrónico Adaptativo (A3GT), que es una mejora sobre el método Generalista existente. Emplea una estrategia de actualización adaptativa sin necesidad de realizar experimentos extensos para determinar la iteración de inicio óptima para las actualizaciones globales. Los resultados experimentales muestran que, en comparación con otros métodos avanzados, A3GT puede lograr un equilibrio entre la precisión de clasificación de muestras limpias y la precisión de clasificación robusta mientras mejora la robustez adversarial del modelo.
Descripción
Los métodos de ataque adversarial pueden mejorar significativamente la precisión de clasificación de los modelos de aprendizaje profundo, pero la investigación ha encontrado que aunque la mayoría de los modelos de aprendizaje profundo con métodos de defensa aún muestran una buena precisión de clasificación frente a varios ataques adversariales, los modelos robustos mejorados tienen una precisión de clasificación significativamente menor al enfrentarse a muestras limpias en comparación con ellos mismos sin utilizar métodos de defensa. Esto significa que, si bien se mejora la robustez adversarial del modelo, es necesario encontrar un método de defensa que equilibre la precisión de clasificación de muestras limpias (precisión limpia) y la precisión de clasificación de muestras adversariales (precisión robusta). Por lo tanto, en este trabajo, proponemos un método de Entrenamiento Adversarial Generalizado Asincrónico Adaptativo (A3GT), que es una mejora sobre el método Generalista existente. Emplea una estrategia de actualización adaptativa sin necesidad de realizar experimentos extensos para determinar la iteración de inicio óptima para las actualizaciones globales. Los resultados experimentales muestran que, en comparación con otros métodos avanzados, A3GT puede lograr un equilibrio entre la precisión de clasificación de muestras limpias y la precisión de clasificación robusta mientras mejora la robustez adversarial del modelo.