logo móvil
logo tablet

Cookies y Privacidad

Usamos cookies propias y de terceros para mejorar la experiencia de nuestros usuarios, analizar el tráfico del sitio y personalizar contenido. Si continúas navegando, asumimos que aceptas su uso. Para más información, consulta nuestra Política de Cookies

Hacia ataques adversarios para la clasificación de documentos clínicos

Independientemente de las mejoras revolucionarias en varios campos gracias a los avances recientes en el campo del Aprendizaje Profundo (DL), estudios recientes han demostrado que las redes DL son susceptibles a ataques adversarios. Tales ataques son cruciales en entornos sensibles para tomar decisiones críticas y que cambian la vida, como la toma de decisiones en salud. Los esfuerzos de investigación sobre el uso de adversarios textuales para atacar DL para el procesamiento del lenguaje natural (NLP) han recibido una atención creciente en los últimos años. Entre los estudios adversarios textuales disponibles, los Registros de Salud Electrónicos (EHR) han recibido la menor atención. Este documento investiga la efectividad de los ataques adversarios en la clasificación de documentos clínicos y propone un mecanismo de defensa para desarrollar un modelo robusto de red neuronal convolucional (CNN) y contrarrestar estos ataques. Específicamente, aplicamos varios ataques de caja negra basados en adversarios de concatenación y edición en texto clínico no estructurado. Luego, proponemos una técnica de defensa basada en selección y filtrado de características para mejorar la robustez de los modelos. Los resultados experimentales muestran que una pequeña perturbación en el texto no estructurado en los documentos clínicos causa una caída significativa en el rendimiento. Por otro lado, al realizar el mecanismo de defensa propuesto bajo los mismos ataques adversarios, se evita tal caída en el rendimiento. Por lo tanto, mejora la robustez del modelo CNN para la clasificación de documentos clínicos.

Autores: Fatehi, Nina; Alasad, Qutaiba; Alawad, Mohammed

Idioma: Inglés

Editor: MDPI

Año: 2022

Disponible con Suscripción Virtualpro

Artículo científico


Categoría

Ingeniería y Tecnología

Licencia

CC BY-SA – Atribución – Compartir Igual

Consultas: 12

Citaciones: Sin citaciones


Este documento es un artículo elaborado por Nina Fatehi, Qutaiba Alasad y Mohammed Alawad para la revista Electronics, Vol. 12, Núm. 1. Publicación de MDPI. Contacto: electronics@mdpi.com
Descripción
Independientemente de las mejoras revolucionarias en varios campos gracias a los avances recientes en el campo del Aprendizaje Profundo (DL), estudios recientes han demostrado que las redes DL son susceptibles a ataques adversarios. Tales ataques son cruciales en entornos sensibles para tomar decisiones críticas y que cambian la vida, como la toma de decisiones en salud. Los esfuerzos de investigación sobre el uso de adversarios textuales para atacar DL para el procesamiento del lenguaje natural (NLP) han recibido una atención creciente en los últimos años. Entre los estudios adversarios textuales disponibles, los Registros de Salud Electrónicos (EHR) han recibido la menor atención. Este documento investiga la efectividad de los ataques adversarios en la clasificación de documentos clínicos y propone un mecanismo de defensa para desarrollar un modelo robusto de red neuronal convolucional (CNN) y contrarrestar estos ataques. Específicamente, aplicamos varios ataques de caja negra basados en adversarios de concatenación y edición en texto clínico no estructurado. Luego, proponemos una técnica de defensa basada en selección y filtrado de características para mejorar la robustez de los modelos. Los resultados experimentales muestran que una pequeña perturbación en el texto no estructurado en los documentos clínicos causa una caída significativa en el rendimiento. Por otro lado, al realizar el mecanismo de defensa propuesto bajo los mismos ataques adversarios, se evita tal caída en el rendimiento. Por lo tanto, mejora la robustez del modelo CNN para la clasificación de documentos clínicos.

Documentos Relacionados

Temas Virtualpro