Machine learning interpretability: un estudio sobre métodos y métricas
Autores: Carvalho, Diogo V.; Pereira, Eduardo M.; Cardoso, Jaime S.
Idioma: Inglés
Editor: MDPI
Año: 2019
Acceso abierto
Artículo científico
Categoría
Ingeniería y Tecnología
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 20
Citaciones: Sin citaciones
Los sistemas de aprendizaje automático están volviéndose cada vez más ubicuos. La adopción de estos sistemas se ha expandido, acelerando el cambio hacia una sociedad más algorítmica, lo que significa que las decisiones informadas algorítmicamente tienen un mayor potencial de impacto social significativo. Sin embargo, la mayoría de estos sistemas precisos de apoyo a la toma de decisiones siguen siendo cajas negras complejas, lo que significa que su lógica interna y su funcionamiento interno están ocultos para el usuario e incluso los expertos no pueden entender completamente la lógica detrás de sus predicciones. Además, las nuevas regulaciones y los dominios altamente regulados han hecho obligatoria la auditoría y verificabilidad de las decisiones, aumentando la demanda de la capacidad de cuestionar, comprender y confiar en los sistemas de aprendizaje automático, para lo cual la interpretabilidad es indispensable. La comunidad de investigación ha reconocido este problema de interpretabilidad y se ha centrado en desarrollar tanto modelos interpretables como métodos de explicación en los últimos años. Sin embargo, la aparición de estos métodos muestra que no hay consenso sobre cómo evaluar la calidad de la explicación. ¿Cuáles son las métricas más adecuadas para evaluar la calidad de una explicación? El objetivo de este artículo es proporcionar una revisión del estado actual del campo de investigación sobre la interpretabilidad del aprendizaje automático, centrándose en el impacto social y en los métodos y métricas desarrollados. Además, se presenta una revisión completa de la literatura para identificar futuras direcciones de trabajo en este campo.
Descripción
Los sistemas de aprendizaje automático están volviéndose cada vez más ubicuos. La adopción de estos sistemas se ha expandido, acelerando el cambio hacia una sociedad más algorítmica, lo que significa que las decisiones informadas algorítmicamente tienen un mayor potencial de impacto social significativo. Sin embargo, la mayoría de estos sistemas precisos de apoyo a la toma de decisiones siguen siendo cajas negras complejas, lo que significa que su lógica interna y su funcionamiento interno están ocultos para el usuario e incluso los expertos no pueden entender completamente la lógica detrás de sus predicciones. Además, las nuevas regulaciones y los dominios altamente regulados han hecho obligatoria la auditoría y verificabilidad de las decisiones, aumentando la demanda de la capacidad de cuestionar, comprender y confiar en los sistemas de aprendizaje automático, para lo cual la interpretabilidad es indispensable. La comunidad de investigación ha reconocido este problema de interpretabilidad y se ha centrado en desarrollar tanto modelos interpretables como métodos de explicación en los últimos años. Sin embargo, la aparición de estos métodos muestra que no hay consenso sobre cómo evaluar la calidad de la explicación. ¿Cuáles son las métricas más adecuadas para evaluar la calidad de una explicación? El objetivo de este artículo es proporcionar una revisión del estado actual del campo de investigación sobre la interpretabilidad del aprendizaje automático, centrándose en el impacto social y en los métodos y métricas desarrollados. Además, se presenta una revisión completa de la literatura para identificar futuras direcciones de trabajo en este campo.