logo móvil
Contáctanos

Hacia una IA Justa: Mitigando el Sesgo en las Decisiones de Crédito-Una Revisión Sistemática de la Literatura

Autores: de Castro Vieira, José Rômulo; Barboza, Flavio; Cajueiro, Daniel; Kimura, Herbert

Idioma: Inglés

Editor: MDPI

Año: 2025

Descargar PDF

Acceso abierto

Artículo científico


Categoría

Gestión y administración

Subcategoría

Gestión de recursos

Palabras clave

Algoritmos de inteligencia artificial
Sesgos
Concesión de crédito
Métricas de equidad
Atributos sensibles
Mitigación de sesgos

Licencia

CC BY-SA – Atribución – Compartir Igual

Consultas: 28

Citaciones: Sin citaciones


Descripción
La creciente adopción de algoritmos de inteligencia artificial está redefiniendo la toma de decisiones en diversas industrias. En el sector financiero, donde la concesión de créditos automatizada ha experimentado cambios profundos, esta transformación plantea preocupaciones sobre los sesgos perpetuados o introducidos por los sistemas de IA. Este estudio investiga los métodos utilizados para identificar y mitigar sesgos en modelos de IA aplicados a la concesión de créditos. Realizamos una revisión sistemática de la literatura utilizando las bases de datos IEEE, Scopus, Web of Science y Science Direct, cubriendo el período del 1 de enero de 2013 al 1 de octubre de 2024. De los 414 artículos identificados, se seleccionaron 34 para un análisis detallado. La mayoría de los estudios son empíricos y cuantitativos, centrándose en la equidad en los resultados y los sesgos presentes en los conjuntos de datos. Las técnicas de preprocesamiento dominaron como el enfoque para la mitigación de sesgos, a menudo basándose en conjuntos de datos académicos públicos. El género y la raza fueron los atributos sensibles más estudiados, siendo la paridad estadística la métrica de equidad más utilizada. Los hallazgos revelan un panorama de investigación en maduración que prioriza la equidad en los resultados del modelo y la mitigación de sesgos incrustados en datos históricos. Sin embargo, solo una cuarta parte de los artículos reporta más de una métrica de equidad, limitando la comparabilidad entre enfoques. La literatura sigue centrada en un conjunto estrecho de atributos sensibles, con poca atención a la interseccionalidad o fuentes alternativas de sesgo. Además, ningún estudio empleó técnicas de inferencia causal para identificar discriminación por proxy. A pesar de algunos resultados prometedores, donde las ganancias de equidad superan el 30% con una pérdida mínima de precisión, persisten importantes lagunas metodológicas, incluyendo la falta de métricas estandarizadas, la dependencia excesiva de datos heredados y la insuficiente transparencia en las canalizaciones de modelos. El trabajo futuro debería priorizar el desarrollo de métodos avanzados de mitigación de sesgos, explorar atributos sensibles, estandarizar métricas de equidad, mejorar la explicabilidad del modelo, reducir la complejidad computacional, mejorar la generación de datos sintéticos y abordar los desafíos legales y éticos de los algoritmos.

Documentos Relacionados

Temas Virtualpro