Noticias Actualidad en procesos industriales

Dele visibilidad a su trayectoria académica

Participe en la convocatoria de trabajos inéditos de Virtual Pro.

Publicar Ahora

2022-07-01Incorporación de la explicabilidad en los componentes de los modelos de aprendizaje automático

MIT |Los métodos de explicación que ayudan a los usuarios a comprender y confiar en los modelos de aprendizaje automático a menudo describen en qué medida ciertas características utilizadas en el modelo contribuyen a su predicción. Por ejemplo, si un modelo predice el riesgo de que un paciente desarrolle una enfermedad cardíaca, es posible que un médico quiera saber con qué fuerza influyen los datos de la frecuencia cardíaca del paciente en esa predicción.

Pero si esas características son tan complejas o enrevesadas que el usuario no puede entenderlas, ¿el método de explicación sirve de algo?

Los investigadores del MIT se esfuerzan por mejorar la interpretabilidad de las funciones para que los responsables de la toma de decisiones se sientan más cómodos utilizando los resultados de los modelos de aprendizaje automático. Basándose en años de trabajo de campo, desarrollaron una taxonomía para ayudar a los desarrolladores a crear características que serán más fáciles de entender para su público objetivo.

"Descubrimos que en el mundo real, a pesar de que estábamos usando formas de vanguardia para explicar los modelos de aprendizaje automático, todavía hay mucha confusión derivada de las funciones, no del modelo en sí", dice. Alexandra Zytek, estudiante de doctorado en ingeniería eléctrica e informática y autora principal de un artículo que presenta la taxonomía .

Para construir la taxonomía, los investigadores definieron propiedades que hacen que las características sean interpretables para cinco tipos de usuarios, desde expertos en inteligencia artificial hasta personas afectadas por la predicción de un modelo de aprendizaje automático. También ofrecen instrucciones sobre cómo los creadores de modelos pueden transformar las características en formatos que serán más fáciles de comprender para un laico.

Esperan que su trabajo inspire a los constructores de modelos a considerar el uso de características interpretables desde el comienzo del proceso de desarrollo, en lugar de intentar trabajar hacia atrás y centrarse en la explicación después del hecho.

Los coautores del MIT incluyen a Dongyu Liu, un postdoctorado; la profesora visitante Laure Berti-Équille, directora de investigación del IRD; y el autor principal Kalyan Veeramachaneni, científico investigador principal en el Laboratorio de Sistemas de Información y Decisión (LIDS) y líder del grupo Data to AI. A ellos se une Ignacio Arnaldo, científico de datos principal de Corelight. La investigación se publica en la edición de junio del Grupo de Interés Especial de la Asociación de Maquinaria Informática sobre Descubrimiento de Conocimiento y Minería de Datos Explorations Newsletter revisado por pares.

Lecciones del mundo real

Las características son variables de entrada que se alimentan a los modelos de aprendizaje automático; generalmente se extraen de las columnas en un conjunto de datos. Los científicos de datos normalmente seleccionan y elaboran a mano características para el modelo, y se enfocan principalmente en garantizar que las características se desarrollen para mejorar la precisión del modelo, no en si un tomador de decisiones puede entenderlas, explica Veeramachaneni.

Durante varios años, él y su equipo han trabajado con los responsables de la toma de decisiones para identificar los desafíos de usabilidad del aprendizaje automático. Estos expertos en dominios, la mayoría de los cuales carecen de conocimientos de aprendizaje automático, a menudo no confían en los modelos porque no comprenden las características que influyen en las predicciones.

Para un proyecto, se asociaron con médicos en la UCI de un hospital que utilizaron el aprendizaje automático para predecir el riesgo de que un paciente enfrente complicaciones después de una cirugía cardíaca. Algunas características se presentaron como valores agregados, como la tendencia de la frecuencia cardíaca de un paciente a lo largo del tiempo. Si bien las características codificadas de esta manera estaban "listas para el modelo" (el modelo podía procesar los datos), los médicos no entendían cómo se calculaban. Preferirían ver cómo estas características agregadas se relacionan con los valores originales, para poder identificar anomalías en la frecuencia cardíaca de un paciente, dice Liu.

Por el contrario, un grupo de científicos del aprendizaje prefirió características agregadas. En lugar de tener una función como "número de publicaciones que un estudiante hizo en los foros de discusión", preferirían tener funciones relacionadas agrupadas y etiquetadas con términos que entendían, como "participación".

“Con la interpretabilidad, una talla no sirve para todos. Cuando vas de un área a otra, hay diferentes necesidades. Y la interpretabilidad en sí misma tiene muchos niveles”, dice Veeramachaneni.

La idea de que una talla no sirve para todos es clave para la taxonomía de los investigadores. Definen propiedades que pueden hacer que las características sean más o menos interpretables para diferentes tomadores de decisiones y describen qué propiedades son probablemente las más importantes para usuarios específicos.

Por ejemplo, los desarrolladores de aprendizaje automático pueden centrarse en tener características que sean compatibles con el modelo y predictivas, lo que significa que se espera que mejoren el rendimiento del modelo.

Por otro lado, los tomadores de decisiones sin experiencia en aprendizaje automático podrían estar mejor atendidos por características redactadas por humanos, lo que significa que se describen de una manera que es natural para los usuarios y comprensible, lo que significa que se refieren a usuarios de métricas del mundo real. puede razonar sobre.

“La taxonomía dice, si estás creando características interpretables, ¿hasta qué nivel son interpretables? Es posible que no necesite todos los niveles, según el tipo de expertos de dominio con los que esté trabajando”, dice Zytek.

Poniendo la interpretabilidad primero

Los investigadores también describen técnicas de ingeniería de funciones que un desarrollador puede emplear para hacer que las funciones sean más interpretables para una audiencia específica.

La ingeniería de características es un proceso en el que los científicos de datos transforman los datos en un formato que los modelos de aprendizaje automático pueden procesar, utilizando técnicas como la agregación de datos o la normalización de valores. La mayoría de los modelos tampoco pueden procesar datos categóricos a menos que se conviertan a un código numérico. Estas transformaciones a menudo son casi imposibles de desempacar para los laicos.

La creación de funciones interpretables podría implicar deshacer parte de esa codificación, dice Zytek. Por ejemplo, una técnica común de ingeniería de características organiza tramos de datos para que todos contengan la misma cantidad de años. Para que estas características sean más interpretables, se podrían agrupar los rangos de edad usando términos humanos, como bebé, niño pequeño, niño y adolescente. O en lugar de usar una función transformada como la frecuencia del pulso promedio, una función interpretable podría ser simplemente los datos reales de la frecuencia del pulso, agrega Liu.

“En muchos dominios, la compensación entre las características interpretables y la precisión del modelo es en realidad muy pequeña. Cuando trabajábamos con evaluadores de bienestar infantil, por ejemplo, volvimos a entrenar el modelo utilizando solo funciones que cumplían con nuestras definiciones de interpretabilidad, y la disminución del rendimiento fue casi insignificante”, dice Zytek.

A partir de este trabajo, los investigadores están desarrollando un sistema que permite a un desarrollador de modelos manejar transformaciones de características complicadas de una manera más eficiente, para crear explicaciones centradas en el ser humano para modelos de aprendizaje automático. Este nuevo sistema también convertirá algoritmos diseñados para explicar conjuntos de datos listos para modelos en formatos que puedan ser entendidos por los tomadores de decisiones.

MIT
Autor
MIT

Promover la investigación, las innovaciones, la enseñanza y los eventos y las personas de interés periodístico del MIT a la comunidad del campus, los medios de comunicación y el público en general, Comunicar anuncios del Instituto, Publicar noticias de la comunidad para profesores, estudiantes, personal y ex alumnos del MIT. Proporcionar servicios de medios a los miembros de la comunidad, incluido el asesoramiento sobre cómo trabajar con periodistas, Responder a consultas de los medios y solicitudes de entrevistas...


2024-03-27
Oportunidades y riesgos de la Inteligencia Artificial General y la Superinteligencia

La Inteligencia Artificial (IA) se ha vuelto una tecnología de uso cotidiano. Día a día aparecen nuevas aplicaciones para crear música, hacer vídeos, generar imágenes, producir textos, calificar tareas y automatizar procesos. Las empresas están implementando modelos de aprendizaje automático y aprendizaje profundo para el mejoramiento en la toma de decisiones en sus diferentes áreas. También se están adaptando diversas aplicaciones en la optimización de la mayoría de operaciones logísticas de las cadenas de suministros. En este sentido, es necesario entender ¿qué es la IA General?, y ¿qué es la Superinteligencia?

2024-03-27
La NASA lanzará cohetes sonda a la sombra de la Luna durante el eclipse solar

La NASA lanzará tres cohetes sondeo durante el eclipse solar total del 8 de abril de 2024, para estudiar cómo se ve afectada la atmósfera superior de la Tierra cuando la luz solar se atenúa momentáneamente sobre una parte del planeta.

2024-03-27
Un pequeño dispositivo puede medir cambios sutiles en el campo gravitacional de la Tierra

El instrumento se encuentra entre los gravímetros más pequeños y más baratos jamás construidos.

2024-03-26
Corte y confección del genoma para tratar enfermedades

Recientemente se aprobó en el Reino Unido y en Estados Unidos la primera terapía génica basada en el método CRISPR/Cas9, que combatirá la anemia de células falciformes y la beta talasemia.

2024-03-26
El campo científico y la representatividad de las mujeres en Colombia

Marzo destaca el papel de las mujeres en la ciencia, promoviendo la equidad y la representatividad. Adriana Ocampo, Ángela Camacho, Susana Fiorentino, Nubia Muñoz y Alexandra Olaya-Castro son ejemplos de mujeres que han contribuido significativamente en diversos campos científicos.

2024-03-21
La IA genera imágenes de alta calidad 30 veces más rápido en un solo paso

Un método novedoso hace que herramientas como Stable Diffusion y DALL-E-3 sean más rápidas al simplificar el proceso de generación de imágenes en un solo paso mientras se mantiene o mejora la calidad de la imagen.