Noticias Actualidad en procesos industriales

Dele visibilidad a su trayectoria académica

Participe en la convocatoria de trabajos inéditos de Virtual Pro.

Publicar Ahora

2022-10-04Aprendiendo al borde

MIT |Una nueva técnica permite que los modelos de IA aprendan continuamente de nuevos datos en dispositivos de borde inteligentes como teléfonos inteligentes y sensores, lo que reduce los costos de energía y los riesgos de privacidad.

Los microcontroladores, computadoras en miniatura que pueden ejecutar comandos simples, son la base de miles de millones de dispositivos conectados, desde dispositivos de Internet de las cosas (IoT) hasta sensores en automóviles. Pero los microcontroladores baratos y de baja potencia tienen una memoria extremadamente limitada y no tienen sistema operativo, lo que dificulta entrenar modelos de inteligencia artificial en "dispositivos de borde" que funcionan independientemente de los recursos informáticos centrales.

Entrenar un modelo de aprendizaje automático en un dispositivo de borde inteligente le permite adaptarse a nuevos datos y hacer mejores predicciones. Por ejemplo, entrenar a un modelo en un teclado inteligente podría permitir que el teclado aprenda continuamente de la escritura del usuario. Sin embargo, el proceso de entrenamiento requiere tanta memoria que, por lo general, se realiza con computadoras potentes en un centro de datos, antes de que el modelo se implemente en un dispositivo. Esto es más costoso y plantea problemas de privacidad, ya que los datos del usuario deben enviarse a un servidor central.

Para abordar este problema, los investigadores del MIT y del MIT-IBM Watson AI Lab desarrollaron una nueva técnica que permite el entrenamiento en el dispositivo utilizando menos de un cuarto de megabyte de memoria. Otras soluciones de formación diseñadas para dispositivos conectados pueden utilizar más de 500 megabytes de memoria, superando con creces la capacidad de 256 kilobytes de la mayoría de los microcontroladores (hay 1024 kilobytes en un megabyte).

Los algoritmos inteligentes y el marco que desarrollaron los investigadores reducen la cantidad de cómputo requerida para entrenar un modelo, lo que hace que el proceso sea más rápido y más eficiente en la memoria. Su técnica se puede utilizar para entrenar un modelo de aprendizaje automático en un microcontrolador en cuestión de minutos.

Esta técnica también preserva la privacidad al mantener los datos en el dispositivo, lo que podría ser especialmente beneficioso cuando los datos son confidenciales, como en aplicaciones médicas. También podría permitir la personalización de un modelo en función de las necesidades de los usuarios. Además, el marco preserva o mejora la precisión del modelo en comparación con otros enfoques de entrenamiento.

“Nuestro estudio permite que los dispositivos IoT no solo realicen inferencias, sino que también actualicen continuamente los modelos de IA a los datos recién recopilados, allanando el camino para el aprendizaje permanente en el dispositivo. La baja utilización de recursos hace que el aprendizaje profundo sea más accesible y pueda tener un alcance más amplio, especialmente para dispositivos periféricos de bajo consumo”, dice Song Han, profesor asociado en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS), miembro del MIT. -IBM Watson AI Lab y autor principal del artículo que describe esta innovación.

Junto a Han en el artículo están los coautores principales y estudiantes de doctorado de EECS, Ji Lin y Ligeng Zhu, así como los posdoctorados del MIT Wei-Ming Chen y Wei-Chen Wang, y Chuang Gan, miembro principal del personal de investigación del MIT-IBM Watson. Laboratorio de IA. La investigación será presentada en la Conferencia sobre Sistemas de Procesamiento de Información Neural.

Han y su equipo abordaron previamente los cuellos de botella computacionales y de memoria que existen al intentar ejecutar modelos de aprendizaje automático en dispositivos de borde diminutos, como parte de su iniciativa TinyML .

Entrenamiento ligero

Un tipo común de modelo de aprendizaje automático se conoce como red neuronal. Basados ​​libremente en el cerebro humano, estos modelos contienen capas de nodos interconectados, o neuronas, que procesan datos para completar una tarea, como reconocer personas en fotografías. El modelo debe ser entrenado primero, lo que implica mostrarle millones de ejemplos para que pueda aprender la tarea. A medida que aprende, el modelo aumenta o disminuye la fuerza de las conexiones entre las neuronas, lo que se conoce como pesos.

El modelo puede sufrir cientos de actualizaciones a medida que aprende, y las activaciones intermedias deben almacenarse durante cada ronda. En una red neuronal, la activación son los resultados intermedios de la capa intermedia. Debido a que puede haber millones de pesos y activaciones, entrenar un modelo requiere mucha más memoria que ejecutar un modelo previamente entrenado, explica Han.

Han y sus colaboradores emplearon dos soluciones algorítmicas para hacer que el proceso de entrenamiento fuera más eficiente y menos intensivo en memoria. El primero, conocido como actualización dispersa, utiliza un algoritmo que identifica los pesos más importantes para actualizar en cada ronda de entrenamiento. El algoritmo comienza a congelar los pesos uno a la vez hasta que ve que la precisión cae a un umbral establecido, luego se detiene. Los pesos restantes se actualizan, mientras que las activaciones correspondientes a los pesos congelados no necesitan almacenarse en memoria.

“Actualizar todo el modelo es muy costoso porque hay muchas activaciones, por lo que la gente tiende a actualizar solo la última capa, pero como se puede imaginar, esto perjudica la precisión. Para nuestro método, actualizamos selectivamente esos pesos importantes y nos aseguramos de que la precisión se mantenga por completo”, dice Han.

Su segunda solución implica el entrenamiento cuantificado y la simplificación de los pesos, que suelen ser de 32 bits. Un algoritmo redondea los pesos para que sean solo ocho bits, a través de un proceso conocido como cuantización, que reduce la cantidad de memoria tanto para el entrenamiento como para la inferencia. La inferencia es el proceso de aplicar un modelo a un conjunto de datos y generar una predicción. Luego, el algoritmo aplica una técnica llamada escalado consciente de la cuantificación (QAS), que actúa como un multiplicador para ajustar la relación entre el peso y el gradiente, para evitar cualquier caída en la precisión que pueda provenir del entrenamiento cuantificado.

Los investigadores desarrollaron un sistema, llamado motor de entrenamiento diminuto, que puede ejecutar estas innovaciones algorítmicas en un microcontrolador simple que carece de sistema operativo. Este sistema cambia el orden de los pasos en el proceso de entrenamiento para que se complete más trabajo en la etapa de compilación, antes de que el modelo se implemente en el dispositivo perimetral.

“Impulsamos gran parte del cálculo, como la diferenciación automática y la optimización de gráficos, para compilar el tiempo. También eliminamos agresivamente los operadores redundantes para admitir actualizaciones dispersas. Una vez en tiempo de ejecución, tenemos mucho menos trabajo que hacer en el dispositivo”, explica Han.

Una aceleración exitosa

Su optimización solo requirió 157 kilobytes de memoria para entrenar un modelo de aprendizaje automático en un microcontrolador, mientras que otras técnicas diseñadas para entrenamiento ligero todavía necesitarían entre 300 y 600 megabytes.

Probaron su marco entrenando un modelo de visión por computadora para detectar personas en imágenes. Después de solo 10 minutos de entrenamiento, aprendió a completar la tarea con éxito. Su método pudo entrenar un modelo más de 20 veces más rápido que otros enfoques.

Ahora que han demostrado el éxito de estas técnicas para modelos de visión artificial, los investigadores quieren aplicarlas a modelos de lenguaje y diferentes tipos de datos, como datos de series temporales. Al mismo tiempo, quieren usar lo que han aprendido para reducir el tamaño de los modelos más grandes sin sacrificar la precisión, lo que podría ayudar a reducir la huella de carbono del entrenamiento de modelos de aprendizaje automático a gran escala.

“La adaptación/entrenamiento del modelo de IA en un dispositivo, especialmente en controladores integrados, es un desafío abierto. Esta investigación del MIT no solo demostró con éxito las capacidades, sino que también abrió nuevas posibilidades para la personalización de dispositivos que preservan la privacidad en tiempo real”, dice Nilesh Jain, ingeniero principal de Intel que no participó en este trabajo. “Las innovaciones en la publicación tienen una aplicabilidad más amplia y generarán nuevas investigaciones de codiseño de algoritmos de sistemas”.

“El aprendizaje en el dispositivo es el próximo gran avance en el que estamos trabajando para el borde inteligente conectado. El grupo del profesor Song Han ha mostrado un gran progreso en la demostración de la eficacia de los dispositivos de última generación para la formación”, añade Jilei Hou, vicepresidente y director de investigación de IA de Qualcomm. “Qualcomm ha otorgado a su equipo una beca de innovación para seguir innovando y avanzando en esta área”.

Este trabajo está financiado por la National Science Foundation, el MIT-IBM Watson AI Lab, el MIT AI Hardware Program, Amazon, Intel, Qualcomm, Ford Motor Company y Google.

MIT
Autor
MIT

Promover la investigación, las innovaciones, la enseñanza y los eventos y las personas de interés periodístico del MIT a la comunidad del campus, los medios de comunicación y el público en general, Comunicar anuncios del Instituto, Publicar noticias de la comunidad para profesores, estudiantes, personal y ex alumnos del MIT. Proporcionar servicios de medios a los miembros de la comunidad, incluido el asesoramiento sobre cómo trabajar con periodistas, Responder a consultas de los medios y solicitudes de entrevistas...


2024-04-17
La NASA refina las prioridades nacionales de desarrollo de tecnología espacial

Mientras la NASA se centra en explorar la Luna, Marte y el sistema solar en beneficio de la humanidad, la Dirección de Misiones de Tecnología Espacial (STMD) de la agencia está cambiando la forma en que prioriza el desarrollo tecnológico. Como parte de este esfuerzo de refinamiento, la NASA está pidiendo a la comunidad aeroespacial estadounidense comentarios sobre casi 190 necesidades (o deficiencias) de tecnología espacial nacional que ha identificado para futuros esfuerzos científicos y de exploración espacial.

2024-04-17
La ciencia de los grandes descubrimientos científicos es cada vez más elitista e interdisciplinaria

Un trabajo del Instituto de Análisis Económico (IAE-CSIC) analiza la edad, género, formación y procedencia de los autores de más de 700 grandes hallazgos científicos desde 1600 hasta la actualidad

2024-04-17
8 principios para la publicación científica según el International Science Council

El International Science Council (ISC), organización no gubernamental creada en 2018, promueve la ciencia como bien público global, respaldando la universalidad del conocimiento científico. A través de una política científica, busca mejorar la publicación académica en la era digital, basándose en 8 principios para la publicación científica, que incluyen acceso abierto, revisión rigurosa y garantía de acceso para futuras generaciones.

2024-04-16
Cristales antibacterianos de cobre y níquel aportarían a la prevención de futuras pandemias

Después de exponerlos a un proceso químico se encontró que el cobre y el níquel inhibieron con éxito el crecimiento de "Bacillus cereus" y "Staphylococcus aureus", bacterias con cepas resistentes a los antibióticos y relacionadas con enfermedades de transmisión alimentaria (toxiinfecciones). El hallazgo permitiría pensar en nuevos tratamientos farmacológicos o en la elaboración de empaques especiales que protejan productos como carnes y verduras.

2024-04-15
El CERN no decepciona. ATLAS nos recuerda a golpe de exitazo por qué es importante invertir en física de partículas

El bosón W es, junto al Z, una de las partículas responsables de la mediación que tiene lugar en la interacción nuclear débil, que es una de las cuatro fuerzas fundamentales de la naturaleza junto a la interacción electromagnética, la gravedad y la interacción nuclear fuerte. Los físicos suelen colocar a este mismo nivel el campo de Higgs, que es otra interacción fundamental que explica cómo las partículas adquieren su masa, pero para facilitar su comprensión los textos suelen recoger como fuerzas fundamentales las cuatro que acabo de mencionar.

2024-04-12
GPT-5: qué es, qué novedades traerá y cuándo estará disponible

No es ningún secreto que GPT-5, la nueva versión de la inteligencia artificial de OpenAI, está en desarrollo y que podría ver la luz en los próximos meses. De hecho, Sam Altman, CEO de la compañía, ha confirmado esto en diferentes ocasiones, y si bien intenta evitar dar detalles sobre qué ventajas tendrá la nueva IA frente a GPT-4, hay muchos rumores procedentes de fuentes fiables, así como declaraciones de otros ejecutivos, que ya han revelado algunas mejoras que tendría el modelo de lenguaje que alimenta a ChatGPT.