Noticias Actualidad en procesos industriales

Dele visibilidad a su trayectoria académica

Participe en la convocatoria de trabajos inéditos de Virtual Pro.

Publicar Ahora

2021-10-22Un gran salto para el mini guepardo

MIT |Un nuevo sistema de control, demostrado utilizando el mini guepardo robótico del MIT, permite a los robots de cuatro patas saltar por terrenos irregulares en tiempo real.

Un guepardo trotando corre a través de un campo ondulado, saltando sobre brechas repentinas en el terreno accidentado. El movimiento puede parecer sin esfuerzo, pero lograr que un robot se mueva de esta manera es una perspectiva completamente diferente.

En los últimos años, los robots de cuatro patas inspirados en el movimiento de los guepardos y otros animales han dado grandes pasos hacia adelante, pero aún están rezagados con respecto a sus homólogos mamíferos cuando se trata de viajar a través de un paisaje con rápidos cambios de elevación.

“En esos entornos, es necesario utilizar la visión para evitar fallas. Por ejemplo, es difícil evitar entrar en un espacio si no puede verlo. Aunque existen algunos métodos para incorporar la visión en la locomoción con patas, la mayoría de ellos no son realmente adecuados para su uso con sistemas robóticos ágiles emergentes ”, dice Gabriel Margolis, estudiante de doctorado en el laboratorio de Pulkit Agrawal, profesor de Ciencias de la Computación y Laboratorio de Inteligencia Artificial (CSAIL) del MIT.

Ahora, Margolis y sus colaboradores han desarrollado un sistema que mejora la velocidad y la agilidad de los robots con patas cuando saltan por los huecos del terreno. El novedoso sistema de control se divide en dos partes: una que procesa la entrada en tiempo real de una cámara de video montada en la parte frontal del robot y otra que traduce esa información en instrucciones sobre cómo el robot debe mover su cuerpo. Los investigadores probaron su sistema en el mini guepardo del MIT, un robot potente y ágil construido en el laboratorio de Sangbae Kim, profesor de ingeniería mecánica.

A diferencia de otros métodos para controlar un robot de cuatro patas, este sistema de dos partes no requiere que se mapee el terreno por adelantado, por lo que el robot puede ir a cualquier parte. En el futuro, esto podría permitir que los robots se adentren en el bosque en una misión de respuesta de emergencia o que suban un tramo de escaleras para entregar medicamentos a un anciano encerrado.

Margolis escribió el artículo con el autor principal Pulkit Agrawal, quien dirige el laboratorio de IA improbable en el MIT y es profesor asistente de desarrollo de carrera de Steven G. y Renee Finn en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación; El profesor Sangbae Kim en el Departamento de Ingeniería Mecánica del MIT; y sus compañeros estudiantes de posgrado Tao Chen y Xiang Fu en MIT. Otros coautores incluyen a Kartik Paigwar, estudiante de posgrado de la Universidad Estatal de Arizona; y Donghyun Kim, profesor asistente de la Universidad de Massachusetts en Amherst. El trabajo se presentará el próximo mes en la Conferencia sobre aprendizaje de robots.

Todo esta bajo control

El uso de dos controladores separados que trabajan juntos hace que este sistema sea especialmente innovador.

Un controlador es un algoritmo que convertirá el estado del robot en un conjunto de acciones que debe seguir. Muchos controladores ciegos, los que no incorporan visión, son robustos y efectivos, pero solo permiten a los robots caminar sobre terreno continuo.

La visión es una entrada sensorial tan compleja para procesar que estos algoritmos no pueden manejarla de manera eficiente. Los sistemas que incorporan visión generalmente se basan en un "mapa de altura" del terreno, que debe ser preconstruido o generado sobre la marcha, un proceso que suele ser lento y propenso a fallar si el mapa de altura es incorrecto.

Para desarrollar su sistema, los investigadores tomaron los mejores elementos de estos controladores robustos y ciegos y los combinaron con un módulo separado que maneja la visión en tiempo real.

La cámara del robot captura imágenes de profundidad del terreno próximo, que se envían a un controlador de alto nivel junto con información sobre el estado del cuerpo del robot (ángulos de articulación, orientación del cuerpo, etc.). El controlador de alto nivel es una red neuronal que "aprende" de la experiencia.

Esa red neuronal genera una trayectoria objetivo, que el segundo controlador usa para generar pares para cada una de las 12 articulaciones del robot. Este controlador de bajo nivel no es una red neuronal y, en cambio, se basa en un conjunto de ecuaciones físicas concisas que describen el movimiento del robot.

“La jerarquía, incluido el uso de este controlador de bajo nivel, nos permite restringir el comportamiento del robot para que se comporte mejor. Con este controlador de bajo nivel, estamos utilizando modelos bien especificados a los que podemos imponer restricciones, lo que normalmente no es posible en una red basada en el aprendizaje ”, dice Margolis.

Enseñando la red

Los investigadores utilizaron el método de prueba y error conocido como aprendizaje por refuerzo para entrenar al controlador de alto nivel. Realizaron simulaciones del robot corriendo a través de cientos de diferentes terrenos discontinuos y lo recompensaron por cruzar con éxito.

Con el tiempo, el algoritmo aprendió qué acciones maximizaban la recompensa.

Luego construyeron un terreno físico y con huecos con un juego de tablas de madera y pusieron a prueba su esquema de control usando el mini guepardo.

“Definitivamente fue divertido trabajar con un robot que fue diseñado internamente en el MIT por algunos de nuestros colaboradores. El mini guepardo es una gran plataforma porque es modular y está hecho principalmente de piezas que puede pedir en línea, por lo que si queríamos una nueva batería o cámara, era simplemente una cuestión de pedirla a un proveedor habitual y, con un poco de un poco de ayuda del laboratorio de Sangbae para instalarlo ”, dice Margolis.

Estimar el estado del robot resultó ser un desafío en algunos casos. A diferencia de la simulación, los sensores del mundo real encuentran ruido que puede acumularse y afectar el resultado. Entonces, para algunos experimentos que involucraron la colocación de pies de alta precisión, los investigadores utilizaron un sistema de captura de movimiento para medir la verdadera posición del robot.

Su sistema superó a otros que solo usan un controlador, y el mini guepardo cruzó con éxito el 90 por ciento de los terrenos.

“Una novedad de nuestro sistema es que ajusta la marcha del robot. Si un humano estuviera tratando de saltar a través de una brecha realmente amplia, podría comenzar corriendo muy rápido para ganar velocidad y luego podría juntar ambos pies para tener un salto realmente poderoso a través de la brecha. De la misma manera, nuestro robot puede ajustar los tiempos y la duración de los contactos de sus pies para atravesar mejor el terreno ”, dice Margolis.

Saltando del laboratorio

Si bien los investigadores pudieron demostrar que su esquema de control funciona en un laboratorio, todavía tienen un largo camino por recorrer antes de poder implementar el sistema en el mundo real, dice Margolis.

En el futuro, esperan montar una computadora más potente en el robot para que pueda hacer todos sus cálculos a bordo. También quieren mejorar el estimador de estado del robot para eliminar la necesidad del sistema de captura de movimiento. Además, les gustaría mejorar el controlador de bajo nivel para que pueda aprovechar todo el rango de movimiento del robot y mejorar el controlador de alto nivel para que funcione bien en diferentes condiciones de iluminación.

“Es notable presenciar la flexibilidad de las técnicas de aprendizaje automático capaces de eludir procesos intermedios cuidadosamente diseñados (por ejemplo, estimación de estado y planificación de trayectorias) en los que se han basado técnicas basadas en modelos de siglos de antigüedad”, dice Kim. "Estoy entusiasmado con el futuro de los robots móviles con un procesamiento de la visión más robusto entrenado específicamente para la locomoción".

La investigación es apoyada, en parte, por el Improbable AI Lab, el Laboratorio de Robótica Biomimética, NAVER LABS y el programa DARPA Machine Common Sense del MIT.

MIT
Autor
MIT

Promover la investigación, las innovaciones, la enseñanza y los eventos y las personas de interés periodístico del MIT a la comunidad del campus, los medios de comunicación y el público en general, Comunicar anuncios del Instituto, Publicar noticias de la comunidad para profesores, estudiantes, personal y ex alumnos del MIT. Proporcionar servicios de medios a los miembros de la comunidad, incluido el asesoramiento sobre cómo trabajar con periodistas, Responder a consultas de los medios y solicitudes de entrevistas...


2024-04-17
Este robot puede saber cuándo estás a punto de sonreír y devolverte la sonrisa

Los emo pueden predecir una sonrisa humana 839 milisegundos antes de que suceda.

2024-04-16
Tokyo Electron: la futurista ASML nipona con la que Japón quiere convertirse en una potencia de los chips

"Estamos trabajando con nuestros clientes para desarrollar tecnologías que se adentran cuatro generaciones en el futuro". Esta declaración de Nobuto Doi, vicepresidente de Tokyo Electron, es toda una declaración de intenciones. Cuando hablamos de la industria de los equipos de fotolitografía la compañía neerlandesa ASML acapara todo el protagonismo. Y lo merece si tenemos presente que actualmente es la única que ha desarrollado máquinas de litografía de ultravioleta extremo (UVE) y su más reciente y avanzada iteración, los equipos UVE de alta apertura.

2024-04-15
Experiencias de gaming en plataformas de Metaverso

Existen multitud de plataformas de Metaverso a las que podemos acceder con nuestro avatar y experimentar diferentes mundos virtuales. Entre las plataformas más destacadas se encuentran Horizon Worlds, Microsoft Mesh, Spatial, Decentraland y VRChat, en las que podemos acceder a ellas desde distintos dispositivos. En algunas de ellas solo podremos disfrutar de la experiencia mediante gafas de realidad virtual (VR) y en otras, que son multidispositivo, es posible acceder desde dispositivos móviles y desktop.

2024-04-11
Una forma mejor y más rápida de evitar que un chatbot de IA dé respuestas tóxicas

Los investigadores crean un curioso modelo de aprendizaje automático que encuentra una variedad más amplia de indicaciones para entrenar un chatbot para evitar resultados odiosos o dañinos.

2024-04-11
Dominar el arte de la formación en robótica para las fábricas del mañana

El equipo del proyecto MASTER, financiado con fondos europeos, lanza su primera convocatoria abierta para desarrolladores de tecnologías de realidad extendida. El objetivo es crear innovaciones digitales de aprendizaje que se utilicen en una plataforma abierta para la formación basada en la realidad extendida en el sector manufacturero.

2024-04-08
Inteligencia Artificial (IA) para la optimización de los procesos industriales

Desde los adelantos tecnológicos con energías generadas por carbón y gas en los siglos XVIII y XIX, los procesos industriales han venido evolucionando hasta llegar a la cuarta revolución industrial.