Reconocimiento de Intenciones Impulsado por Redes Neuronales para una Mejora de la Interacción Humano-Robot: Un Enfoque Impulsado por la Realidad Virtual
Autores: Kamali Mohammadzadeh, Ali; Alinezhad, Elnaz; Masoud, Sara
Idioma: Inglés
Editor: MDPI
Año: 2025
Acceso abierto
Artículo científico
Categoría
Tecnología de Equipos y Accesorios
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 11
Citaciones: Sin citaciones
El reconocimiento de intenciones en la Interacción Humano-Robot (HRI) es fundamental para permitir que los robots anticipen y respondan a las acciones humanas de manera efectiva. Este estudio explora la aplicación de técnicas de aprendizaje profundo para la clasificación de intenciones humanas en HRI, utilizando datos recopilados de entornos de Realidad Virtual (VR). Al aprovechar la VR, se crea un espacio controlado e inmersivo, donde se pueden monitorear y registrar de cerca los comportamientos humanos. Se entrenan modelos de aprendizaje profundo en conjunto, particularmente Redes Neuronales Convolucionales (CNN), Memoria a Largo y Corto Plazo (LSTM) y Transformadores, en este rico conjunto de datos para reconocer y predecir intenciones humanas con alta precisión. Mientras que los modelos CNN y CNN-LSTM lograron altas tasas de precisión, encontraron dificultades para identificar con precisión ciertas intenciones (por ejemplo, estar de pie y caminar). En contraste, el modelo CNN-Transformador superó a sus contrapartes, logrando una precisión, recuperación y puntuaciones F1 casi perfectas. El enfoque propuesto demuestra el potencial para mejorar la HRI al proporcionar a los robots la capacidad de anticipar y actuar sobre las intenciones humanas en tiempo real, lo que conduce a una colaboración más intuitiva y efectiva entre humanos y robots. Los resultados experimentales destacan la efectividad de la VR como herramienta de recopilación de datos y la promesa del aprendizaje profundo en el avance del reconocimiento de intenciones en HRI.
Descripción
El reconocimiento de intenciones en la Interacción Humano-Robot (HRI) es fundamental para permitir que los robots anticipen y respondan a las acciones humanas de manera efectiva. Este estudio explora la aplicación de técnicas de aprendizaje profundo para la clasificación de intenciones humanas en HRI, utilizando datos recopilados de entornos de Realidad Virtual (VR). Al aprovechar la VR, se crea un espacio controlado e inmersivo, donde se pueden monitorear y registrar de cerca los comportamientos humanos. Se entrenan modelos de aprendizaje profundo en conjunto, particularmente Redes Neuronales Convolucionales (CNN), Memoria a Largo y Corto Plazo (LSTM) y Transformadores, en este rico conjunto de datos para reconocer y predecir intenciones humanas con alta precisión. Mientras que los modelos CNN y CNN-LSTM lograron altas tasas de precisión, encontraron dificultades para identificar con precisión ciertas intenciones (por ejemplo, estar de pie y caminar). En contraste, el modelo CNN-Transformador superó a sus contrapartes, logrando una precisión, recuperación y puntuaciones F1 casi perfectas. El enfoque propuesto demuestra el potencial para mejorar la HRI al proporcionar a los robots la capacidad de anticipar y actuar sobre las intenciones humanas en tiempo real, lo que conduce a una colaboración más intuitiva y efectiva entre humanos y robots. Los resultados experimentales destacan la efectividad de la VR como herramienta de recopilación de datos y la promesa del aprendizaje profundo en el avance del reconocimiento de intenciones en HRI.