Biblioteca73.326 documentos en línea

Artículo

An Improved Deep Residual Network-Based Semantic Simultaneous Localization and Mapping Method for Monocular Vision RobotUn método mejorado de localización y mapeo semántico simultáneo basado en una red residual profunda para un robot de visión monocular

Resumen

La localización y el mapeo simultáneos de robots (SLAM) es una tecnología muy importante y útil en el campo de la robótica. Sin embargo, el mapa del entorno construido por el método tradicional de SLAM visual contiene poca información semántica, que no puede satisfacer las necesidades de las aplicaciones complejas. El mapa semántico puede resolver este problema de forma eficiente, lo que se ha convertido en un punto caliente de investigación. Este trabajo propone un método de SLAM semántico mejorado basado en una red residual profunda (ResNet) para robots de visión monocular. En el enfoque propuesto, se presenta un algoritmo mejorado de coincidencia de imágenes basado en puntos de características, para mejorar la capacidad anti-interferencia del algoritmo. A continuación, se adopta el método robusto de extracción de puntos característicos en el módulo front-end del sistema SLAM, que puede reducir eficazmente la probabilidad de pérdida de seguimiento de la cámara. Además, se introduce el método mejorado de inserción de fotogramas clave en el sistema SLAM visual para mejorar la estabilidad del sistema durante el giro y el movimiento del robot. Además, se propone un modelo ResNet mejorado para extraer la información semántica del entorno y completar la construcción del mapa semántico del entorno. Por último, se realizan varios experimentos y los resultados muestran que el método propuesto es eficaz.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento