Biblioteca76.515 documentos en línea

Artículo

Multiview Layer Fusion Model for Action Recognition Using RGBD ImagesModelo de fusión de capas multivista para el reconocimiento de acciones mediante imágenes RGBD

Resumen

El reconocimiento de acciones basado en la visión se enfrenta a diferentes retos en la práctica, como el reconocimiento del sujeto desde cualquier punto de vista, el procesamiento de datos en tiempo real y la oferta de privacidad en un entorno real. Incluso el reconocimiento de acciones humanas basado en perfiles, un subconjunto del reconocimiento de acciones basado en la visión, es un reto considerable en la visión por ordenador que constituye la base para la comprensión de acciones, actividades y comportamientos complejos, especialmente en aplicaciones sanitarias y sistemas de videovigilancia. En consecuencia, introducimos un método novedoso para construir un modelo de características por capas para una solución basada en perfiles que permite la fusión de características para imágenes de profundidad multivista. Este modelo permite el reconocimiento desde varios puntos de vista con una baja complejidad a una velocidad de ejecución en tiempo real de 63 fps para cuatro acciones basadas en perfiles: estar de pie/caminar, sentarse, agacharse y tumbarse. El experimento realizado con el conjunto de datos 3D de Northwestern-UCLA dio como resultado una precisión media del 86,40%. Con el conjunto de datos i3DPost, el experimento alcanzó una precisión media del 93,00%. Con el conjunto de datos de acción basado en el perfil de la PSU, un nuevo conjunto de datos para múltiples puntos de vista que proporciona imágenes RGBD de acción basadas en el perfil construidas por nuestro grupo, logramos una precisión media del 99,31%.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento