Biblioteca76.515 documentos en línea

Artículo

Integrated Multiscale Appearance Features and Motion Information Prediction Network for Anomaly DetectionCaracterísticas de apariencia multiescala integradas y red de predicción de información de movimiento para la detección de anomalías

Resumen

El auge de los algoritmos de predicción de vídeo ha promovido en gran medida el desarrollo de la detección de anomalías en la videovigilancia para las ciudades inteligentes y la seguridad pública. Sin embargo, la mayoría de los métodos actuales se basan en información de una sola escala para extraer características de apariencia (espaciales) y carecen de continuidad de movimiento (temporal) entre los fotogramas de vídeo. Esto puede causar una pérdida de información espacio-temporal parcial que tiene un gran potencial para predecir fotogramas futuros, afectando a la precisión de la detección de anomalías. Así, proponemos una novedosa red de predicción para mejorar el rendimiento de la detección de anomalías. Debido a los objetos de diversas escalas en cada vídeo, utilizamos diferentes campos receptivos para extraer características detalladas de apariencia mediante el módulo de convolución dilatada híbrida (HDC). Mientras tanto, el módulo de memoria bidireccional a corto plazo más profundo (DB-ConvLSTM) puede recordar la información de movimiento entre fotogramas consecutivos. Además, utilizamos la pérdida de diferencia RGB para sustituir la pérdida de flujo óptico como restricción temporal, lo que reduce en gran medida el tiempo de extracción del flujo óptico. En comparación con los métodos más avanzados en la tarea de detección de anomalías, los experimentos demuestran que nuestro método puede detectar con mayor precisión las anomalías en diversas escenas de videovigilancia.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento