Biblioteca93.141 documentos en línea

Artículo

Learning Feature Fusion in Deep Learning-Based Object DetectorFusión de características de aprendizaje en un detector de objetos basado en aprendizaje profundo

Resumen

La detección de objetos en imágenes reales es un problema desafiante en visión por computador. A pesar de varios avances en las técnicas de detección y reconocimiento, la localización robusta y precisa de objetos interesantes en imágenes de escenarios reales sigue sin resolverse debido a las dificultades que plantean las variaciones intraclase e interclase, la oclusión, la iluminación y los cambios de escala a diferentes niveles. En este trabajo, presentamos un marco de detección de objetos mediante la fusión basada en el aprendizaje de características artesanales con características profundas. Las características profundas caracterizan diferentes regiones de interés en una imagen de prueba con un rico conjunto de características estadísticas. Nuestra hipótesis es reforzar estas características con características artesanales mediante el aprendizaje de la fusión óptima durante el entrenamiento de la red. Nuestro marco de detección se basa en la reciente versión de la arquitectura de detección de objetos YOLO. En la evaluación experimental de los conjuntos de datos PASCAL-VOC y MS-COCO se logró un aumento de la tasa de detección del 11,4 y 1,9% en la escala mAP en comparación con el detector YOLO versión-3 (Redmon y Farhadi 2018). Un paso importante en la estrategia propuesta de fusión de características basada en el aprendizaje es identificar correctamente la capa que alimenta las nuevas características. El presente trabajo muestra un enfoque cualitativo para identificar la mejor capa para la fusión y los pasos de diseño para alimentar los conjuntos de características adicionales en los detectores basados en redes convolucionales.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento