Biblioteca93.141 documentos en línea

Artículo

Salient Region Detection by Fusing Foreground and Background Cues Extracted from Single ImageDetección de regiones salientes mediante la fusión de señales de primer plano y de fondo extraídas de una sola imagen

Resumen

La detección de saliencia es un importante paso de preprocesamiento en muchos campos de aplicación, como la visión por ordenador, la robótica y los gráficos, para reducir el coste computacional centrándose en las posiciones significativas y descuidando las no significativas de la escena. A diferencia de la mayoría de los métodos anteriores, que utilizan principalmente el contraste de características de bajo nivel, varios mapas de características se fusionan en una forma de ponderación lineal simple. En este artículo, proponemos un nuevo algoritmo de detección de objetos salientes que tiene en cuenta tanto el fondo como el primer plano e integra una extracción de regiones salientes gruesas de abajo arriba y una medida de fondo de arriba abajo mediante la propagación de etiquetas de límite en un marco de optimización unificado para obtener un resultado de detección de saliencia refinado. El primero es un mapa de contraste local que se ajusta más a la ley psicológica, el segundo es un mapa de frecuencia global previa y el tercero es un mapa de distribución de color global. Durante la formación del mapa de fondo, primero construimos una matriz de afinidad y seleccionamos algunos nodos que se encuentran en el borde como etiquetas para representar el fondo y, a continuación, llevamos a cabo una propagación para generar el mapa de fondo regional. El modelo propuesto se ha evaluado con cuatro conjuntos de datos. Como demuestran los experimentos, el método propuesto supera a la mayoría de los modelos de detección de saliencia existentes con un rendimiento robusto.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento