Biblioteca121.270 documentos en línea

Artículo

A Deep Learning Method for Near-Real-Time Cloud and Cloud Shadow Segmentation from Gaofen-1 ImagesUn método de aprendizaje profundo para la segmentación de nubes y sombras en tiempo casi real a partir de imágenes de Gaofen-1

Resumen

En este estudio se presenta una aplicación esencial de la teledetección que utiliza la funcionalidad del aprendizaje profundo. La misión del satélite Gaofen-1, desarrollada por la Administración Nacional del Espacio de China (CNSA) para el programa civil de satélites de observación de la Tierra de alta definición, proporciona observaciones en tiempo casi real para la cartografía geográfica, la vigilancia del medio ambiente y la supervisión del cambio climático. La segmentación de las nubes y de las sombras de las nubes es un elemento crucial para permitir el procesamiento automático en tiempo casi real de las imágenes de Gaofen-1 y, por lo tanto, sus prestaciones deben ser validadas con precisión. En este trabajo, se propone un método robusto de segmentación multiescala basado en el aprendizaje profundo para mejorar la eficiencia y la eficacia de la segmentación de nubes y sombras de nubes a partir de imágenes Gaofen-1. El método propuesto implementa primero el mapa de características basado en las características espectrales-espaciales de las capas convolucionales residuales y la extracción de huellas de nubes/sombras de nubes basada en una novedosa función de pérdida para generar las huellas finales. Los resultados experimentales utilizando imágenes de Gaofen-1 demuestran la precisión más razonable y el logro de un coste computacional eficiente del método propuesto en comparación con el rendimiento de la segmentación de nubes y sombras de dos métodos existentes del estado de la técnica.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento