Biblioteca76.515 documentos en línea

Artículo

Underwater Inherent Optical Properties Estimation Using a Depth Aided Deep Neural NetworkEstimación de las propiedades ópticas inherentes bajo el agua mediante una red neuronal profunda asistida por la profundidad

Resumen

Las propiedades ópticas inherentes (PIO) subacuáticas son las claves fundamentales de muchos campos de investigación, como la óptica marina, la biología marina y la visión subacuática. En la actualidad, los transmisómetros de haz y los sensores ópticos se consideran los métodos ideales para medir las PIO. Sin embargo, estos métodos son inflexibles y caros de desplegar. Para superar este problema, nos proponemos desarrollar un nuevo método de medición utilizando una sola imagen subacuática con la ayuda de una red neuronal artificial profunda. La potencia de las redes neuronales artificiales ha quedado demostrada en los campos del procesamiento de imágenes y la visión por ordenador con la tecnología de aprendizaje profundo. Sin embargo, la estimación de la PIO basada en imágenes es una tarea bastante diferente y desafiante. A diferencia de las aplicaciones tradicionales, como la clasificación o la localización de imágenes, la estimación de la PIO tiene en cuenta la transparencia del agua entre la cámara y los objetos objetivo para estimar múltiples propiedades ópticas simultáneamente. En este trabajo, proponemos una novedosa estructura de red neuronal profunda asistida por profundidad (DA) para la estimación de IOPs basada en una única imagen RGB que incluso es ruidosa. La información de la profundidad de la imagen se considera como una entrada asistida para ayudar a nuestro modelo a tomar una mejor decisión.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento