Biblioteca93.141 documentos en línea

Artículo

DetReco: Object-Text Detection and Recognition Based on Deep Neural NetworkDetReco: Detección y reconocimiento de texto-objeto basado en redes neuronales profundas

Resumen

El método de detección de objetos basado en aprendizaje profundo se ha aplicado en diversos campos, como ITS (sistemas de transporte inteligentes) y ADS (sistemas de conducción autónoma). Mientras tanto, la detección y el reconocimiento de texto en diferentes escenas también han atraído mucha atención y esfuerzos de investigación. En este artículo, proponemos un nuevo método de detección y reconocimiento de objetos-texto denominado "DetReco" para detectar objetos y textos y reconocer el contenido del texto. El método propuesto se compone de una red de detección objeto-texto y una red de reconocimiento de texto. Se utiliza YOLOv3 como algoritmo para la tarea de detección objeto-texto y CRNN para la tarea de reconocimiento de texto. Combinamos los conjuntos de datos de objetos generales y textos para entrenar las redes. En el momento de la prueba, la red de detección detecta varios objetos en una imagen. A continuación, las imágenes de texto se pasan a la red de reconocimiento de texto para obtener el contenido del texto. Los experimentos muestran que el método propuesto alcanza una precisión media de 78,3 mAP (Average Precision) para objetos generales y 72,8 AP (Average Precision) para textos en lo que respecta al rendimiento de detección. Además, el método propuesto es capaz de detectar y reconocer textos transformados u ocluidos con solidez. Además, para los textos detectados alrededor de objetos generales, el contenido del texto puede utilizarse como identificador para distinguir el objeto.

  • Tipo de documento:
  • Formato:pdf
  • Idioma:Inglés
  • Tamaño: Kb

Cómo citar el documento

Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.

Este contenido no est� disponible para su tipo de suscripci�n

Información del documento