logo móvil

Generación de resúmenes de texto generativo consciente de los hechos con gráficos de dependencia

Autores: Chen, Ruoyu; Li, Yan; Jiang, Yuru; Sun, Bochen; Wang, Jingqi; Li, Zhen

Idioma: Inglés

Editor: MDPI

Año: 2024

Descargar PDF

Acceso abierto

Artículo científico


Categoría

Ingeniería y Tecnología

Licencia

CC BY-SA – Atribución – Compartir Igual

Consultas: 21

Citaciones: Sin citaciones


Descripción
Los resúmenes de texto generativos a menudo sufren de inconsistencias factuales, donde el resumen se desvía del texto original. Esto reduce significativamente su utilidad. Para abordar este problema, proponemos un método novedoso para mejorar la precisión factual de los resúmenes en chino mediante el uso de grafos de dependencia. Nuestro enfoque implica analizar el texto de entrada para construir un grafo de dependencia. Este grafo, junto con el texto original, es luego procesado por modelos separados: una Red Neural de Atención de Grafos Relacionales para el grafo de dependencia y un modelo Transformer para el texto en sí. Finalmente, un decodificador Transformer genera el resumen. Evaluamos la consistencia factual de los resúmenes generados utilizando varios métodos. Los experimentos demuestran que nuestro enfoque mejora alrededor de 7.79 puntos en comparación con el modelo Transformer base en el conjunto de datos chino LCSTS utilizando la métrica ROUGE-1, y 4.48 puntos en el modelo de evaluación de consistencia factual StructBERT.

Documentos Relacionados

Temas Virtualpro