Generación de resúmenes de texto generativo consciente de los hechos con gráficos de dependencia
Autores: Chen, Ruoyu; Li, Yan; Jiang, Yuru; Sun, Bochen; Wang, Jingqi; Li, Zhen
Idioma: Inglés
Editor: MDPI
Año: 2024
Acceso abierto
Artículo científico
2024
Generación de resúmenes de texto generativo consciente de los hechos con gráficos de dependenciaCategoría
Ingeniería y Tecnología
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 21
Citaciones: Sin citaciones
Los resúmenes de texto generativos a menudo sufren de inconsistencias factuales, donde el resumen se desvía del texto original. Esto reduce significativamente su utilidad. Para abordar este problema, proponemos un método novedoso para mejorar la precisión factual de los resúmenes en chino mediante el uso de grafos de dependencia. Nuestro enfoque implica analizar el texto de entrada para construir un grafo de dependencia. Este grafo, junto con el texto original, es luego procesado por modelos separados: una Red Neural de Atención de Grafos Relacionales para el grafo de dependencia y un modelo Transformer para el texto en sí. Finalmente, un decodificador Transformer genera el resumen. Evaluamos la consistencia factual de los resúmenes generados utilizando varios métodos. Los experimentos demuestran que nuestro enfoque mejora alrededor de 7.79 puntos en comparación con el modelo Transformer base en el conjunto de datos chino LCSTS utilizando la métrica ROUGE-1, y 4.48 puntos en el modelo de evaluación de consistencia factual StructBERT.
Descripción
Los resúmenes de texto generativos a menudo sufren de inconsistencias factuales, donde el resumen se desvía del texto original. Esto reduce significativamente su utilidad. Para abordar este problema, proponemos un método novedoso para mejorar la precisión factual de los resúmenes en chino mediante el uso de grafos de dependencia. Nuestro enfoque implica analizar el texto de entrada para construir un grafo de dependencia. Este grafo, junto con el texto original, es luego procesado por modelos separados: una Red Neural de Atención de Grafos Relacionales para el grafo de dependencia y un modelo Transformer para el texto en sí. Finalmente, un decodificador Transformer genera el resumen. Evaluamos la consistencia factual de los resúmenes generados utilizando varios métodos. Los experimentos demuestran que nuestro enfoque mejora alrededor de 7.79 puntos en comparación con el modelo Transformer base en el conjunto de datos chino LCSTS utilizando la métrica ROUGE-1, y 4.48 puntos en el modelo de evaluación de consistencia factual StructBERT.