Generación de pseudocódigo a partir de código fuente utilizando el modelo BART
Autores: Alokla, Anas; Gad, Walaa; Nazih, Waleed; Aref, Mustafa; Salem, Abdel-badeeh
Idioma: Inglés
Editor: MDPI
Año: 2022
Acceso abierto
Artículo científico
Categoría
Matemáticas
Subcategoría
Matemáticas generales
Palabras clave
Desarrollo de software
Desarrollador
Pseudocódigo
Modelos basados en transformadores
BART
Modelo pre-entrenado
Licencia
CC BY-SA – Atribución – Compartir Igual
Consultas: 40
Citaciones: Sin citaciones
En el proceso de desarrollo de software, más de un desarrollador puede trabajar en el desarrollo del mismo programa y los errores en el programa pueden ser corregidos por un desarrollador diferente; por lo tanto, entender el código fuente es un tema importante. El pseudocódigo juega un papel importante en resolver este problema, ya que ayuda al desarrollador a entender el código fuente. Recientemente, los modelos pre-entrenados basados en transformadores lograron resultados notables en la traducción automática, que es similar a la generación de pseudocódigo. En este documento, proponemos una novedosa generación automática de pseudocódigo a partir del código fuente basada en un modelo BART (Bidirectional and Auto-Regressive Transformer) pre-entrenado. Ajustamos dos modelos BART pre-entrenados (es decir, grandes y base) utilizando un conjunto de datos que contiene código fuente y su pseudocódigo equivalente. Además, se utilizaron dos conjuntos de datos de referencia (es decir, Django y SPoC) para evaluar el modelo propuesto. El modelo propuesto basado en el modelo BART grande supera a otros modelos de vanguardia en términos de la medición BLEU en un 15% y 27% para los conjuntos de datos de Django y SPoC, respectivamente.
Descripción
En el proceso de desarrollo de software, más de un desarrollador puede trabajar en el desarrollo del mismo programa y los errores en el programa pueden ser corregidos por un desarrollador diferente; por lo tanto, entender el código fuente es un tema importante. El pseudocódigo juega un papel importante en resolver este problema, ya que ayuda al desarrollador a entender el código fuente. Recientemente, los modelos pre-entrenados basados en transformadores lograron resultados notables en la traducción automática, que es similar a la generación de pseudocódigo. En este documento, proponemos una novedosa generación automática de pseudocódigo a partir del código fuente basada en un modelo BART (Bidirectional and Auto-Regressive Transformer) pre-entrenado. Ajustamos dos modelos BART pre-entrenados (es decir, grandes y base) utilizando un conjunto de datos que contiene código fuente y su pseudocódigo equivalente. Además, se utilizaron dos conjuntos de datos de referencia (es decir, Django y SPoC) para evaluar el modelo propuesto. El modelo propuesto basado en el modelo BART grande supera a otros modelos de vanguardia en términos de la medición BLEU en un 15% y 27% para los conjuntos de datos de Django y SPoC, respectivamente.