GENERACIÓN AUTOMÁTICA DE CÓDIGO FUENTE A TRAVÉS DE MODELOS PREENTRENADOS DE LENGUAJE
CHATGPT: EVALUACIÓN Y APLICACIÓN
Palabras clave:
Generación de Código, Transformers, Modelos Preentrenados, ChatGPTResumen
Este estudio explora las capacidades del modelo de lenguaje de inteligencia artificial ChatGPT, con la arquitectura GPT-3 desarrollada por OpenAI, en la tarea de generar código fuente en JavaScript a partir de instrucciones en español. Los modelos de lenguaje transformer, como exponentes del aprendizaje profundo, son eficaces en aprender representaciones contextuales de palabras y frases. Esto permite que el modelo comprenda no sólo los términos de programación individuales, sino también cómo se combinan en estructuras más grandes como bucles y funciones. A través de un conjunto de solicitudes únicas de funciones de programación de un conjunto de casos seleccionados, preparados para este trabajo, examinamos la capacidad del modelo para transcribir estas especificaciones de alto nivel en un código fuente ejecutable y funcional. Los resultados del modelo fueron evaluados en un compilador, buscando una evaluación objetiva de la funcionalidad del código generado en casos de prueba unitarios preparados de antemano. El modelo logra un 100% de código compilable y un 90% de resolución exitosa de los problemas. Este trabajo persigue la exploración en la intersección de la IA y la programación, abriendo el camino para la automatización efectiva del desarrollo de código a partir de sentencias en lenguaje español. Se espera que este trabajo proporcione una contribución al creciente cuerpo de literatura que se centra en la generación de código y la comprensión del lenguaje natural en los modelos de lenguaje de IA.
Descargas
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2024 Adrián Bender, Santiago Nicolet, Pablo Folino, Juan José Lópe
Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.