Mejora de la seguridad en el desarrollo de aplicaciones industriales: estudio de caso sobre herramientas de inteligencia artificial autogeneradas
Autores: Mateo Sanguino, Tomás de J.
Idioma: Inglés
Editor: Paolino Di Felice
Año: 2024
Acceso abierto
Categoría
Subcategoría
Palabras clave
Licencia
Consultas: 47
Citaciones: Ingeniería de software y ciberseguridad
Este artículo analiza los riesgos de ciberseguridad asociados al desarrollo de software asistido por herramientas de generación automática de código, como modelos de IA. Este estudio demuestra cómo pueden surgir vulnerabilidades auto-generadas cuando el código producido no incorpora buenas prácticas de seguridad. Mediante un caso de estudio, se ejemplifica la creación de una aplicación web con base de datos, consultas SQL y backend en PHP generados por IA, donde se identifica una vulnerabilidad explotable. La investigación describe de forma detallada un ataque de inyección SQL, mostrando paso a paso cómo un atacante puede manipular consultas, explorar la estructura de la base de datos y acceder a información sensible. El autor propone estrategias de mitigación que incluyen formación en desarrollo seguro, análisis de errores, auditorías, integración de herramientas de seguridad y colaboración con terceros. Además, concluyen que el uso responsable de IA junto con prácticas de codificación segura fortalece la seguridad y la conformidad regulatoria.
Este artículo analiza los riesgos de ciberseguridad asociados al desarrollo de software asistido por herramientas de generación automática de código, como modelos de IA. Este estudio demuestra cómo pueden surgir vulnerabilidades auto-generadas cuando el código producido no incorpora buenas prácticas de seguridad. Mediante un caso de estudio, se ejemplifica la creación de una aplicación web con base de datos, consultas SQL y backend en PHP generados por IA, donde se identifica una vulnerabilidad explotable. La investigación describe de forma detallada un ataque de inyección SQL, mostrando paso a paso cómo un atacante puede manipular consultas, explorar la estructura de la base de datos y acceder a información sensible. El autor propone estrategias de mitigación que incluyen formación en desarrollo seguro, análisis de errores, auditorías, integración de herramientas de seguridad y colaboración con terceros. Además, concluyen que el uso responsable de IA junto con prácticas de codificación segura fortalece la seguridad y la conformidad regulatoria.