Un creciente número de investigaciones de destacadas universidades y organizaciones de ciberseguridad, discutidas activamente en círculos profesionales el 5 de julio de 2025, está haciendo sonar las alarmas sobre los graves riesgos asociados con el uso generalizado de populares herramientas de codificación de IA como GitHub Copilot y soluciones similares. A pesar del claro y significativo aumento en la productividad de los desarrolladores, estos asistentes pueden introducir sin saberlo vulnerabilidades peligrosas en el código de software, creando lo que se conoce como "deuda de seguridad". Como se destaca en informes recientes de OWASP (Open Web Application Security Project) y en estudios realizados, por ejemplo, en la Universidad Técnica de Delft (TU Delft), el problema principal es que los modelos de IA se entrenan con enormes cantidades de código disponible públicamente de plataformas como GitHub. Este código fuente a menudo contiene prácticas de programación obsoletas, inseguras o simplemente malas, que la inteligencia artificial luego aprende y reproduce en sus sugerencias. Un modelo optimizado para generar rápidamente código funcional no siempre es capaz de evaluar su seguridad y fiabilidad en escenarios del mundo real. Entre los problemas más comunes se encuentran la sugerencia de código con vulnerabilidades clásicas (como inyección de SQL o XSS), el uso de bibliotecas obsoletas con agujeros de seguridad conocidos y la generación de código con sutiles fallos lógicos que son difíciles de detectar con pruebas estándar. Los expertos coinciden en que esto requiere un cambio fundamental en los enfoques de desarrollo de software. Todo el código generado por IA debe someterse a una revisión obligatoria y exhaustiva por parte de desarrolladores experimentados, y las herramientas automatizadas de pruebas de seguridad de aplicaciones estáticas (SAST) deben integrarse en los procesos de CI/CD.
Estudios: Asistentes de IA para Programación Crean Graves Vulnerabilidades en el Código
