Iconos SCW
héroe bg sin separador
Blog

¡Adopte RÁPIDAMENTE la IA Agéntica en el Desarrollo de Software! (Spoiler: Probablemente no deberías.)

Pieter Danhieux
Publicado el 21 de noviembre de 2025
Última actualización el 12 de marzo de 2026

¿Alguna vez has tenido la sensación, como profesional de la ciberseguridad, de que ahora mismo todo el mundo está entrando en la hipervelocidad de la IA agéntica, cuando quizá sea el momento de ir despacio y reflexionar? Pues bien, lo que muchos de nosotros hemos estado viendo en nuestras bolas de cristal de la seguridad de la IA es ahora, de repente, una realidad. 

El viernes 14 de noviembre, Anthropic (uno de los proveedores de LLM más conocidos del mundo, gracias a su popular herramienta Claude Code) publicó un documento pionero sobre un incidente cibernético que observaron en septiembre de 2025 y que tuvo como objetivo desde grandes empresas tecnológicas, instituciones financieras y empresas de fabricación de productos químicos, hasta organismos gubernamentales.

Entonces, ¿a qué se debe todo este alboroto y por qué es tan preocupante? En términos sencillos, un agente de amenazas muy avanzado (supuestamente un Estado-nación) utilizó Claude Code y una serie de herramientas en el entorno de desarrollo, aprovechando los sistemas del Protocolo de Contexto de Modelo (MCP), para utilizar de forma casi autónoma y a gran escala herramientas de piratería benignas de código abierto contra empresas cuidadosamente seleccionadas. Se produjeron más de 30 intentos de ataque, varios de los cuales tuvieron éxito, lo que demuestra que los agentes de IA pueden llevar a cabo ataques devastadores con muy poca intervención humana.

El mes pasado, Koi Security identificó GlassWorm, un primer gusano autopropagable dirigido a extensiones de VS Code. Aunque este último no es un nuevo vector de ataque, existe una nueva oleada de extensiones de código (incluidos los servidores MCP) que, a primera vista, tienen una funcionalidad benigna, pero que bajo el capó albergan una serie de actividades maliciosas que podrían comprometer rápidamente el endpoint de un desarrollador.

Tal vez haya llegado el momento de bajar el ritmo, respirar hondo y reflexionar sobre la mejor manera de defendernos de este nuevo perfil de amenaza.

Seguridad de los sistemas frente a agentes de IA de alta velocidad

El reciente documento de Anthropic pone de relieve una nueva y potente amenaza, que confirma los temores de muchos miembros de la comunidad de seguridad, al mostrar cómo la IA puede acelerar y amplificar drásticamente el riesgo distribuido. Este desarrollo da a los actores maliciosos una ventaja adicional, lo cual es enloquecedor teniendo en cuenta la ventaja que ya tienen sobre el personal de seguridad agotado y sobrecargado que gestiona la proliferación tecnológica en la empresa media.

En esencia, los atacantes patrocinados por el Estado consiguieron "liberar" el modelo de Claude Code. Lograron engañar a la IA para que eludiera sus sofisticados protocolos de seguridad y ejecutara operaciones hostiles. Una vez comprometido, el agente de la IA, utilizando su acceso al MCP, se infiltró rápidamente en varios sistemas y herramientas corporativos. Localizó y localizó bases de datos altamente sensibles dentro de las organizaciones objetivo en un plazo de tiempo que sería imposible incluso para los colectivos de piratas informáticos humanos más avanzados.

Esta brecha desencadenó una aterradora cascada de acciones: pruebas exhaustivas de vulnerabilidad, generación automática de código malicioso e incluso autodocumentación del ataque, con registros de escaneado del sistema y la información de identificación personal (PII) que consiguió.

Para los veteranos de la seguridad, se trata de una auténtica pesadilla. Cómo pueden los equipos humanos igualar la velocidad y la capacidad destructiva de un vector de ataque impulsado por este tipo de IA?

El punto final de un desarrollador y este nuevo ecosistema de IA ofrecen nuevos vectores de ataque

Cada desarrollador prefiere su propio IDE, ya sea el clásico VSCode, IntelliJ o Eclipse de JetBrains, o los más recientes Cline, Windsurf o Cursor, y la mayoría de ellos tienen mercados de aplicaciones que ofrecen extensiones para descargar e instalar. Estas extensiones rara vez se analizan en busca de actividades maliciosas, normalmente se envían con exceso de permisos y tienen acceso a un entorno aislado donde pueden acceder a los archivos. 

En la actualidad, todos estos entornos integran capacidades de IA, agentes de IA y una serie de nuevas herramientas que estos agentes pueden utilizar (servidores MCP, por ejemplo). A menudo, todo esto se publica a través de mercados en los que cualquier desarrollador puede publicar sus nuevas herramientas. Y sí, lo has adivinado, estos servidores MCP a menudo pueden leer, escribir y ejecutar comandos en un sistema, todo ello a través de un entorno de IA que es muy probablemente vulnerable a inyecciones puntuales. ¿Qué podría salir mal?

Necesidad innegociable de trazabilidad y observabilidad de las herramientas de IA

Todo es a la vez complejo y sencillo: Si un CISO no tiene ni idea de qué desarrolladores están utilizando qué herramientas de IA, qué código se está confirmando o qué repositorios se están ampliando con la colaboración entre humanos e IA, entonces falta un enorme conjunto de datos, y la observabilidad tiene que mejorar ayer mismo. 

La rápida integración de asistentes de codificación de IA y servidores MCP, ahora aprovechados por una gran mayoría de desarrolladores, ha creado un punto ciego de seguridad crítico dentro del SDLC. Los datos son alarmantes: se ha descubierto que hasta el 50 % del código funcionalmente correcto generado por LLM contiene errores de seguridad, pero sin una observabilidad adecuada, los CISO y los equipos de AppSec carecen de información procesable sobre el enorme volumen y las fuentes de este código de alto riesgo que se está introduciendo. Esta falta crítica de trazabilidad hace que la gobernanza eficaz de la IA en forma de aplicación de políticas y mitigación de riesgos sea funcionalmente imposible.

Para maximizar de forma segura las inmensas ganancias de productividad que ofrece la IA, las organizaciones deben exigir soluciones que proporcionen una visibilidad completa y profunda de la superficie de ataque de la IA. Secure Code Warrior tiene SCW Trust Agent: AI en fase beta cerrada con un número selecto de nuestros clientes. Esta capacidad proporciona una profunda observabilidad mediante la supervisión activa del tráfico de código generado por IA (incluidos los servidores MCP) en tiempo real en el equipo local del desarrollador, y el seguimiento IDE a través de solicitudes de extracción y confirmaciones en repositorios de software reales. La trazabilidad precisa de la seguridad sólo se consigue correlacionando tres señales vitales: la herramienta específica de codificación de IA y el modelo LLM utilizado, el repositorio de código objetivo y, lo que es más importante, la competencia en codificación segura medida del desarrollador que contribuye.

Sólo mediante el establecimiento de esta cadena de correlación verificable puede una organización evaluar con precisión el riesgo de seguridad real que se está introduciendo, automatizar la aplicación de políticas sólidas y garantizar que los desarrolladores habilitados para IA cumplan las normas de codificación seguras obligatorias antes de que sus contribuciones sorteen con éxito las barreras de protección existentes. 

Póngase en contacto con nosotros si desea saber más o ver una demostración de la gobernanza de IA sobrealimentada en acción, o simplemente envíenos un mensaje para unirse al programa beta.

Ver recursos
Ver recursos

¿Va el mundo de la ciberseguridad demasiado rápido con la IA agéntica? El futuro de la seguridad de la IA ya está aquí, y es hora de que los expertos pasen de la reflexión a la realidad.

¿Le interesa más?

Director General, Presidente y Cofundador

Más información

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Reservar una demostración
Compartir:
marcas de LinkedInSocialx logotipo
Autor
Pieter Danhieux
Publicado el 21 de noviembre de 2025

Director General, Presidente y Cofundador

Pieter Danhieux es un experto en seguridad mundialmente reconocido, con más de 12 años de experiencia como consultor de seguridad y 8 años como instructor principal de SANS enseñando técnicas ofensivas sobre cómo atacar y evaluar organizaciones, sistemas y personas en busca de debilidades de seguridad. En 2016, fue reconocido como una de las personas más cool de la tecnología en Australia (Business Insider), galardonado como Profesional de Seguridad Cibernética del Año (AISA - Asociación Australiana de Seguridad de la Información) y tiene certificaciones GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Compartir:
marcas de LinkedInSocialx logotipo

¿Alguna vez has tenido la sensación, como profesional de la ciberseguridad, de que ahora mismo todo el mundo está entrando en la hipervelocidad de la IA agéntica, cuando quizá sea el momento de ir despacio y reflexionar? Pues bien, lo que muchos de nosotros hemos estado viendo en nuestras bolas de cristal de la seguridad de la IA es ahora, de repente, una realidad. 

El viernes 14 de noviembre, Anthropic (uno de los proveedores de LLM más conocidos del mundo, gracias a su popular herramienta Claude Code) publicó un documento pionero sobre un incidente cibernético que observaron en septiembre de 2025 y que tuvo como objetivo desde grandes empresas tecnológicas, instituciones financieras y empresas de fabricación de productos químicos, hasta organismos gubernamentales.

Entonces, ¿a qué se debe todo este alboroto y por qué es tan preocupante? En términos sencillos, un agente de amenazas muy avanzado (supuestamente un Estado-nación) utilizó Claude Code y una serie de herramientas en el entorno de desarrollo, aprovechando los sistemas del Protocolo de Contexto de Modelo (MCP), para utilizar de forma casi autónoma y a gran escala herramientas de piratería benignas de código abierto contra empresas cuidadosamente seleccionadas. Se produjeron más de 30 intentos de ataque, varios de los cuales tuvieron éxito, lo que demuestra que los agentes de IA pueden llevar a cabo ataques devastadores con muy poca intervención humana.

El mes pasado, Koi Security identificó GlassWorm, un primer gusano autopropagable dirigido a extensiones de VS Code. Aunque este último no es un nuevo vector de ataque, existe una nueva oleada de extensiones de código (incluidos los servidores MCP) que, a primera vista, tienen una funcionalidad benigna, pero que bajo el capó albergan una serie de actividades maliciosas que podrían comprometer rápidamente el endpoint de un desarrollador.

Tal vez haya llegado el momento de bajar el ritmo, respirar hondo y reflexionar sobre la mejor manera de defendernos de este nuevo perfil de amenaza.

Seguridad de los sistemas frente a agentes de IA de alta velocidad

El reciente documento de Anthropic pone de relieve una nueva y potente amenaza, que confirma los temores de muchos miembros de la comunidad de seguridad, al mostrar cómo la IA puede acelerar y amplificar drásticamente el riesgo distribuido. Este desarrollo da a los actores maliciosos una ventaja adicional, lo cual es enloquecedor teniendo en cuenta la ventaja que ya tienen sobre el personal de seguridad agotado y sobrecargado que gestiona la proliferación tecnológica en la empresa media.

En esencia, los atacantes patrocinados por el Estado consiguieron "liberar" el modelo de Claude Code. Lograron engañar a la IA para que eludiera sus sofisticados protocolos de seguridad y ejecutara operaciones hostiles. Una vez comprometido, el agente de la IA, utilizando su acceso al MCP, se infiltró rápidamente en varios sistemas y herramientas corporativos. Localizó y localizó bases de datos altamente sensibles dentro de las organizaciones objetivo en un plazo de tiempo que sería imposible incluso para los colectivos de piratas informáticos humanos más avanzados.

Esta brecha desencadenó una aterradora cascada de acciones: pruebas exhaustivas de vulnerabilidad, generación automática de código malicioso e incluso autodocumentación del ataque, con registros de escaneado del sistema y la información de identificación personal (PII) que consiguió.

Para los veteranos de la seguridad, se trata de una auténtica pesadilla. Cómo pueden los equipos humanos igualar la velocidad y la capacidad destructiva de un vector de ataque impulsado por este tipo de IA?

El punto final de un desarrollador y este nuevo ecosistema de IA ofrecen nuevos vectores de ataque

Cada desarrollador prefiere su propio IDE, ya sea el clásico VSCode, IntelliJ o Eclipse de JetBrains, o los más recientes Cline, Windsurf o Cursor, y la mayoría de ellos tienen mercados de aplicaciones que ofrecen extensiones para descargar e instalar. Estas extensiones rara vez se analizan en busca de actividades maliciosas, normalmente se envían con exceso de permisos y tienen acceso a un entorno aislado donde pueden acceder a los archivos. 

En la actualidad, todos estos entornos integran capacidades de IA, agentes de IA y una serie de nuevas herramientas que estos agentes pueden utilizar (servidores MCP, por ejemplo). A menudo, todo esto se publica a través de mercados en los que cualquier desarrollador puede publicar sus nuevas herramientas. Y sí, lo has adivinado, estos servidores MCP a menudo pueden leer, escribir y ejecutar comandos en un sistema, todo ello a través de un entorno de IA que es muy probablemente vulnerable a inyecciones puntuales. ¿Qué podría salir mal?

Necesidad innegociable de trazabilidad y observabilidad de las herramientas de IA

Todo es a la vez complejo y sencillo: Si un CISO no tiene ni idea de qué desarrolladores están utilizando qué herramientas de IA, qué código se está confirmando o qué repositorios se están ampliando con la colaboración entre humanos e IA, entonces falta un enorme conjunto de datos, y la observabilidad tiene que mejorar ayer mismo. 

La rápida integración de asistentes de codificación de IA y servidores MCP, ahora aprovechados por una gran mayoría de desarrolladores, ha creado un punto ciego de seguridad crítico dentro del SDLC. Los datos son alarmantes: se ha descubierto que hasta el 50 % del código funcionalmente correcto generado por LLM contiene errores de seguridad, pero sin una observabilidad adecuada, los CISO y los equipos de AppSec carecen de información procesable sobre el enorme volumen y las fuentes de este código de alto riesgo que se está introduciendo. Esta falta crítica de trazabilidad hace que la gobernanza eficaz de la IA en forma de aplicación de políticas y mitigación de riesgos sea funcionalmente imposible.

Para maximizar de forma segura las inmensas ganancias de productividad que ofrece la IA, las organizaciones deben exigir soluciones que proporcionen una visibilidad completa y profunda de la superficie de ataque de la IA. Secure Code Warrior tiene SCW Trust Agent: AI en fase beta cerrada con un número selecto de nuestros clientes. Esta capacidad proporciona una profunda observabilidad mediante la supervisión activa del tráfico de código generado por IA (incluidos los servidores MCP) en tiempo real en el equipo local del desarrollador, y el seguimiento IDE a través de solicitudes de extracción y confirmaciones en repositorios de software reales. La trazabilidad precisa de la seguridad sólo se consigue correlacionando tres señales vitales: la herramienta específica de codificación de IA y el modelo LLM utilizado, el repositorio de código objetivo y, lo que es más importante, la competencia en codificación segura medida del desarrollador que contribuye.

Sólo mediante el establecimiento de esta cadena de correlación verificable puede una organización evaluar con precisión el riesgo de seguridad real que se está introduciendo, automatizar la aplicación de políticas sólidas y garantizar que los desarrolladores habilitados para IA cumplan las normas de codificación seguras obligatorias antes de que sus contribuciones sorteen con éxito las barreras de protección existentes. 

Póngase en contacto con nosotros si desea saber más o ver una demostración de la gobernanza de IA sobrealimentada en acción, o simplemente envíenos un mensaje para unirse al programa beta.

Ver recursos
Ver recursos

Para descargar el informe, rellene el siguiente formulario.

Solicitamos su permiso para enviarle información sobre nuestros productos y/o temas relacionados con la codificación segura. Tratamos su información personal con el máximo cuidado en todo momento y nunca la vendemos a otras empresas con fines de marketing.

Enviar
Icono de éxito de SCW
Icono de error scw
Para enviar el formulario, habilite las cookies de «Analytics». Una vez completada la configuración, puede volver a deshabilitarlas.

¿Alguna vez has tenido la sensación, como profesional de la ciberseguridad, de que ahora mismo todo el mundo está entrando en la hipervelocidad de la IA agéntica, cuando quizá sea el momento de ir despacio y reflexionar? Pues bien, lo que muchos de nosotros hemos estado viendo en nuestras bolas de cristal de la seguridad de la IA es ahora, de repente, una realidad. 

El viernes 14 de noviembre, Anthropic (uno de los proveedores de LLM más conocidos del mundo, gracias a su popular herramienta Claude Code) publicó un documento pionero sobre un incidente cibernético que observaron en septiembre de 2025 y que tuvo como objetivo desde grandes empresas tecnológicas, instituciones financieras y empresas de fabricación de productos químicos, hasta organismos gubernamentales.

Entonces, ¿a qué se debe todo este alboroto y por qué es tan preocupante? En términos sencillos, un agente de amenazas muy avanzado (supuestamente un Estado-nación) utilizó Claude Code y una serie de herramientas en el entorno de desarrollo, aprovechando los sistemas del Protocolo de Contexto de Modelo (MCP), para utilizar de forma casi autónoma y a gran escala herramientas de piratería benignas de código abierto contra empresas cuidadosamente seleccionadas. Se produjeron más de 30 intentos de ataque, varios de los cuales tuvieron éxito, lo que demuestra que los agentes de IA pueden llevar a cabo ataques devastadores con muy poca intervención humana.

El mes pasado, Koi Security identificó GlassWorm, un primer gusano autopropagable dirigido a extensiones de VS Code. Aunque este último no es un nuevo vector de ataque, existe una nueva oleada de extensiones de código (incluidos los servidores MCP) que, a primera vista, tienen una funcionalidad benigna, pero que bajo el capó albergan una serie de actividades maliciosas que podrían comprometer rápidamente el endpoint de un desarrollador.

Tal vez haya llegado el momento de bajar el ritmo, respirar hondo y reflexionar sobre la mejor manera de defendernos de este nuevo perfil de amenaza.

Seguridad de los sistemas frente a agentes de IA de alta velocidad

El reciente documento de Anthropic pone de relieve una nueva y potente amenaza, que confirma los temores de muchos miembros de la comunidad de seguridad, al mostrar cómo la IA puede acelerar y amplificar drásticamente el riesgo distribuido. Este desarrollo da a los actores maliciosos una ventaja adicional, lo cual es enloquecedor teniendo en cuenta la ventaja que ya tienen sobre el personal de seguridad agotado y sobrecargado que gestiona la proliferación tecnológica en la empresa media.

En esencia, los atacantes patrocinados por el Estado consiguieron "liberar" el modelo de Claude Code. Lograron engañar a la IA para que eludiera sus sofisticados protocolos de seguridad y ejecutara operaciones hostiles. Una vez comprometido, el agente de la IA, utilizando su acceso al MCP, se infiltró rápidamente en varios sistemas y herramientas corporativos. Localizó y localizó bases de datos altamente sensibles dentro de las organizaciones objetivo en un plazo de tiempo que sería imposible incluso para los colectivos de piratas informáticos humanos más avanzados.

Esta brecha desencadenó una aterradora cascada de acciones: pruebas exhaustivas de vulnerabilidad, generación automática de código malicioso e incluso autodocumentación del ataque, con registros de escaneado del sistema y la información de identificación personal (PII) que consiguió.

Para los veteranos de la seguridad, se trata de una auténtica pesadilla. Cómo pueden los equipos humanos igualar la velocidad y la capacidad destructiva de un vector de ataque impulsado por este tipo de IA?

El punto final de un desarrollador y este nuevo ecosistema de IA ofrecen nuevos vectores de ataque

Cada desarrollador prefiere su propio IDE, ya sea el clásico VSCode, IntelliJ o Eclipse de JetBrains, o los más recientes Cline, Windsurf o Cursor, y la mayoría de ellos tienen mercados de aplicaciones que ofrecen extensiones para descargar e instalar. Estas extensiones rara vez se analizan en busca de actividades maliciosas, normalmente se envían con exceso de permisos y tienen acceso a un entorno aislado donde pueden acceder a los archivos. 

En la actualidad, todos estos entornos integran capacidades de IA, agentes de IA y una serie de nuevas herramientas que estos agentes pueden utilizar (servidores MCP, por ejemplo). A menudo, todo esto se publica a través de mercados en los que cualquier desarrollador puede publicar sus nuevas herramientas. Y sí, lo has adivinado, estos servidores MCP a menudo pueden leer, escribir y ejecutar comandos en un sistema, todo ello a través de un entorno de IA que es muy probablemente vulnerable a inyecciones puntuales. ¿Qué podría salir mal?

Necesidad innegociable de trazabilidad y observabilidad de las herramientas de IA

Todo es a la vez complejo y sencillo: Si un CISO no tiene ni idea de qué desarrolladores están utilizando qué herramientas de IA, qué código se está confirmando o qué repositorios se están ampliando con la colaboración entre humanos e IA, entonces falta un enorme conjunto de datos, y la observabilidad tiene que mejorar ayer mismo. 

La rápida integración de asistentes de codificación de IA y servidores MCP, ahora aprovechados por una gran mayoría de desarrolladores, ha creado un punto ciego de seguridad crítico dentro del SDLC. Los datos son alarmantes: se ha descubierto que hasta el 50 % del código funcionalmente correcto generado por LLM contiene errores de seguridad, pero sin una observabilidad adecuada, los CISO y los equipos de AppSec carecen de información procesable sobre el enorme volumen y las fuentes de este código de alto riesgo que se está introduciendo. Esta falta crítica de trazabilidad hace que la gobernanza eficaz de la IA en forma de aplicación de políticas y mitigación de riesgos sea funcionalmente imposible.

Para maximizar de forma segura las inmensas ganancias de productividad que ofrece la IA, las organizaciones deben exigir soluciones que proporcionen una visibilidad completa y profunda de la superficie de ataque de la IA. Secure Code Warrior tiene SCW Trust Agent: AI en fase beta cerrada con un número selecto de nuestros clientes. Esta capacidad proporciona una profunda observabilidad mediante la supervisión activa del tráfico de código generado por IA (incluidos los servidores MCP) en tiempo real en el equipo local del desarrollador, y el seguimiento IDE a través de solicitudes de extracción y confirmaciones en repositorios de software reales. La trazabilidad precisa de la seguridad sólo se consigue correlacionando tres señales vitales: la herramienta específica de codificación de IA y el modelo LLM utilizado, el repositorio de código objetivo y, lo que es más importante, la competencia en codificación segura medida del desarrollador que contribuye.

Sólo mediante el establecimiento de esta cadena de correlación verificable puede una organización evaluar con precisión el riesgo de seguridad real que se está introduciendo, automatizar la aplicación de políticas sólidas y garantizar que los desarrolladores habilitados para IA cumplan las normas de codificación seguras obligatorias antes de que sus contribuciones sorteen con éxito las barreras de protección existentes. 

Póngase en contacto con nosotros si desea saber más o ver una demostración de la gobernanza de IA sobrealimentada en acción, o simplemente envíenos un mensaje para unirse al programa beta.

Ver seminario en línea
Comencemos
Más información

Haga clic en el siguiente enlace para descargar el PDF de este recurso.

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Mostrar informeReservar una demostración
Ver recursos
Compartir:
marcas de LinkedInSocialx logotipo
¿Le interesa más?

Compartir:
marcas de LinkedInSocialx logotipo
Autor
Pieter Danhieux
Publicado el 21 de noviembre de 2025

Director General, Presidente y Cofundador

Pieter Danhieux es un experto en seguridad mundialmente reconocido, con más de 12 años de experiencia como consultor de seguridad y 8 años como instructor principal de SANS enseñando técnicas ofensivas sobre cómo atacar y evaluar organizaciones, sistemas y personas en busca de debilidades de seguridad. En 2016, fue reconocido como una de las personas más cool de la tecnología en Australia (Business Insider), galardonado como Profesional de Seguridad Cibernética del Año (AISA - Asociación Australiana de Seguridad de la Información) y tiene certificaciones GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Compartir:
marcas de LinkedInSocialx logotipo

¿Alguna vez has tenido la sensación, como profesional de la ciberseguridad, de que ahora mismo todo el mundo está entrando en la hipervelocidad de la IA agéntica, cuando quizá sea el momento de ir despacio y reflexionar? Pues bien, lo que muchos de nosotros hemos estado viendo en nuestras bolas de cristal de la seguridad de la IA es ahora, de repente, una realidad. 

El viernes 14 de noviembre, Anthropic (uno de los proveedores de LLM más conocidos del mundo, gracias a su popular herramienta Claude Code) publicó un documento pionero sobre un incidente cibernético que observaron en septiembre de 2025 y que tuvo como objetivo desde grandes empresas tecnológicas, instituciones financieras y empresas de fabricación de productos químicos, hasta organismos gubernamentales.

Entonces, ¿a qué se debe todo este alboroto y por qué es tan preocupante? En términos sencillos, un agente de amenazas muy avanzado (supuestamente un Estado-nación) utilizó Claude Code y una serie de herramientas en el entorno de desarrollo, aprovechando los sistemas del Protocolo de Contexto de Modelo (MCP), para utilizar de forma casi autónoma y a gran escala herramientas de piratería benignas de código abierto contra empresas cuidadosamente seleccionadas. Se produjeron más de 30 intentos de ataque, varios de los cuales tuvieron éxito, lo que demuestra que los agentes de IA pueden llevar a cabo ataques devastadores con muy poca intervención humana.

El mes pasado, Koi Security identificó GlassWorm, un primer gusano autopropagable dirigido a extensiones de VS Code. Aunque este último no es un nuevo vector de ataque, existe una nueva oleada de extensiones de código (incluidos los servidores MCP) que, a primera vista, tienen una funcionalidad benigna, pero que bajo el capó albergan una serie de actividades maliciosas que podrían comprometer rápidamente el endpoint de un desarrollador.

Tal vez haya llegado el momento de bajar el ritmo, respirar hondo y reflexionar sobre la mejor manera de defendernos de este nuevo perfil de amenaza.

Seguridad de los sistemas frente a agentes de IA de alta velocidad

El reciente documento de Anthropic pone de relieve una nueva y potente amenaza, que confirma los temores de muchos miembros de la comunidad de seguridad, al mostrar cómo la IA puede acelerar y amplificar drásticamente el riesgo distribuido. Este desarrollo da a los actores maliciosos una ventaja adicional, lo cual es enloquecedor teniendo en cuenta la ventaja que ya tienen sobre el personal de seguridad agotado y sobrecargado que gestiona la proliferación tecnológica en la empresa media.

En esencia, los atacantes patrocinados por el Estado consiguieron "liberar" el modelo de Claude Code. Lograron engañar a la IA para que eludiera sus sofisticados protocolos de seguridad y ejecutara operaciones hostiles. Una vez comprometido, el agente de la IA, utilizando su acceso al MCP, se infiltró rápidamente en varios sistemas y herramientas corporativos. Localizó y localizó bases de datos altamente sensibles dentro de las organizaciones objetivo en un plazo de tiempo que sería imposible incluso para los colectivos de piratas informáticos humanos más avanzados.

Esta brecha desencadenó una aterradora cascada de acciones: pruebas exhaustivas de vulnerabilidad, generación automática de código malicioso e incluso autodocumentación del ataque, con registros de escaneado del sistema y la información de identificación personal (PII) que consiguió.

Para los veteranos de la seguridad, se trata de una auténtica pesadilla. Cómo pueden los equipos humanos igualar la velocidad y la capacidad destructiva de un vector de ataque impulsado por este tipo de IA?

El punto final de un desarrollador y este nuevo ecosistema de IA ofrecen nuevos vectores de ataque

Cada desarrollador prefiere su propio IDE, ya sea el clásico VSCode, IntelliJ o Eclipse de JetBrains, o los más recientes Cline, Windsurf o Cursor, y la mayoría de ellos tienen mercados de aplicaciones que ofrecen extensiones para descargar e instalar. Estas extensiones rara vez se analizan en busca de actividades maliciosas, normalmente se envían con exceso de permisos y tienen acceso a un entorno aislado donde pueden acceder a los archivos. 

En la actualidad, todos estos entornos integran capacidades de IA, agentes de IA y una serie de nuevas herramientas que estos agentes pueden utilizar (servidores MCP, por ejemplo). A menudo, todo esto se publica a través de mercados en los que cualquier desarrollador puede publicar sus nuevas herramientas. Y sí, lo has adivinado, estos servidores MCP a menudo pueden leer, escribir y ejecutar comandos en un sistema, todo ello a través de un entorno de IA que es muy probablemente vulnerable a inyecciones puntuales. ¿Qué podría salir mal?

Necesidad innegociable de trazabilidad y observabilidad de las herramientas de IA

Todo es a la vez complejo y sencillo: Si un CISO no tiene ni idea de qué desarrolladores están utilizando qué herramientas de IA, qué código se está confirmando o qué repositorios se están ampliando con la colaboración entre humanos e IA, entonces falta un enorme conjunto de datos, y la observabilidad tiene que mejorar ayer mismo. 

La rápida integración de asistentes de codificación de IA y servidores MCP, ahora aprovechados por una gran mayoría de desarrolladores, ha creado un punto ciego de seguridad crítico dentro del SDLC. Los datos son alarmantes: se ha descubierto que hasta el 50 % del código funcionalmente correcto generado por LLM contiene errores de seguridad, pero sin una observabilidad adecuada, los CISO y los equipos de AppSec carecen de información procesable sobre el enorme volumen y las fuentes de este código de alto riesgo que se está introduciendo. Esta falta crítica de trazabilidad hace que la gobernanza eficaz de la IA en forma de aplicación de políticas y mitigación de riesgos sea funcionalmente imposible.

Para maximizar de forma segura las inmensas ganancias de productividad que ofrece la IA, las organizaciones deben exigir soluciones que proporcionen una visibilidad completa y profunda de la superficie de ataque de la IA. Secure Code Warrior tiene SCW Trust Agent: AI en fase beta cerrada con un número selecto de nuestros clientes. Esta capacidad proporciona una profunda observabilidad mediante la supervisión activa del tráfico de código generado por IA (incluidos los servidores MCP) en tiempo real en el equipo local del desarrollador, y el seguimiento IDE a través de solicitudes de extracción y confirmaciones en repositorios de software reales. La trazabilidad precisa de la seguridad sólo se consigue correlacionando tres señales vitales: la herramienta específica de codificación de IA y el modelo LLM utilizado, el repositorio de código objetivo y, lo que es más importante, la competencia en codificación segura medida del desarrollador que contribuye.

Sólo mediante el establecimiento de esta cadena de correlación verificable puede una organización evaluar con precisión el riesgo de seguridad real que se está introduciendo, automatizar la aplicación de políticas sólidas y garantizar que los desarrolladores habilitados para IA cumplan las normas de codificación seguras obligatorias antes de que sus contribuciones sorteen con éxito las barreras de protección existentes. 

Póngase en contacto con nosotros si desea saber más o ver una demostración de la gobernanza de IA sobrealimentada en acción, o simplemente envíenos un mensaje para unirse al programa beta.

Índice

Descargar PDF
Ver recursos
¿Le interesa más?

Director General, Presidente y Cofundador

Más información

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Reservar una demostración[Descargar]
Compartir:
marcas de LinkedInSocialx logotipo
Centro de recursos

Recursos para empezar

Otras publicaciones
Centro de recursos

Recursos para empezar

Otras publicaciones