Iconos SCW
héroe bg sin separador
Blog

Cuando las buenas herramientas se vuelven malas: el envenenamiento de herramientas de IA y cómo evitar que la IA actúe como agente doble.

Pieter Danhieux
Publicado el 09 de julio de 2025
Última actualización el 10 de marzo de 2026

El desarrollo asistido por IA (o, en su versión más moderna, el «vibracoding») está revolucionando la creación de código. Desarrolladores de renombre están adoptando estas herramientas en masa, y personas que siempre han querido crear su propio software, pero carecían de la experiencia necesaria, ahora están utilizando estas herramientas para construir activos que antes habrían requerido demasiado tiempo y dinero. Se espera que esta tecnología marque el comienzo de una nueva era de innovación, pero también trae consigo una serie de nuevas vulnerabilidades y perfiles de riesgo que los responsables de la seguridad están luchando por mitigar.

Recientemente, InvariantLabs ha descubierto una vulnerabilidad crítica en el protocolo de contexto de modelo (MCP), un marco similar a una API que permite que potentes herramientas de IA interactúen de forma autónoma con otro software y bases de datos. Esto da lugar a una nueva categoría de vulnerabilidades especialmente perjudiciales para las empresas, denominadas «ataques de envenenamiento de herramientas».Las principales herramientas de IA, como Windsurf y Cursor, no son una excepción. Dado que cuentan con millones de usuarios, es fundamental contar con los conocimientos y las habilidades necesarios para gestionar este nuevo problema de seguridad.

En la situación actual, los resultados de estas herramientas no son tan seguros como para poder etiquetarlos como aptos para empresas, tal y como se describe en el artículo reciente de los investigadores de seguridad de AWS e Intuit, Vinesh Sai Narayana e Idan Habar:«A medida que los sistemas de IA se vuelven más autónomos y interactúan directamente con herramientas externas y datos en tiempo real a través de MCP, entre otros, será absolutamente esencial garantizar que esas interacciones sean seguras».

Perfil de riesgo del sistema de inteligencia artificial de la agencia y del protocolo de contexto del modelo

El protocolo Model Context Protocol es un software muy útil desarrollado por Anthropic. Permite una integración más adecuada y fluida entre los agentes de IA de modelos lingüísticos a gran escala (LLM) y otras herramientas. Se trata de un potente caso de uso que abre un amplio abanico de posibilidades entre las aplicaciones propietarias y las herramientas SaaS esenciales para los negocios, como GitHub, y las soluciones de IA más avanzadas.Con solo escribir el servidor MCP, se puede empezar a trabajar en el establecimiento de directrices sobre cómo se quiere que funcione y con qué fines.

El impacto de la tecnología MCP en la seguridad es, en realidad, muy positivo. La promesa de una integración más sencilla entre LLM y la pila tecnológica utilizada por los expertos en seguridad es demasiado atractiva como para ignorarla y, como mínimo, muestra la posibilidad de automatizar tareas de seguridad con un nivel de precisión hasta ahora imposible, sin necesidad de crear e implementar código personalizado para cada tarea. Teniendo en cuenta que la visibilidad y la conectividad entre herramientas y responsables de seguridad son fundamentales para una defensa y planificación de la seguridad eficaces, la mejora de la interoperabilidad de LLM que ofrece MCP supone una perspectiva prometedora para la seguridad empresarial.herramientas y personal, la mejora de la interoperabilidad de LLM que ofrece MCP es una perspectiva prometedora para la seguridad empresarial.

Sin embargo, el uso de MCP puede generar otros vectores de amenaza y, a menos que se gestione con cuidado, puede ampliar considerablemente el área de ataque de la empresa. Como señala Invariant Labs, los ataques de envenenamiento de herramientas son una nueva categoría de vulnerabilidad que puede conducir a la filtración de datos confidenciales y a acciones fraudulentas por parte de modelos de IA, lo que puede tener consecuencias muy graves para la seguridad.

Según InvariantLabs, los ataques de envenenamiento de herramientas son posibles cuando se incrustan instrucciones maliciosas en la descripción de la herramienta MCP que no son visibles para el usuario, pero que el modelo de IA puede leer (ejecutar) completamente. Esto hace que la herramienta realice acciones fraudulentas sin que el usuario se dé cuenta. El problema radica en la suposición de MCP de que todas las descripciones de las herramientas son fiables, lo que resulta muy atractivo para los actores maliciosos.

Ellos señalan que, si las herramientas se ven expuestas a peligros, podrían producirse los siguientes resultados.

  • Indicar al modelo de IA que acceda a archivos confidenciales (claves SSH, archivos de configuración, bases de datos, etc.).
  • En un entorno en el que estas acciones maliciosas se ocultan esencialmente a los usuarios que desconocen su existencia, se ordena a la IA que extraiga y envíe estos datos.
  • Al ocultarse tras una interfaz de usuario aparentemente sencilla que muestra los argumentos y los resultados de la herramienta, se produce una desconexión entre lo que ve el usuario y lo que ejecuta el modelo de IA.

Se trata de una nueva categoría de vulnerabilidades preocupante que, a medida que el uso de MCP se vuelva inevitable, seguramente aparecerá con mayor frecuencia. A medida que los programas de seguridad de las empresas evolucionen, se tomarán medidas cautelosas para detectar y mitigar esta amenaza, por lo que es importante que los desarrolladores estén bien preparados para participar en la solución.

Por qué solo los desarrolladores con habilidades de seguridad deben utilizar herramientas de IA de agente

Las herramientas de codificación con IA agencial, además de mejorar la eficiencia, la productividad y la flexibilidad del desarrollo de software, se consideran la siguiente evolución de la codificación asistida por IA. Son especialmente útiles porque tienen una mayor capacidad para comprender el contexto y la intención, pero no están a salvo de amenazas como la inyección inmediata, las alucinaciones y la manipulación del comportamiento por parte de los atacantes.

Los desarrolladores son la línea de defensa entre los buenos y los malos compromisos de código, y perfeccionar las habilidades tanto de seguridad como de pensamiento crítico será fundamental para el futuro del desarrollo de software seguro.

Los resultados de la IA nunca deben implementarse con una confianza ciega. Solo los desarrolladores con habilidades de seguridad y capacidad de pensamiento crítico adaptado a cada situación pueden aprovechar de forma segura el aumento de la productividad que ofrece esta tecnología. Aun así, debe tratarse de un entorno similar al de la programación en pareja, en el que los expertos humanos puedan evaluar, modelar las amenazas y, finalmente, aprobar el trabajo generado por la herramienta.

Descubra cómo los desarrolladores pueden utilizar la IA para mejorar sus habilidades y aumentar su productividad. Aquí.

Técnicas prácticas de alivio y más detalles en los últimos artículos de investigación.

Las herramientas de codificación con IA y la tecnología MCP se consideran elementos importantes para el futuro de la ciberseguridad, pero es importante no profundizar en ellas antes de evaluar la situación.

Nara Jara y Habla . Artículo. Explica en detalle la estrategia integral de mitigación para implementar MCP a nivel empresarial y la gestión continua de los riesgos. En última instancia, se centra en los principios de defensa multicapa y confianza cero, y aborda claramente el perfil de riesgo único que este nuevo ecosistema aporta al entorno empresarial. Para los desarrolladores en particular, es esencial llenar las lagunas de conocimiento en las siguientes áreas.

  • Autenticación y control de acceso: Las herramientas de IA de tipo agente funcionan de manera similar a como lo haría un ingeniero humano al abordar una tarea de ingeniería, resolviendo problemas y tomando decisiones autónomas para alcanzar los objetivos previstos. Sin embargo, como ya se ha establecido, la supervisión de estos procesos por parte de personas cualificadas es un factor que no se puede ignorar, por lo que los desarrolladores que utilizan estas herramientas en sus flujos de trabajo deben saber exactamente qué derechos de acceso tienen, qué datos pueden obtener o divulgar y dónde se comparten.
  • Detección y mitigación de amenazas generales: como ocurre con la mayoría de los procesos de IA, para detectar posibles defectos o imprecisiones en los resultados de las herramientas, los usuarios deben estar familiarizados con las tareas. Los desarrolladores deben mejorar continuamente sus habilidades y someterse a verificaciones de las mismas para revisar eficazmente los procesos de seguridad. De este modo, podrán revisar el código generado por la IA con precisión y fiabilidad en materia de seguridad.
  • Coordinación entre la política de seguridad y la gobernanza de la IA: los desarrolladores deben conocer las herramientas autorizadas y tener la oportunidad de mejorar sus habilidades y acceder a ellas. Antes de confiar en un compromiso, tanto los desarrolladores como las herramientas deben ser objeto de evaluaciones de seguridad.

Recientemente hemos publicado un artículo de investigación sobre la aparición del vibracoding y el coding asistido por IA, y las medidas que deben adoptar las empresas para formar a la próxima generación de ingenieros de software que utilicen la IA. Échale un vistazo ahora mismo y ponte en contacto con nosotros para reforzar tu equipo de desarrollo.

Ver recursos
Ver recursos

¿Le interesa más?

Director General, Presidente y Cofundador

Más información

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Reservar una demostración
Compartir:
marcas de LinkedInSocialx logotipo
Autor
Pieter Danhieux
Publicado el 09 de julio de 2025

Director General, Presidente y Cofundador

Pieter Danhieux es un experto en seguridad mundialmente reconocido, con más de 12 años de experiencia como consultor de seguridad y 8 años como instructor principal de SANS enseñando técnicas ofensivas sobre cómo atacar y evaluar organizaciones, sistemas y personas en busca de debilidades de seguridad. En 2016, fue reconocido como una de las personas más cool de la tecnología en Australia (Business Insider), galardonado como Profesional de Seguridad Cibernética del Año (AISA - Asociación Australiana de Seguridad de la Información) y tiene certificaciones GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Compartir:
marcas de LinkedInSocialx logotipo

El desarrollo asistido por IA (o, en su versión más moderna, el «vibracoding») está revolucionando la creación de código. Desarrolladores de renombre están adoptando estas herramientas en masa, y personas que siempre han querido crear su propio software, pero carecían de la experiencia necesaria, ahora están utilizando estas herramientas para construir activos que antes habrían requerido demasiado tiempo y dinero. Se espera que esta tecnología marque el comienzo de una nueva era de innovación, pero también trae consigo una serie de nuevas vulnerabilidades y perfiles de riesgo que los responsables de la seguridad están luchando por mitigar.

Recientemente, InvariantLabs ha descubierto una vulnerabilidad crítica en el protocolo de contexto de modelo (MCP), un marco similar a una API que permite que potentes herramientas de IA interactúen de forma autónoma con otro software y bases de datos. Esto da lugar a una nueva categoría de vulnerabilidades especialmente perjudiciales para las empresas, denominadas «ataques de envenenamiento de herramientas».Las principales herramientas de IA, como Windsurf y Cursor, no son una excepción. Dado que cuentan con millones de usuarios, es fundamental contar con los conocimientos y las habilidades necesarios para gestionar este nuevo problema de seguridad.

En la situación actual, los resultados de estas herramientas no son tan seguros como para poder etiquetarlos como aptos para empresas, tal y como se describe en el artículo reciente de los investigadores de seguridad de AWS e Intuit, Vinesh Sai Narayana e Idan Habar:«A medida que los sistemas de IA se vuelven más autónomos y interactúan directamente con herramientas externas y datos en tiempo real a través de MCP, entre otros, será absolutamente esencial garantizar que esas interacciones sean seguras».

Perfil de riesgo del sistema de inteligencia artificial de la agencia y del protocolo de contexto del modelo

El protocolo Model Context Protocol es un software muy útil desarrollado por Anthropic. Permite una integración más adecuada y fluida entre los agentes de IA de modelos lingüísticos a gran escala (LLM) y otras herramientas. Se trata de un potente caso de uso que abre un amplio abanico de posibilidades entre las aplicaciones propietarias y las herramientas SaaS esenciales para los negocios, como GitHub, y las soluciones de IA más avanzadas.Con solo escribir el servidor MCP, se puede empezar a trabajar en el establecimiento de directrices sobre cómo se quiere que funcione y con qué fines.

El impacto de la tecnología MCP en la seguridad es, en realidad, muy positivo. La promesa de una integración más sencilla entre LLM y la pila tecnológica utilizada por los expertos en seguridad es demasiado atractiva como para ignorarla y, como mínimo, muestra la posibilidad de automatizar tareas de seguridad con un nivel de precisión hasta ahora imposible, sin necesidad de crear e implementar código personalizado para cada tarea. Teniendo en cuenta que la visibilidad y la conectividad entre herramientas y responsables de seguridad son fundamentales para una defensa y planificación de la seguridad eficaces, la mejora de la interoperabilidad de LLM que ofrece MCP supone una perspectiva prometedora para la seguridad empresarial.herramientas y personal, la mejora de la interoperabilidad de LLM que ofrece MCP es una perspectiva prometedora para la seguridad empresarial.

Sin embargo, el uso de MCP puede generar otros vectores de amenaza y, a menos que se gestione con cuidado, puede ampliar considerablemente el área de ataque de la empresa. Como señala Invariant Labs, los ataques de envenenamiento de herramientas son una nueva categoría de vulnerabilidad que puede conducir a la filtración de datos confidenciales y a acciones fraudulentas por parte de modelos de IA, lo que puede tener consecuencias muy graves para la seguridad.

Según InvariantLabs, los ataques de envenenamiento de herramientas son posibles cuando se incrustan instrucciones maliciosas en la descripción de la herramienta MCP que no son visibles para el usuario, pero que el modelo de IA puede leer (ejecutar) completamente. Esto hace que la herramienta realice acciones fraudulentas sin que el usuario se dé cuenta. El problema radica en la suposición de MCP de que todas las descripciones de las herramientas son fiables, lo que resulta muy atractivo para los actores maliciosos.

Ellos señalan que, si las herramientas se ven expuestas a peligros, podrían producirse los siguientes resultados.

  • Indicar al modelo de IA que acceda a archivos confidenciales (claves SSH, archivos de configuración, bases de datos, etc.).
  • En un entorno en el que estas acciones maliciosas se ocultan esencialmente a los usuarios que desconocen su existencia, se ordena a la IA que extraiga y envíe estos datos.
  • Al ocultarse tras una interfaz de usuario aparentemente sencilla que muestra los argumentos y los resultados de la herramienta, se produce una desconexión entre lo que ve el usuario y lo que ejecuta el modelo de IA.

Se trata de una nueva categoría de vulnerabilidades preocupante que, a medida que el uso de MCP se vuelva inevitable, seguramente aparecerá con mayor frecuencia. A medida que los programas de seguridad de las empresas evolucionen, se tomarán medidas cautelosas para detectar y mitigar esta amenaza, por lo que es importante que los desarrolladores estén bien preparados para participar en la solución.

Por qué solo los desarrolladores con habilidades de seguridad deben utilizar herramientas de IA de agente

Las herramientas de codificación con IA agencial, además de mejorar la eficiencia, la productividad y la flexibilidad del desarrollo de software, se consideran la siguiente evolución de la codificación asistida por IA. Son especialmente útiles porque tienen una mayor capacidad para comprender el contexto y la intención, pero no están a salvo de amenazas como la inyección inmediata, las alucinaciones y la manipulación del comportamiento por parte de los atacantes.

Los desarrolladores son la línea de defensa entre los buenos y los malos compromisos de código, y perfeccionar las habilidades tanto de seguridad como de pensamiento crítico será fundamental para el futuro del desarrollo de software seguro.

Los resultados de la IA nunca deben implementarse con una confianza ciega. Solo los desarrolladores con habilidades de seguridad y capacidad de pensamiento crítico adaptado a cada situación pueden aprovechar de forma segura el aumento de la productividad que ofrece esta tecnología. Aun así, debe tratarse de un entorno similar al de la programación en pareja, en el que los expertos humanos puedan evaluar, modelar las amenazas y, finalmente, aprobar el trabajo generado por la herramienta.

Descubra cómo los desarrolladores pueden utilizar la IA para mejorar sus habilidades y aumentar su productividad. Aquí.

Técnicas prácticas de alivio y más detalles en los últimos artículos de investigación.

Las herramientas de codificación con IA y la tecnología MCP se consideran elementos importantes para el futuro de la ciberseguridad, pero es importante no profundizar en ellas antes de evaluar la situación.

Nara Jara y Habla . Artículo. Explica en detalle la estrategia integral de mitigación para implementar MCP a nivel empresarial y la gestión continua de los riesgos. En última instancia, se centra en los principios de defensa multicapa y confianza cero, y aborda claramente el perfil de riesgo único que este nuevo ecosistema aporta al entorno empresarial. Para los desarrolladores en particular, es esencial llenar las lagunas de conocimiento en las siguientes áreas.

  • Autenticación y control de acceso: Las herramientas de IA de tipo agente funcionan de manera similar a como lo haría un ingeniero humano al abordar una tarea de ingeniería, resolviendo problemas y tomando decisiones autónomas para alcanzar los objetivos previstos. Sin embargo, como ya se ha establecido, la supervisión de estos procesos por parte de personas cualificadas es un factor que no se puede ignorar, por lo que los desarrolladores que utilizan estas herramientas en sus flujos de trabajo deben saber exactamente qué derechos de acceso tienen, qué datos pueden obtener o divulgar y dónde se comparten.
  • Detección y mitigación de amenazas generales: como ocurre con la mayoría de los procesos de IA, para detectar posibles defectos o imprecisiones en los resultados de las herramientas, los usuarios deben estar familiarizados con las tareas. Los desarrolladores deben mejorar continuamente sus habilidades y someterse a verificaciones de las mismas para revisar eficazmente los procesos de seguridad. De este modo, podrán revisar el código generado por la IA con precisión y fiabilidad en materia de seguridad.
  • Coordinación entre la política de seguridad y la gobernanza de la IA: los desarrolladores deben conocer las herramientas autorizadas y tener la oportunidad de mejorar sus habilidades y acceder a ellas. Antes de confiar en un compromiso, tanto los desarrolladores como las herramientas deben ser objeto de evaluaciones de seguridad.

Recientemente hemos publicado un artículo de investigación sobre la aparición del vibracoding y el coding asistido por IA, y las medidas que deben adoptar las empresas para formar a la próxima generación de ingenieros de software que utilicen la IA. Échale un vistazo ahora mismo y ponte en contacto con nosotros para reforzar tu equipo de desarrollo.

Ver recursos
Ver recursos

Para descargar el informe, rellene el siguiente formulario.

Solicitamos su permiso para enviarle información sobre nuestros productos y/o temas relacionados con la codificación segura. Tratamos su información personal con el máximo cuidado en todo momento y nunca la vendemos a otras empresas con fines de marketing.

Enviar
Icono de éxito de SCW
Icono de error scw
Para enviar el formulario, habilite las cookies de «Analytics». Una vez completada la configuración, puede volver a deshabilitarlas.

El desarrollo asistido por IA (o, en su versión más moderna, el «vibracoding») está revolucionando la creación de código. Desarrolladores de renombre están adoptando estas herramientas en masa, y personas que siempre han querido crear su propio software, pero carecían de la experiencia necesaria, ahora están utilizando estas herramientas para construir activos que antes habrían requerido demasiado tiempo y dinero. Se espera que esta tecnología marque el comienzo de una nueva era de innovación, pero también trae consigo una serie de nuevas vulnerabilidades y perfiles de riesgo que los responsables de la seguridad están luchando por mitigar.

Recientemente, InvariantLabs ha descubierto una vulnerabilidad crítica en el protocolo de contexto de modelo (MCP), un marco similar a una API que permite que potentes herramientas de IA interactúen de forma autónoma con otro software y bases de datos. Esto da lugar a una nueva categoría de vulnerabilidades especialmente perjudiciales para las empresas, denominadas «ataques de envenenamiento de herramientas».Las principales herramientas de IA, como Windsurf y Cursor, no son una excepción. Dado que cuentan con millones de usuarios, es fundamental contar con los conocimientos y las habilidades necesarios para gestionar este nuevo problema de seguridad.

En la situación actual, los resultados de estas herramientas no son tan seguros como para poder etiquetarlos como aptos para empresas, tal y como se describe en el artículo reciente de los investigadores de seguridad de AWS e Intuit, Vinesh Sai Narayana e Idan Habar:«A medida que los sistemas de IA se vuelven más autónomos y interactúan directamente con herramientas externas y datos en tiempo real a través de MCP, entre otros, será absolutamente esencial garantizar que esas interacciones sean seguras».

Perfil de riesgo del sistema de inteligencia artificial de la agencia y del protocolo de contexto del modelo

El protocolo Model Context Protocol es un software muy útil desarrollado por Anthropic. Permite una integración más adecuada y fluida entre los agentes de IA de modelos lingüísticos a gran escala (LLM) y otras herramientas. Se trata de un potente caso de uso que abre un amplio abanico de posibilidades entre las aplicaciones propietarias y las herramientas SaaS esenciales para los negocios, como GitHub, y las soluciones de IA más avanzadas.Con solo escribir el servidor MCP, se puede empezar a trabajar en el establecimiento de directrices sobre cómo se quiere que funcione y con qué fines.

El impacto de la tecnología MCP en la seguridad es, en realidad, muy positivo. La promesa de una integración más sencilla entre LLM y la pila tecnológica utilizada por los expertos en seguridad es demasiado atractiva como para ignorarla y, como mínimo, muestra la posibilidad de automatizar tareas de seguridad con un nivel de precisión hasta ahora imposible, sin necesidad de crear e implementar código personalizado para cada tarea. Teniendo en cuenta que la visibilidad y la conectividad entre herramientas y responsables de seguridad son fundamentales para una defensa y planificación de la seguridad eficaces, la mejora de la interoperabilidad de LLM que ofrece MCP supone una perspectiva prometedora para la seguridad empresarial.herramientas y personal, la mejora de la interoperabilidad de LLM que ofrece MCP es una perspectiva prometedora para la seguridad empresarial.

Sin embargo, el uso de MCP puede generar otros vectores de amenaza y, a menos que se gestione con cuidado, puede ampliar considerablemente el área de ataque de la empresa. Como señala Invariant Labs, los ataques de envenenamiento de herramientas son una nueva categoría de vulnerabilidad que puede conducir a la filtración de datos confidenciales y a acciones fraudulentas por parte de modelos de IA, lo que puede tener consecuencias muy graves para la seguridad.

Según InvariantLabs, los ataques de envenenamiento de herramientas son posibles cuando se incrustan instrucciones maliciosas en la descripción de la herramienta MCP que no son visibles para el usuario, pero que el modelo de IA puede leer (ejecutar) completamente. Esto hace que la herramienta realice acciones fraudulentas sin que el usuario se dé cuenta. El problema radica en la suposición de MCP de que todas las descripciones de las herramientas son fiables, lo que resulta muy atractivo para los actores maliciosos.

Ellos señalan que, si las herramientas se ven expuestas a peligros, podrían producirse los siguientes resultados.

  • Indicar al modelo de IA que acceda a archivos confidenciales (claves SSH, archivos de configuración, bases de datos, etc.).
  • En un entorno en el que estas acciones maliciosas se ocultan esencialmente a los usuarios que desconocen su existencia, se ordena a la IA que extraiga y envíe estos datos.
  • Al ocultarse tras una interfaz de usuario aparentemente sencilla que muestra los argumentos y los resultados de la herramienta, se produce una desconexión entre lo que ve el usuario y lo que ejecuta el modelo de IA.

Se trata de una nueva categoría de vulnerabilidades preocupante que, a medida que el uso de MCP se vuelva inevitable, seguramente aparecerá con mayor frecuencia. A medida que los programas de seguridad de las empresas evolucionen, se tomarán medidas cautelosas para detectar y mitigar esta amenaza, por lo que es importante que los desarrolladores estén bien preparados para participar en la solución.

Por qué solo los desarrolladores con habilidades de seguridad deben utilizar herramientas de IA de agente

Las herramientas de codificación con IA agencial, además de mejorar la eficiencia, la productividad y la flexibilidad del desarrollo de software, se consideran la siguiente evolución de la codificación asistida por IA. Son especialmente útiles porque tienen una mayor capacidad para comprender el contexto y la intención, pero no están a salvo de amenazas como la inyección inmediata, las alucinaciones y la manipulación del comportamiento por parte de los atacantes.

Los desarrolladores son la línea de defensa entre los buenos y los malos compromisos de código, y perfeccionar las habilidades tanto de seguridad como de pensamiento crítico será fundamental para el futuro del desarrollo de software seguro.

Los resultados de la IA nunca deben implementarse con una confianza ciega. Solo los desarrolladores con habilidades de seguridad y capacidad de pensamiento crítico adaptado a cada situación pueden aprovechar de forma segura el aumento de la productividad que ofrece esta tecnología. Aun así, debe tratarse de un entorno similar al de la programación en pareja, en el que los expertos humanos puedan evaluar, modelar las amenazas y, finalmente, aprobar el trabajo generado por la herramienta.

Descubra cómo los desarrolladores pueden utilizar la IA para mejorar sus habilidades y aumentar su productividad. Aquí.

Técnicas prácticas de alivio y más detalles en los últimos artículos de investigación.

Las herramientas de codificación con IA y la tecnología MCP se consideran elementos importantes para el futuro de la ciberseguridad, pero es importante no profundizar en ellas antes de evaluar la situación.

Nara Jara y Habla . Artículo. Explica en detalle la estrategia integral de mitigación para implementar MCP a nivel empresarial y la gestión continua de los riesgos. En última instancia, se centra en los principios de defensa multicapa y confianza cero, y aborda claramente el perfil de riesgo único que este nuevo ecosistema aporta al entorno empresarial. Para los desarrolladores en particular, es esencial llenar las lagunas de conocimiento en las siguientes áreas.

  • Autenticación y control de acceso: Las herramientas de IA de tipo agente funcionan de manera similar a como lo haría un ingeniero humano al abordar una tarea de ingeniería, resolviendo problemas y tomando decisiones autónomas para alcanzar los objetivos previstos. Sin embargo, como ya se ha establecido, la supervisión de estos procesos por parte de personas cualificadas es un factor que no se puede ignorar, por lo que los desarrolladores que utilizan estas herramientas en sus flujos de trabajo deben saber exactamente qué derechos de acceso tienen, qué datos pueden obtener o divulgar y dónde se comparten.
  • Detección y mitigación de amenazas generales: como ocurre con la mayoría de los procesos de IA, para detectar posibles defectos o imprecisiones en los resultados de las herramientas, los usuarios deben estar familiarizados con las tareas. Los desarrolladores deben mejorar continuamente sus habilidades y someterse a verificaciones de las mismas para revisar eficazmente los procesos de seguridad. De este modo, podrán revisar el código generado por la IA con precisión y fiabilidad en materia de seguridad.
  • Coordinación entre la política de seguridad y la gobernanza de la IA: los desarrolladores deben conocer las herramientas autorizadas y tener la oportunidad de mejorar sus habilidades y acceder a ellas. Antes de confiar en un compromiso, tanto los desarrolladores como las herramientas deben ser objeto de evaluaciones de seguridad.

Recientemente hemos publicado un artículo de investigación sobre la aparición del vibracoding y el coding asistido por IA, y las medidas que deben adoptar las empresas para formar a la próxima generación de ingenieros de software que utilicen la IA. Échale un vistazo ahora mismo y ponte en contacto con nosotros para reforzar tu equipo de desarrollo.

Ver seminario en línea
Comencemos
Más información

Haga clic en el siguiente enlace para descargar el PDF de este recurso.

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Mostrar informeReservar una demostración
Ver recursos
Compartir:
marcas de LinkedInSocialx logotipo
¿Le interesa más?

Compartir:
marcas de LinkedInSocialx logotipo
Autor
Pieter Danhieux
Publicado el 09 de julio de 2025

Director General, Presidente y Cofundador

Pieter Danhieux es un experto en seguridad mundialmente reconocido, con más de 12 años de experiencia como consultor de seguridad y 8 años como instructor principal de SANS enseñando técnicas ofensivas sobre cómo atacar y evaluar organizaciones, sistemas y personas en busca de debilidades de seguridad. En 2016, fue reconocido como una de las personas más cool de la tecnología en Australia (Business Insider), galardonado como Profesional de Seguridad Cibernética del Año (AISA - Asociación Australiana de Seguridad de la Información) y tiene certificaciones GSE, CISSP, GCIH, GCFA, GSEC, GPEN, GWAPT, GCIA.

Compartir:
marcas de LinkedInSocialx logotipo

El desarrollo asistido por IA (o, en su versión más moderna, el «vibracoding») está revolucionando la creación de código. Desarrolladores de renombre están adoptando estas herramientas en masa, y personas que siempre han querido crear su propio software, pero carecían de la experiencia necesaria, ahora están utilizando estas herramientas para construir activos que antes habrían requerido demasiado tiempo y dinero. Se espera que esta tecnología marque el comienzo de una nueva era de innovación, pero también trae consigo una serie de nuevas vulnerabilidades y perfiles de riesgo que los responsables de la seguridad están luchando por mitigar.

Recientemente, InvariantLabs ha descubierto una vulnerabilidad crítica en el protocolo de contexto de modelo (MCP), un marco similar a una API que permite que potentes herramientas de IA interactúen de forma autónoma con otro software y bases de datos. Esto da lugar a una nueva categoría de vulnerabilidades especialmente perjudiciales para las empresas, denominadas «ataques de envenenamiento de herramientas».Las principales herramientas de IA, como Windsurf y Cursor, no son una excepción. Dado que cuentan con millones de usuarios, es fundamental contar con los conocimientos y las habilidades necesarios para gestionar este nuevo problema de seguridad.

En la situación actual, los resultados de estas herramientas no son tan seguros como para poder etiquetarlos como aptos para empresas, tal y como se describe en el artículo reciente de los investigadores de seguridad de AWS e Intuit, Vinesh Sai Narayana e Idan Habar:«A medida que los sistemas de IA se vuelven más autónomos y interactúan directamente con herramientas externas y datos en tiempo real a través de MCP, entre otros, será absolutamente esencial garantizar que esas interacciones sean seguras».

Perfil de riesgo del sistema de inteligencia artificial de la agencia y del protocolo de contexto del modelo

El protocolo Model Context Protocol es un software muy útil desarrollado por Anthropic. Permite una integración más adecuada y fluida entre los agentes de IA de modelos lingüísticos a gran escala (LLM) y otras herramientas. Se trata de un potente caso de uso que abre un amplio abanico de posibilidades entre las aplicaciones propietarias y las herramientas SaaS esenciales para los negocios, como GitHub, y las soluciones de IA más avanzadas.Con solo escribir el servidor MCP, se puede empezar a trabajar en el establecimiento de directrices sobre cómo se quiere que funcione y con qué fines.

El impacto de la tecnología MCP en la seguridad es, en realidad, muy positivo. La promesa de una integración más sencilla entre LLM y la pila tecnológica utilizada por los expertos en seguridad es demasiado atractiva como para ignorarla y, como mínimo, muestra la posibilidad de automatizar tareas de seguridad con un nivel de precisión hasta ahora imposible, sin necesidad de crear e implementar código personalizado para cada tarea. Teniendo en cuenta que la visibilidad y la conectividad entre herramientas y responsables de seguridad son fundamentales para una defensa y planificación de la seguridad eficaces, la mejora de la interoperabilidad de LLM que ofrece MCP supone una perspectiva prometedora para la seguridad empresarial.herramientas y personal, la mejora de la interoperabilidad de LLM que ofrece MCP es una perspectiva prometedora para la seguridad empresarial.

Sin embargo, el uso de MCP puede generar otros vectores de amenaza y, a menos que se gestione con cuidado, puede ampliar considerablemente el área de ataque de la empresa. Como señala Invariant Labs, los ataques de envenenamiento de herramientas son una nueva categoría de vulnerabilidad que puede conducir a la filtración de datos confidenciales y a acciones fraudulentas por parte de modelos de IA, lo que puede tener consecuencias muy graves para la seguridad.

Según InvariantLabs, los ataques de envenenamiento de herramientas son posibles cuando se incrustan instrucciones maliciosas en la descripción de la herramienta MCP que no son visibles para el usuario, pero que el modelo de IA puede leer (ejecutar) completamente. Esto hace que la herramienta realice acciones fraudulentas sin que el usuario se dé cuenta. El problema radica en la suposición de MCP de que todas las descripciones de las herramientas son fiables, lo que resulta muy atractivo para los actores maliciosos.

Ellos señalan que, si las herramientas se ven expuestas a peligros, podrían producirse los siguientes resultados.

  • Indicar al modelo de IA que acceda a archivos confidenciales (claves SSH, archivos de configuración, bases de datos, etc.).
  • En un entorno en el que estas acciones maliciosas se ocultan esencialmente a los usuarios que desconocen su existencia, se ordena a la IA que extraiga y envíe estos datos.
  • Al ocultarse tras una interfaz de usuario aparentemente sencilla que muestra los argumentos y los resultados de la herramienta, se produce una desconexión entre lo que ve el usuario y lo que ejecuta el modelo de IA.

Se trata de una nueva categoría de vulnerabilidades preocupante que, a medida que el uso de MCP se vuelva inevitable, seguramente aparecerá con mayor frecuencia. A medida que los programas de seguridad de las empresas evolucionen, se tomarán medidas cautelosas para detectar y mitigar esta amenaza, por lo que es importante que los desarrolladores estén bien preparados para participar en la solución.

Por qué solo los desarrolladores con habilidades de seguridad deben utilizar herramientas de IA de agente

Las herramientas de codificación con IA agencial, además de mejorar la eficiencia, la productividad y la flexibilidad del desarrollo de software, se consideran la siguiente evolución de la codificación asistida por IA. Son especialmente útiles porque tienen una mayor capacidad para comprender el contexto y la intención, pero no están a salvo de amenazas como la inyección inmediata, las alucinaciones y la manipulación del comportamiento por parte de los atacantes.

Los desarrolladores son la línea de defensa entre los buenos y los malos compromisos de código, y perfeccionar las habilidades tanto de seguridad como de pensamiento crítico será fundamental para el futuro del desarrollo de software seguro.

Los resultados de la IA nunca deben implementarse con una confianza ciega. Solo los desarrolladores con habilidades de seguridad y capacidad de pensamiento crítico adaptado a cada situación pueden aprovechar de forma segura el aumento de la productividad que ofrece esta tecnología. Aun así, debe tratarse de un entorno similar al de la programación en pareja, en el que los expertos humanos puedan evaluar, modelar las amenazas y, finalmente, aprobar el trabajo generado por la herramienta.

Descubra cómo los desarrolladores pueden utilizar la IA para mejorar sus habilidades y aumentar su productividad. Aquí.

Técnicas prácticas de alivio y más detalles en los últimos artículos de investigación.

Las herramientas de codificación con IA y la tecnología MCP se consideran elementos importantes para el futuro de la ciberseguridad, pero es importante no profundizar en ellas antes de evaluar la situación.

Nara Jara y Habla . Artículo. Explica en detalle la estrategia integral de mitigación para implementar MCP a nivel empresarial y la gestión continua de los riesgos. En última instancia, se centra en los principios de defensa multicapa y confianza cero, y aborda claramente el perfil de riesgo único que este nuevo ecosistema aporta al entorno empresarial. Para los desarrolladores en particular, es esencial llenar las lagunas de conocimiento en las siguientes áreas.

  • Autenticación y control de acceso: Las herramientas de IA de tipo agente funcionan de manera similar a como lo haría un ingeniero humano al abordar una tarea de ingeniería, resolviendo problemas y tomando decisiones autónomas para alcanzar los objetivos previstos. Sin embargo, como ya se ha establecido, la supervisión de estos procesos por parte de personas cualificadas es un factor que no se puede ignorar, por lo que los desarrolladores que utilizan estas herramientas en sus flujos de trabajo deben saber exactamente qué derechos de acceso tienen, qué datos pueden obtener o divulgar y dónde se comparten.
  • Detección y mitigación de amenazas generales: como ocurre con la mayoría de los procesos de IA, para detectar posibles defectos o imprecisiones en los resultados de las herramientas, los usuarios deben estar familiarizados con las tareas. Los desarrolladores deben mejorar continuamente sus habilidades y someterse a verificaciones de las mismas para revisar eficazmente los procesos de seguridad. De este modo, podrán revisar el código generado por la IA con precisión y fiabilidad en materia de seguridad.
  • Coordinación entre la política de seguridad y la gobernanza de la IA: los desarrolladores deben conocer las herramientas autorizadas y tener la oportunidad de mejorar sus habilidades y acceder a ellas. Antes de confiar en un compromiso, tanto los desarrolladores como las herramientas deben ser objeto de evaluaciones de seguridad.

Recientemente hemos publicado un artículo de investigación sobre la aparición del vibracoding y el coding asistido por IA, y las medidas que deben adoptar las empresas para formar a la próxima generación de ingenieros de software que utilicen la IA. Échale un vistazo ahora mismo y ponte en contacto con nosotros para reforzar tu equipo de desarrollo.

Índice

Descargar PDF
Ver recursos
¿Le interesa más?

Director General, Presidente y Cofundador

Más información

Secure Code Warrior le ayuda a proteger el código a lo largo de todo el ciclo de vida del desarrollo de software y a crear una cultura que dé prioridad a la ciberseguridad. Tanto si es gestor de seguridad de aplicaciones, desarrollador, CISO o responsable de seguridad, le ayudamos a reducir los riesgos asociados al código inseguro.

Reservar una demostración[Descargar]
Compartir:
marcas de LinkedInSocialx logotipo
Centro de recursos

Recursos para empezar

Otras publicaciones
Centro de recursos

Recursos para empezar

Otras publicaciones