
Serie de vídeos sobre seguridad AI/LLM: Todos los episodios, actualizados semanalmente
Guía de la serie de introducción a la seguridad AI/LLM
Las herramientas de codificación de IA como GitHub Copilot, Cursor y otras están cambiando la forma de crear software, pero también introducen nuevos retos de seguridad que los desarrolladores deben comprender para crear aplicaciones seguras y fiables. Para ayudar a los equipos a adoptar la IA de forma segura, hemos creado una serie de vídeos gratuitos de introducción a la seguridad de la IA/LLM de 12 semanas de duración en YouTube.
Esta entrada es el eje central de la serie. Cada semana, lo actualizaremos con un nuevo vídeo y una descripción, que abarcará conceptos esenciales como la inyección de avisos, el envenenamiento de datos y modelos, los riesgos de la cadena de suministro, los avisos seguros y mucho más. Marque esta página para seguirla semanalmente o suscríbase a nuestro canal de YouTube para recibir todas las lecciones en cuanto se publiquen.
Si quieres profundizar más allá de estas lecciones introductorias, explora la colección completa de AI/LLM en la plataforma SCW o solicita una demo si aún no eres cliente. Suscríbase a nuestro canal de YouTube para ver cada nuevo episodio en cuanto se publique. Y si desea mantenerse conectado con los últimos contenidos, actualizaciones y recursos, regístrese aquí para unirse a nuestra comunidad de desarrolladores y líderes en seguridad.
Episodios (Actualización semanal)
Semana 1 - Riesgos de la codificación con IA: Peligros del uso de LLMs
En este vídeo, exploramos los peligros potenciales del uso de IA/LLMs al escribir código y destacamos los riesgos clave a los que se enfrentan los desarrolladores al integrar herramientas potenciadas por IA en sus flujos de trabajo.
Semana 2 - Ventajas de la codificación de IA: Desarrollo seguro asistido por IA
Lasherramientas de codificación de IAno solo son arriesgadas - cuando se utilizan de forma segura, pueden ayudar a los desarrolladores a trabajar de forma más rápida e inteligente. En este vídeo, exploramos las ventajas de utilizar IA/LLM al escribir código, destacando cómo los equipos pueden aprovechar la IA de forma responsable y evitar al mismo tiempo los errores de seguridad habituales.
Semana 3 - Explicación de la inyección de prompts: Protegiendo el código generado por IA
Lainyección de promptses una de las vulnerabilidades más comunes de IA/LLM - y una que todo desarrollador debería saber cómo prevenir. En este vídeo, presentamos
Semana 4 - Divulgación de información sensible: Evitar las fugas de datos de IA
Las herramientas basadas en IA pueden filtrar información confidencial sin querer, poniendo en peligro sus aplicaciones y datos. En este vídeo, cubrimos las vulnerabilidades de divulgación de información sensible, explicamos cómo surgen al utilizar IA/LLM y compartimos medidas prácticas que los desarrolladores pueden tomar para reducir la exposición.
Semana 5 - Riesgos de la cadena de suministro de la IA: Asegurar las dependencias
Eldesarrollo asistido por IAacelera la codificación, pero también introduce riesgos en la cadena de suministro que pueden afectar a todas las capas de sus aplicaciones. En este vídeo, exploramos las vulnerabilidades relacionadas con la IA/LLM, explicamos cómo los modelos y las API de terceros pueden ampliar su superficie de ataque y compartimos estrategias para minimizar la exposición.
Semana 6 - Envenenamiento de datos: Cómo proteger los modelos y resultados de la IA
Laseguridad de los sistemas de IA depende de sus datos de entrenamiento, y las entradas comprometidas pueden crear vulnerabilidades que se extiendan a todas sus aplicaciones. En este vídeo, presentamos los ataques de envenenamiento de datos y modelos, explicamos cómo las entradas maliciosas pueden manipular los resultados de la IA y compartimos estrategias para proteger sus sistemas.
Semana 7 - Manejo inadecuado de los resultados: Validación del código generado por IA
Lasherramientas basadas en IApueden generar código rápidamente, pero si las salidas no se validan, pueden aparecer vulnerabilidades inadvertidas. En este vídeo, examinamos la gestión inadecuada de los resultados en el desarrollo asistido por IA, explicamos cómo los resultados arriesgados pueden poner en peligro sus aplicaciones y compartimos técnicas para proteger el código generado.
Semana 8 - Agencia excesiva: Control de los riesgos de la autonomía de la IA
A medida quelos sistemas de IA se vuelven más autónomos, la agencia excesiva crea nuevos riesgos en los que los modelos actúan más allá de su alcance previsto. En este vídeo, exploramos las vulnerabilidades de la agencia excesiva en el desarrollo asistido por IA, explicamos cómo surgen los comportamientos de extralimitación y analizamos técnicas para mantener el control sobre los procesos impulsados por IA.
Semana 9 - Fuga deinstrucciones del sistema: riesgos ocultos para la seguridad de la IA
Lasinstrucciones del sistema suelen incluir instrucciones ocultas que guían el comportamiento de la IA, pero si se descubren, los atacantes pueden manipular modelos o extraer información confidencial. En este vídeo cubrimos las vulnerabilidades de fuga de instrucciones del sistema, explicamos cómo se producen y analizamos las medidas que pueden tomar los desarrolladores para proteger sus flujos de trabajo basados en IA.
Semana 10 - Debilidades de los vectores: Asegurar los flujos de trabajo de recuperación de IA
Losmodelos de IAa menudo se basan en bases de datos vectoriales e incrustaciones para ofrecer potentes capacidades, pero las configuraciones erróneas y las implementaciones inseguras pueden exponer datos confidenciales y crear nuevos vectores de ataque. En este vídeo, profundizamos en los puntos débiles de los vectores y las incrustaciones, explicamos los problemas de seguridad más comunes y compartimos estrategias para proteger sus flujos de trabajo de búsqueda y recuperación basados en IA.
Semana 11: Desinformación en la IA: cómo evitar los riesgos de alucinaciones
Las herramientas de IAa veces pueden generar resultados que parecen correctos, pero que son erróneos, lo que crea riesgos de desinformación que afectan a la seguridad, la fiabilidad y la toma de decisiones. En este vídeo, explicamos las vulnerabilidades de la desinformación en la codificación asistida por IA, exploramos cómo surgen los resultados incorrectos y compartimos estrategias para validar y proteger el contenido generado por IA.
Semana 12 — Consumo ilimitado: prevención de riesgos de denegación de servicio (DoS) en la IA
Los sistemas de IA pueden consumir recursos sin límites, lo que conlleva riesgos como la denegación de servicio (DoS), la exposición de datos y fallos operativos inesperados. En este vídeo, tratamos las vulnerabilidades del consumo ilimitado en la IA/LLM, explicamos cómo se producen y compartimos estrategias prácticas para supervisar, controlar y proteger el uso de los recursos de IA.
Estos vídeos están diseñados para presentar los conceptos básicos de la seguridad de la IA/LLM, pero hay mucho más que explorar dentro de Secure Code Warrior . Sumérgete en los retos de IA que simulan la revisión y corrección de código asistida por IA en el mundo real, explora nuestras directrices de IA/LLM alineadas con las mejores prácticas del sector y trabaja con tutoriales, Missions, búsquedas y plantillas de cursos que proporcionan experiencia práctica para desarrollar hábitos de codificación seguros. Para los equipos que estén listos para mejorar sus habilidades, la plataforma también ofrece una biblioteca en constante crecimiento con más de 130 actividades de aprendizaje centradas en la IA/LLM, que incluyen temas como Codificación con IA, Introducción al riesgo y la seguridad de la IA y el Top 10 de OWASP para aplicaciones LLM. Solicite una demostración para obtener más información.


Su guía todo en uno para nuestra serie de vídeos de seguridad AI/LLM de 12 semanas. Vea todos los episodios, aprenda conceptos clave de seguridad de IA y siga la serie semanalmente.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Reserve una demostraciónShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.


Guía de la serie de introducción a la seguridad AI/LLM
Las herramientas de codificación de IA como GitHub Copilot, Cursor y otras están cambiando la forma de crear software, pero también introducen nuevos retos de seguridad que los desarrolladores deben comprender para crear aplicaciones seguras y fiables. Para ayudar a los equipos a adoptar la IA de forma segura, hemos creado una serie de vídeos gratuitos de introducción a la seguridad de la IA/LLM de 12 semanas de duración en YouTube.
Esta entrada es el eje central de la serie. Cada semana, lo actualizaremos con un nuevo vídeo y una descripción, que abarcará conceptos esenciales como la inyección de avisos, el envenenamiento de datos y modelos, los riesgos de la cadena de suministro, los avisos seguros y mucho más. Marque esta página para seguirla semanalmente o suscríbase a nuestro canal de YouTube para recibir todas las lecciones en cuanto se publiquen.
Si quieres profundizar más allá de estas lecciones introductorias, explora la colección completa de AI/LLM en la plataforma SCW o solicita una demo si aún no eres cliente. Suscríbase a nuestro canal de YouTube para ver cada nuevo episodio en cuanto se publique. Y si desea mantenerse conectado con los últimos contenidos, actualizaciones y recursos, regístrese aquí para unirse a nuestra comunidad de desarrolladores y líderes en seguridad.
Episodios (Actualización semanal)
Semana 1 - Riesgos de la codificación con IA: Peligros del uso de LLMs
En este vídeo, exploramos los peligros potenciales del uso de IA/LLMs al escribir código y destacamos los riesgos clave a los que se enfrentan los desarrolladores al integrar herramientas potenciadas por IA en sus flujos de trabajo.
Semana 2 - Ventajas de la codificación de IA: Desarrollo seguro asistido por IA
Lasherramientas de codificación de IAno solo son arriesgadas - cuando se utilizan de forma segura, pueden ayudar a los desarrolladores a trabajar de forma más rápida e inteligente. En este vídeo, exploramos las ventajas de utilizar IA/LLM al escribir código, destacando cómo los equipos pueden aprovechar la IA de forma responsable y evitar al mismo tiempo los errores de seguridad habituales.
Semana 3 - Explicación de la inyección de prompts: Protegiendo el código generado por IA
Lainyección de promptses una de las vulnerabilidades más comunes de IA/LLM - y una que todo desarrollador debería saber cómo prevenir. En este vídeo, presentamos
Semana 4 - Divulgación de información sensible: Evitar las fugas de datos de IA
Las herramientas basadas en IA pueden filtrar información confidencial sin querer, poniendo en peligro sus aplicaciones y datos. En este vídeo, cubrimos las vulnerabilidades de divulgación de información sensible, explicamos cómo surgen al utilizar IA/LLM y compartimos medidas prácticas que los desarrolladores pueden tomar para reducir la exposición.
Semana 5 - Riesgos de la cadena de suministro de la IA: Asegurar las dependencias
Eldesarrollo asistido por IAacelera la codificación, pero también introduce riesgos en la cadena de suministro que pueden afectar a todas las capas de sus aplicaciones. En este vídeo, exploramos las vulnerabilidades relacionadas con la IA/LLM, explicamos cómo los modelos y las API de terceros pueden ampliar su superficie de ataque y compartimos estrategias para minimizar la exposición.
Semana 6 - Envenenamiento de datos: Cómo proteger los modelos y resultados de la IA
Laseguridad de los sistemas de IA depende de sus datos de entrenamiento, y las entradas comprometidas pueden crear vulnerabilidades que se extiendan a todas sus aplicaciones. En este vídeo, presentamos los ataques de envenenamiento de datos y modelos, explicamos cómo las entradas maliciosas pueden manipular los resultados de la IA y compartimos estrategias para proteger sus sistemas.
Semana 7 - Manejo inadecuado de los resultados: Validación del código generado por IA
Lasherramientas basadas en IApueden generar código rápidamente, pero si las salidas no se validan, pueden aparecer vulnerabilidades inadvertidas. En este vídeo, examinamos la gestión inadecuada de los resultados en el desarrollo asistido por IA, explicamos cómo los resultados arriesgados pueden poner en peligro sus aplicaciones y compartimos técnicas para proteger el código generado.
Semana 8 - Agencia excesiva: Control de los riesgos de la autonomía de la IA
A medida quelos sistemas de IA se vuelven más autónomos, la agencia excesiva crea nuevos riesgos en los que los modelos actúan más allá de su alcance previsto. En este vídeo, exploramos las vulnerabilidades de la agencia excesiva en el desarrollo asistido por IA, explicamos cómo surgen los comportamientos de extralimitación y analizamos técnicas para mantener el control sobre los procesos impulsados por IA.
Semana 9 - Fuga deinstrucciones del sistema: riesgos ocultos para la seguridad de la IA
Lasinstrucciones del sistema suelen incluir instrucciones ocultas que guían el comportamiento de la IA, pero si se descubren, los atacantes pueden manipular modelos o extraer información confidencial. En este vídeo cubrimos las vulnerabilidades de fuga de instrucciones del sistema, explicamos cómo se producen y analizamos las medidas que pueden tomar los desarrolladores para proteger sus flujos de trabajo basados en IA.
Semana 10 - Debilidades de los vectores: Asegurar los flujos de trabajo de recuperación de IA
Losmodelos de IAa menudo se basan en bases de datos vectoriales e incrustaciones para ofrecer potentes capacidades, pero las configuraciones erróneas y las implementaciones inseguras pueden exponer datos confidenciales y crear nuevos vectores de ataque. En este vídeo, profundizamos en los puntos débiles de los vectores y las incrustaciones, explicamos los problemas de seguridad más comunes y compartimos estrategias para proteger sus flujos de trabajo de búsqueda y recuperación basados en IA.
Semana 11: Desinformación en la IA: cómo evitar los riesgos de alucinaciones
Las herramientas de IAa veces pueden generar resultados que parecen correctos, pero que son erróneos, lo que crea riesgos de desinformación que afectan a la seguridad, la fiabilidad y la toma de decisiones. En este vídeo, explicamos las vulnerabilidades de la desinformación en la codificación asistida por IA, exploramos cómo surgen los resultados incorrectos y compartimos estrategias para validar y proteger el contenido generado por IA.
Semana 12 — Consumo ilimitado: prevención de riesgos de denegación de servicio (DoS) en la IA
Los sistemas de IA pueden consumir recursos sin límites, lo que conlleva riesgos como la denegación de servicio (DoS), la exposición de datos y fallos operativos inesperados. En este vídeo, tratamos las vulnerabilidades del consumo ilimitado en la IA/LLM, explicamos cómo se producen y compartimos estrategias prácticas para supervisar, controlar y proteger el uso de los recursos de IA.
Estos vídeos están diseñados para presentar los conceptos básicos de la seguridad de la IA/LLM, pero hay mucho más que explorar dentro de Secure Code Warrior . Sumérgete en los retos de IA que simulan la revisión y corrección de código asistida por IA en el mundo real, explora nuestras directrices de IA/LLM alineadas con las mejores prácticas del sector y trabaja con tutoriales, Missions, búsquedas y plantillas de cursos que proporcionan experiencia práctica para desarrollar hábitos de codificación seguros. Para los equipos que estén listos para mejorar sus habilidades, la plataforma también ofrece una biblioteca en constante crecimiento con más de 130 actividades de aprendizaje centradas en la IA/LLM, que incluyen temas como Codificación con IA, Introducción al riesgo y la seguridad de la IA y el Top 10 de OWASP para aplicaciones LLM. Solicite una demostración para obtener más información.

Guía de la serie de introducción a la seguridad AI/LLM
Las herramientas de codificación de IA como GitHub Copilot, Cursor y otras están cambiando la forma de crear software, pero también introducen nuevos retos de seguridad que los desarrolladores deben comprender para crear aplicaciones seguras y fiables. Para ayudar a los equipos a adoptar la IA de forma segura, hemos creado una serie de vídeos gratuitos de introducción a la seguridad de la IA/LLM de 12 semanas de duración en YouTube.
Esta entrada es el eje central de la serie. Cada semana, lo actualizaremos con un nuevo vídeo y una descripción, que abarcará conceptos esenciales como la inyección de avisos, el envenenamiento de datos y modelos, los riesgos de la cadena de suministro, los avisos seguros y mucho más. Marque esta página para seguirla semanalmente o suscríbase a nuestro canal de YouTube para recibir todas las lecciones en cuanto se publiquen.
Si quieres profundizar más allá de estas lecciones introductorias, explora la colección completa de AI/LLM en la plataforma SCW o solicita una demo si aún no eres cliente. Suscríbase a nuestro canal de YouTube para ver cada nuevo episodio en cuanto se publique. Y si desea mantenerse conectado con los últimos contenidos, actualizaciones y recursos, regístrese aquí para unirse a nuestra comunidad de desarrolladores y líderes en seguridad.
Episodios (Actualización semanal)
Semana 1 - Riesgos de la codificación con IA: Peligros del uso de LLMs
En este vídeo, exploramos los peligros potenciales del uso de IA/LLMs al escribir código y destacamos los riesgos clave a los que se enfrentan los desarrolladores al integrar herramientas potenciadas por IA en sus flujos de trabajo.
Semana 2 - Ventajas de la codificación de IA: Desarrollo seguro asistido por IA
Lasherramientas de codificación de IAno solo son arriesgadas - cuando se utilizan de forma segura, pueden ayudar a los desarrolladores a trabajar de forma más rápida e inteligente. En este vídeo, exploramos las ventajas de utilizar IA/LLM al escribir código, destacando cómo los equipos pueden aprovechar la IA de forma responsable y evitar al mismo tiempo los errores de seguridad habituales.
Semana 3 - Explicación de la inyección de prompts: Protegiendo el código generado por IA
Lainyección de promptses una de las vulnerabilidades más comunes de IA/LLM - y una que todo desarrollador debería saber cómo prevenir. En este vídeo, presentamos
Semana 4 - Divulgación de información sensible: Evitar las fugas de datos de IA
Las herramientas basadas en IA pueden filtrar información confidencial sin querer, poniendo en peligro sus aplicaciones y datos. En este vídeo, cubrimos las vulnerabilidades de divulgación de información sensible, explicamos cómo surgen al utilizar IA/LLM y compartimos medidas prácticas que los desarrolladores pueden tomar para reducir la exposición.
Semana 5 - Riesgos de la cadena de suministro de la IA: Asegurar las dependencias
Eldesarrollo asistido por IAacelera la codificación, pero también introduce riesgos en la cadena de suministro que pueden afectar a todas las capas de sus aplicaciones. En este vídeo, exploramos las vulnerabilidades relacionadas con la IA/LLM, explicamos cómo los modelos y las API de terceros pueden ampliar su superficie de ataque y compartimos estrategias para minimizar la exposición.
Semana 6 - Envenenamiento de datos: Cómo proteger los modelos y resultados de la IA
Laseguridad de los sistemas de IA depende de sus datos de entrenamiento, y las entradas comprometidas pueden crear vulnerabilidades que se extiendan a todas sus aplicaciones. En este vídeo, presentamos los ataques de envenenamiento de datos y modelos, explicamos cómo las entradas maliciosas pueden manipular los resultados de la IA y compartimos estrategias para proteger sus sistemas.
Semana 7 - Manejo inadecuado de los resultados: Validación del código generado por IA
Lasherramientas basadas en IApueden generar código rápidamente, pero si las salidas no se validan, pueden aparecer vulnerabilidades inadvertidas. En este vídeo, examinamos la gestión inadecuada de los resultados en el desarrollo asistido por IA, explicamos cómo los resultados arriesgados pueden poner en peligro sus aplicaciones y compartimos técnicas para proteger el código generado.
Semana 8 - Agencia excesiva: Control de los riesgos de la autonomía de la IA
A medida quelos sistemas de IA se vuelven más autónomos, la agencia excesiva crea nuevos riesgos en los que los modelos actúan más allá de su alcance previsto. En este vídeo, exploramos las vulnerabilidades de la agencia excesiva en el desarrollo asistido por IA, explicamos cómo surgen los comportamientos de extralimitación y analizamos técnicas para mantener el control sobre los procesos impulsados por IA.
Semana 9 - Fuga deinstrucciones del sistema: riesgos ocultos para la seguridad de la IA
Lasinstrucciones del sistema suelen incluir instrucciones ocultas que guían el comportamiento de la IA, pero si se descubren, los atacantes pueden manipular modelos o extraer información confidencial. En este vídeo cubrimos las vulnerabilidades de fuga de instrucciones del sistema, explicamos cómo se producen y analizamos las medidas que pueden tomar los desarrolladores para proteger sus flujos de trabajo basados en IA.
Semana 10 - Debilidades de los vectores: Asegurar los flujos de trabajo de recuperación de IA
Losmodelos de IAa menudo se basan en bases de datos vectoriales e incrustaciones para ofrecer potentes capacidades, pero las configuraciones erróneas y las implementaciones inseguras pueden exponer datos confidenciales y crear nuevos vectores de ataque. En este vídeo, profundizamos en los puntos débiles de los vectores y las incrustaciones, explicamos los problemas de seguridad más comunes y compartimos estrategias para proteger sus flujos de trabajo de búsqueda y recuperación basados en IA.
Semana 11: Desinformación en la IA: cómo evitar los riesgos de alucinaciones
Las herramientas de IAa veces pueden generar resultados que parecen correctos, pero que son erróneos, lo que crea riesgos de desinformación que afectan a la seguridad, la fiabilidad y la toma de decisiones. En este vídeo, explicamos las vulnerabilidades de la desinformación en la codificación asistida por IA, exploramos cómo surgen los resultados incorrectos y compartimos estrategias para validar y proteger el contenido generado por IA.
Semana 12 — Consumo ilimitado: prevención de riesgos de denegación de servicio (DoS) en la IA
Los sistemas de IA pueden consumir recursos sin límites, lo que conlleva riesgos como la denegación de servicio (DoS), la exposición de datos y fallos operativos inesperados. En este vídeo, tratamos las vulnerabilidades del consumo ilimitado en la IA/LLM, explicamos cómo se producen y compartimos estrategias prácticas para supervisar, controlar y proteger el uso de los recursos de IA.
Estos vídeos están diseñados para presentar los conceptos básicos de la seguridad de la IA/LLM, pero hay mucho más que explorar dentro de Secure Code Warrior . Sumérgete en los retos de IA que simulan la revisión y corrección de código asistida por IA en el mundo real, explora nuestras directrices de IA/LLM alineadas con las mejores prácticas del sector y trabaja con tutoriales, Missions, búsquedas y plantillas de cursos que proporcionan experiencia práctica para desarrollar hábitos de codificación seguros. Para los equipos que estén listos para mejorar sus habilidades, la plataforma también ofrece una biblioteca en constante crecimiento con más de 130 actividades de aprendizaje centradas en la IA/LLM, que incluyen temas como Codificación con IA, Introducción al riesgo y la seguridad de la IA y el Top 10 de OWASP para aplicaciones LLM. Solicite una demostración para obtener más información.

Haga clic en el enlace siguiente y descargue el PDF de este recurso.
Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Mostrar el informeReserve una demostraciónShannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST. Elle tient à rendre le développement sécurisé et la conformité plus pratiques et plus accessibles pour les équipes techniques, en comblant le fossé entre les attentes en matière de sécurité et les réalités du développement logiciel moderne.
Guía de la serie de introducción a la seguridad AI/LLM
Las herramientas de codificación de IA como GitHub Copilot, Cursor y otras están cambiando la forma de crear software, pero también introducen nuevos retos de seguridad que los desarrolladores deben comprender para crear aplicaciones seguras y fiables. Para ayudar a los equipos a adoptar la IA de forma segura, hemos creado una serie de vídeos gratuitos de introducción a la seguridad de la IA/LLM de 12 semanas de duración en YouTube.
Esta entrada es el eje central de la serie. Cada semana, lo actualizaremos con un nuevo vídeo y una descripción, que abarcará conceptos esenciales como la inyección de avisos, el envenenamiento de datos y modelos, los riesgos de la cadena de suministro, los avisos seguros y mucho más. Marque esta página para seguirla semanalmente o suscríbase a nuestro canal de YouTube para recibir todas las lecciones en cuanto se publiquen.
Si quieres profundizar más allá de estas lecciones introductorias, explora la colección completa de AI/LLM en la plataforma SCW o solicita una demo si aún no eres cliente. Suscríbase a nuestro canal de YouTube para ver cada nuevo episodio en cuanto se publique. Y si desea mantenerse conectado con los últimos contenidos, actualizaciones y recursos, regístrese aquí para unirse a nuestra comunidad de desarrolladores y líderes en seguridad.
Episodios (Actualización semanal)
Semana 1 - Riesgos de la codificación con IA: Peligros del uso de LLMs
En este vídeo, exploramos los peligros potenciales del uso de IA/LLMs al escribir código y destacamos los riesgos clave a los que se enfrentan los desarrolladores al integrar herramientas potenciadas por IA en sus flujos de trabajo.
Semana 2 - Ventajas de la codificación de IA: Desarrollo seguro asistido por IA
Lasherramientas de codificación de IAno solo son arriesgadas - cuando se utilizan de forma segura, pueden ayudar a los desarrolladores a trabajar de forma más rápida e inteligente. En este vídeo, exploramos las ventajas de utilizar IA/LLM al escribir código, destacando cómo los equipos pueden aprovechar la IA de forma responsable y evitar al mismo tiempo los errores de seguridad habituales.
Semana 3 - Explicación de la inyección de prompts: Protegiendo el código generado por IA
Lainyección de promptses una de las vulnerabilidades más comunes de IA/LLM - y una que todo desarrollador debería saber cómo prevenir. En este vídeo, presentamos
Semana 4 - Divulgación de información sensible: Evitar las fugas de datos de IA
Las herramientas basadas en IA pueden filtrar información confidencial sin querer, poniendo en peligro sus aplicaciones y datos. En este vídeo, cubrimos las vulnerabilidades de divulgación de información sensible, explicamos cómo surgen al utilizar IA/LLM y compartimos medidas prácticas que los desarrolladores pueden tomar para reducir la exposición.
Semana 5 - Riesgos de la cadena de suministro de la IA: Asegurar las dependencias
Eldesarrollo asistido por IAacelera la codificación, pero también introduce riesgos en la cadena de suministro que pueden afectar a todas las capas de sus aplicaciones. En este vídeo, exploramos las vulnerabilidades relacionadas con la IA/LLM, explicamos cómo los modelos y las API de terceros pueden ampliar su superficie de ataque y compartimos estrategias para minimizar la exposición.
Semana 6 - Envenenamiento de datos: Cómo proteger los modelos y resultados de la IA
Laseguridad de los sistemas de IA depende de sus datos de entrenamiento, y las entradas comprometidas pueden crear vulnerabilidades que se extiendan a todas sus aplicaciones. En este vídeo, presentamos los ataques de envenenamiento de datos y modelos, explicamos cómo las entradas maliciosas pueden manipular los resultados de la IA y compartimos estrategias para proteger sus sistemas.
Semana 7 - Manejo inadecuado de los resultados: Validación del código generado por IA
Lasherramientas basadas en IApueden generar código rápidamente, pero si las salidas no se validan, pueden aparecer vulnerabilidades inadvertidas. En este vídeo, examinamos la gestión inadecuada de los resultados en el desarrollo asistido por IA, explicamos cómo los resultados arriesgados pueden poner en peligro sus aplicaciones y compartimos técnicas para proteger el código generado.
Semana 8 - Agencia excesiva: Control de los riesgos de la autonomía de la IA
A medida quelos sistemas de IA se vuelven más autónomos, la agencia excesiva crea nuevos riesgos en los que los modelos actúan más allá de su alcance previsto. En este vídeo, exploramos las vulnerabilidades de la agencia excesiva en el desarrollo asistido por IA, explicamos cómo surgen los comportamientos de extralimitación y analizamos técnicas para mantener el control sobre los procesos impulsados por IA.
Semana 9 - Fuga deinstrucciones del sistema: riesgos ocultos para la seguridad de la IA
Lasinstrucciones del sistema suelen incluir instrucciones ocultas que guían el comportamiento de la IA, pero si se descubren, los atacantes pueden manipular modelos o extraer información confidencial. En este vídeo cubrimos las vulnerabilidades de fuga de instrucciones del sistema, explicamos cómo se producen y analizamos las medidas que pueden tomar los desarrolladores para proteger sus flujos de trabajo basados en IA.
Semana 10 - Debilidades de los vectores: Asegurar los flujos de trabajo de recuperación de IA
Losmodelos de IAa menudo se basan en bases de datos vectoriales e incrustaciones para ofrecer potentes capacidades, pero las configuraciones erróneas y las implementaciones inseguras pueden exponer datos confidenciales y crear nuevos vectores de ataque. En este vídeo, profundizamos en los puntos débiles de los vectores y las incrustaciones, explicamos los problemas de seguridad más comunes y compartimos estrategias para proteger sus flujos de trabajo de búsqueda y recuperación basados en IA.
Semana 11: Desinformación en la IA: cómo evitar los riesgos de alucinaciones
Las herramientas de IAa veces pueden generar resultados que parecen correctos, pero que son erróneos, lo que crea riesgos de desinformación que afectan a la seguridad, la fiabilidad y la toma de decisiones. En este vídeo, explicamos las vulnerabilidades de la desinformación en la codificación asistida por IA, exploramos cómo surgen los resultados incorrectos y compartimos estrategias para validar y proteger el contenido generado por IA.
Semana 12 — Consumo ilimitado: prevención de riesgos de denegación de servicio (DoS) en la IA
Los sistemas de IA pueden consumir recursos sin límites, lo que conlleva riesgos como la denegación de servicio (DoS), la exposición de datos y fallos operativos inesperados. En este vídeo, tratamos las vulnerabilidades del consumo ilimitado en la IA/LLM, explicamos cómo se producen y compartimos estrategias prácticas para supervisar, controlar y proteger el uso de los recursos de IA.
Estos vídeos están diseñados para presentar los conceptos básicos de la seguridad de la IA/LLM, pero hay mucho más que explorar dentro de Secure Code Warrior . Sumérgete en los retos de IA que simulan la revisión y corrección de código asistida por IA en el mundo real, explora nuestras directrices de IA/LLM alineadas con las mejores prácticas del sector y trabaja con tutoriales, Missions, búsquedas y plantillas de cursos que proporcionan experiencia práctica para desarrollar hábitos de codificación seguros. Para los equipos que estén listos para mejorar sus habilidades, la plataforma también ofrece una biblioteca en constante crecimiento con más de 130 actividades de aprendizaje centradas en la IA/LLM, que incluyen temas como Codificación con IA, Introducción al riesgo y la seguridad de la IA y el Top 10 de OWASP para aplicaciones LLM. Solicite una demostración para obtener más información.
Índice
Shannon Holt est une spécialiste de la commercialisation de produits de cybersécurité avec une expérience dans les domaines de la sécurité des applications, des services de sécurité du cloud et des normes de conformité telles que PCI-DSS et HITRUST.

Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Reserve una demostraciónDescargarRecursos para ayudarle a empezar
Temas y contenidos de formación sobre el código seguro
Nuestro contenido de vanguardia evoluciona constantemente para adaptarse al panorama en constante cambio del desarrollo de software, teniendo en cuenta su función. Temas que abarcan desde la IA hasta la inyección de XQuery, ofrecidos para una variedad de puestos, desde arquitectos hasta ingenieros, pasando por jefes de producto y control de calidad. Descubra una visión general de lo que nuestro catálogo de contenidos tiene para ofrecer por tema y por función.
La Cámara de Comercio establece el estándar para la seguridad impulsada por desarrolladores a gran escala
Kamer van Koophandel comparte cómo ha integrado la codificación segura en el desarrollo diario mediante certificaciones basadas en roles, evaluaciones comparativas de Trust Score y una cultura de responsabilidad compartida en materia de seguridad.
Modelado de amenazas con IA: convertir a cada desarrollador en un modelador de amenazas
Saldrá mejor equipado para ayudar a los desarrolladores a combinar ideas y técnicas de modelado de amenazas con las herramientas de IA que ya utilizan para reforzar la seguridad, mejorar la colaboración y crear software más resistente desde el principio.
Recursos para ayudarle a empezar
Cybermon está de vuelta: las missions Beat the Boss ya están disponibles bajo demanda.
Cybermon 2025 Beat the Boss ya está disponible todo el año en SCW. Implemente desafíos de seguridad avanzados relacionados con la IA y el LLM para reforzar el desarrollo seguro de la IA a gran escala.
Explicación de la ley sobre ciberresiliencia: lo que significa para el desarrollo de software seguro desde el diseño.
Descubra qué exige la ley europea sobre ciberresiliencia (CRA), a quién se aplica y cómo los equipos de ingenieros pueden prepararse mediante prácticas de seguridad desde el diseño, la prevención de vulnerabilidades y el refuerzo de las capacidades de los desarrolladores.
Facilitador 1: Criterios de éxito definidos y medibles
El facilitador 1 da inicio a nuestra serie de 10 partes titulada «Facilitadores del éxito», mostrando cómo combinar la codificación segura con resultados comerciales, como la reducción de riesgos y la rapidez, para garantizar la madurez a largo plazo de los programas.
















%20(1).avif)
.avif)
