
Analyse approfondie : analyse des vulnérabilités générées par les assistants de codage basés sur l'IA
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Explorez les risques de sécurité liés à l'IA dans le développement de logiciels et apprenez à relever ces défis efficacement avec Secure Code Warrior.

Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Reserve una demostraciónLaura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)

Haga clic en el enlace siguiente y descargue el PDF de este recurso.
Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Mostrar el informeReserve una demostración
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même ! Cette mission révèle l'interface familière d'un LLM populaire et utilise un véritable extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Essayez la missionLaura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Índice

Secure Code Warrior aquí para ayudar a su organización a proteger el código a lo largo de todo el ciclo de desarrollo de software y a crear una cultura en la que la ciberseguridad sea una prioridad. Tanto si es responsable de la seguridad de las aplicaciones, desarrollador, responsable de la seguridad informática o cualquier otra persona involucrada en la seguridad, podemos ayudar a su organización a reducir los riesgos asociados a un código no seguro.
Reserve una demostraciónDescargarRecursos para ayudarle a empezar
Temas y contenidos de formación sobre el código seguro
Nuestro contenido de vanguardia evoluciona constantemente para adaptarse al panorama en constante cambio del desarrollo de software, teniendo en cuenta su función. Temas que abarcan desde la IA hasta la inyección de XQuery, ofrecidos para una variedad de puestos, desde arquitectos hasta ingenieros, pasando por jefes de producto y control de calidad. Descubra una visión general de lo que nuestro catálogo de contenidos tiene para ofrecer por tema y por función.
La Cámara de Comercio establece el estándar para la seguridad impulsada por desarrolladores a gran escala
Kamer van Koophandel comparte cómo ha integrado la codificación segura en el desarrollo diario mediante certificaciones basadas en roles, evaluaciones comparativas de Trust Score y una cultura de responsabilidad compartida en materia de seguridad.
Modelado de amenazas con IA: convertir a cada desarrollador en un modelador de amenazas
Saldrá mejor equipado para ayudar a los desarrolladores a combinar ideas y técnicas de modelado de amenazas con las herramientas de IA que ya utilizan para reforzar la seguridad, mejorar la colaboración y crear software más resistente desde el principio.
Recursos para ayudarle a empezar
Cybermon está de vuelta: las missions Beat the Boss ya están disponibles bajo demanda.
Cybermon 2025 Beat the Boss ya está disponible todo el año en SCW. Implemente desafíos de seguridad avanzados relacionados con la IA y el LLM para reforzar el desarrollo seguro de la IA a gran escala.
Explicación de la ley sobre ciberresiliencia: lo que significa para el desarrollo de software seguro desde el diseño.
Descubra qué exige la ley europea sobre ciberresiliencia (CRA), a quién se aplica y cómo los equipos de ingenieros pueden prepararse mediante prácticas de seguridad desde el diseño, la prevención de vulnerabilidades y el refuerzo de las capacidades de los desarrolladores.
Facilitador 1: Criterios de éxito definidos y medibles
El facilitador 1 da inicio a nuestra serie de 10 partes titulada «Facilitadores del éxito», mostrando cómo combinar la codificación segura con resultados comerciales, como la reducción de riesgos y la rapidez, para garantizar la madurez a largo plazo de los programas.



%20(1).avif)
.avif)
