
Analyse approfondie : analyse des vulnérabilités générées par les assistants de codage basés sur l'IA
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Explorez les risques de sécurité liés à l'IA dans le développement de logiciels et apprenez à relever ces défis efficacement avec Secure Code Warrior.

Secure Code Warrior 귀사의 조직이 소프트웨어 개발 주기 전반에 걸쳐 코드를 안전하게 보호하고 사이버보안이 최우선 과제인 문화를 조성하도록 Secure Code Warrior . 애플리케이션 보안 담당자, 개발자, IT 보안 책임자 또는 보안 관련 업무에 종사하는 모든 분들을 위해, 저희는 귀사의 조직이 안전하지 않은 코드로 인한 위험을 줄일 수 있도록 돕습니다.
데모 예약하기Laura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)

아래 링크를 클릭하고 이 자료의 PDF를 다운로드하세요.
Secure Code Warrior 귀사의 조직이 소프트웨어 개발 주기 전반에 걸쳐 코드를 안전하게 보호하고 사이버보안이 최우선 과제인 문화를 조성하도록 Secure Code Warrior . 애플리케이션 보안 담당자, 개발자, IT 보안 책임자 또는 보안 관련 업무에 종사하는 모든 분들을 위해, 저희는 귀사의 조직이 안전하지 않은 코드로 인한 위험을 줄일 수 있도록 돕습니다.
보고서 표시데모 예약하기
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même ! Cette mission révèle l'interface familière d'un LLM populaire et utilise un véritable extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Essayez la missionLaura Verheyde est une développeuse de logiciels chez Secure Code Warrior qui se concentre sur la recherche de vulnérabilités et la création de contenu pour les missions et les laboratoires de codage.
Où que vous regardiez, la technologie de l'IA suscite un engouement permanent dans presque tous les secteurs d'activité. Considérés par certains comme la solution à la création rapide de fonctionnalités dans le développement de logiciels, les gains de rapidité ont un prix : la possibilité que de graves bogues de sécurité pénètrent dans les bases de code, en raison d'un manque de connaissance contextuelle de la part de l'outil lui-même, et des compétences de sécurité de faible niveau de la part des développeurs qui comptent sur eux pour augmenter la productivité et trouver des réponses à des scénarios de développement difficiles.
La technologie LLM (Large Language Model) représente un changement radical dans le domaine des outils d'assistance et, lorsqu'elle est utilisée en toute sécurité, pourrait bien être le compagnon de programmation idéal pour de nombreux ingénieurs logiciels. Cependant, il a été rapidement établi que l'utilisation incontrôlée des outils de développement de l'IA peut avoir un impact négatif, avec un Étude 2023 de l'université de Stanford révélant que le recours à des assistants d'IA était susceptible d'entraîner un code globalement plus bogué et moins sécurisé, en plus d'une augmentation de la confiance dans la sécurité du résultat.
Bien qu'il soit légitime de supposer que les outils continueront de s'améliorer au fur et à mesure que la course à la perfection de la technologie LLM se poursuit, de nombreuses recommandations, notamment un nouveau décret de l'administration Biden, ainsi que Loi sur l'intelligence artificielle de l'UE - rend leur utilisation délicate dans tous les cas. Les développeurs peuvent prendre une longueur d'avance en perfectionnant leurs compétences en matière de sécurité au niveau du code, leur sensibilisation et leur esprit critique en ce qui concerne les résultats des outils d'IA, et, en retour, devenir un ingénieur de haut niveau.
Comment les assistants de codage basés sur l'IA introduisent-ils des vulnérabilités ? Jouez à notre NOUVELLE mission publique et voyez par vous-même !

Exemple : script intersite (XSS) dans « ChatterGPT »
Notre nouvelle mission publique dévoile l'interface familière d'un LLM populaire et utilise un réel extrait de code généré fin novembre 2023. Les utilisateurs peuvent interpréter cet extrait et étudier les éventuelles failles de sécurité s'il devait être utilisé aux fins prévues.
Sur la base de l'invite « Pouvez-vous écrire une fonction JavaScript qui modifie le contenu de l'élément HTML p, où le contenu est transmis via cette fonction ? » l'assistant IA produit consciencieusement un bloc de code, mais tout n'est pas ce qu'il semble.
Avez-vous déjà relevé le défi ? Dans le cas contraire, essayez dès maintenant avant de poursuivre la lecture.
... d'accord, maintenant que vous l'avez terminé, vous savez que le code en question est vulnérable au cross-site scripting (XSS).
XSS est rendu possible en manipulant les fonctionnalités de base des navigateurs Web. Cela peut se produire lorsqu'une entrée non fiable est rendue en tant que sortie sur une page, mais interprétée à tort comme un code exécutable et sécurisé. Un attaquant peut placer un extrait malveillant (balises HTML, JavaScript, etc.) dans un paramètre d'entrée qui, une fois renvoyé au navigateur, est ensuite exécuté au lieu d'être affiché sous forme de données.
Utiliser les assistants de codage IA en toute sécurité dans le développement de logiciels
UNE enquête récente des équipes de développement actives ont révélé que la quasi-totalité d'entre elles, soit 96 %, avaient commencé à utiliser des assistants IA dans leur flux de travail, et 80 % d'entre elles contournaient même les politiques de sécurité pour les conserver dans leur boîte à outils. En outre, plus de la moitié ont reconnu que les outils d'IA génératifs créent généralement du code non sécurisé, mais cela n'a clairement pas ralenti leur adoption.
En cette nouvelle ère de processus de développement logiciel, il est peu probable que le fait de décourager ou d'interdire l'utilisation de ces outils soit efficace. Les entreprises doivent plutôt permettre à leurs équipes de développement d'exploiter les gains d'efficacité et de productivité sans sacrifier la sécurité ou la qualité du code. Cela nécessite une formation précise sur les meilleures pratiques de codage sécurisé et leur donner la possibilité de développer leurs capacités de réflexion critique, en veillant à ce qu'ils agissent dans un état d'esprit axé sur la sécurité, en particulier lorsqu'ils évaluent la menace potentielle que représente la sortie de code d'un assistant d'IA.
Lectures complémentaires
Pour le XSS en général, consultez notre guide complet.
Vous souhaitez en savoir plus sur la façon d'écrire du code sécurisé et atténuer les risques? Essayez notre Défi d'injection XSS gratuit.
Si vous souhaitez obtenir plus de directives de codage gratuites, consultez Coach de code sécurisé pour vous aider à rester au fait des meilleures pratiques en matière de codage sécurisé.
.avif)
목차

Secure Code Warrior 귀사의 조직이 소프트웨어 개발 주기 전반에 걸쳐 코드를 안전하게 보호하고 사이버보안이 최우선 과제인 문화를 조성하도록 Secure Code Warrior . 애플리케이션 보안 담당자, 개발자, IT 보안 책임자 또는 보안 관련 업무에 종사하는 모든 분들을 위해, 저희는 귀사의 조직이 안전하지 않은 코드로 인한 위험을 줄일 수 있도록 돕습니다.
데모 예약하기Télécharger


%20(1).avif)
.avif)
