Source | https://cyber.gouv.fr/actualites/lanssi-et-le-bsi-publient-leurs-recommandations-de-securite-concernant-les-assistants-de |
Date de publication | 2024-10-04T00:00:00 |
Date de mise à jour | 2024-10-04T00:00:00 |
Description | Alors que le recours à l’IA ne cesse de s’accélérer, l'utilisation d'assistants de programmation basés sur l’IA est déjà répandue dans de nombreuses entités publiques et privées. Ces outils sont utilisés à différents stades du processus de développement de logiciels – principalement pour générer du code source, aider les développeurs à se familiariser avec le code source de nouveaux projets, ou encore générer des tests et de la documentation. L’utilisation de ces assistants ne peut que s’accentuer à l'avenir, faisant de ces outils des éléments incontournables du développement de logiciels.
S’ils présentent des avantages certains, ces produits peuvent aussi induire de nouveaux risques de sécurité et doivent nécessairement être abordés avec prudence. Dans ce cadre, l’ANSSI et le BSI présentent, dans un document rédigé en anglais, les opportunités et les risques de l'utilisation d'assistants de programmation basés sur l’IA, notamment les risques liés aux services mutualisés, accessibles depuis Internet. Le document a pour objectif de contribuer à une utilisation responsable et sûre de ces outils et propose une série de recommandations de sécurité à destination des responsables et développeurs.
Cette publication commune du BSI et de l’ANSSI s’intègre dans une série de travaux menés par chacune des entités autour de l’IA. Au printemps dernier, l’ANSSI a publié ses recommandations de sécurité pour les systèmes d’IA générative, désormais disponibles en anglais Security recommendations for a generative AI system. De son côté, le BSI a produit une étude sur les risques et opportunités des LLM (Large Language Models) qui a récemment été mise à jour. |
Documents | |