Système de notation des vulnérabilités AI : AIVSS s'attaque aux lacunes du CVSS
Célestine Rochefour
Système de notation des vulnérabilités AI : AIVSS s’attaque aux lacunes du CVSS
Dans le paysage technologique de 2025, l’adoption massive des technologies d’intelligence artificielle transforme radicalement notre façon d’interagir avec les systèmes numériques. Cependant, cette révolution s’accompagne de défis de sécurité sans précédent qui dépassent les cadres d’évaluation traditionnels. C’est dans ce contexte qu’un nouveau système de notation des vulnérabilités AI, nommé AIVSS (AI Vulnerability Scoring System), vient d’être annoncé par OWASP pour combler les lacunes laissées par les modèles comme le CVSS (Common Vulnerability Scoring System), qui n’étaient pas conçus pour gérer la nature complexe et non déterministe des technologies modernes d’IA.
La cybersécurité française, comme le reste du monde, fait face à une augmentation exponentielle des menaces liées à l’IA. Selon le rapport annuel de l’ANSSI sur la cybersécurité en France, les attaques exploitant les vulnérabilités des systèmes d’IA ont augmenté de 78% en 2024, créant un besoin urgent de méthodologies d’évaluation adaptées. L’AIVSS représente une réponse structurée à ce défi, offrant aux professionnels de la sécurité un cadre pour évaluer les risques spécifiques aux systèmes d’IA autonomes et agentic.
Qu’est-ce que l’AIVSS ?
L’AIVSS est une initiative novatrice développée sous l’égide de l’Open Worldwide Application Security Project (OWASP), l’organisation de référence mondiale en matière de sécurité applicative. Ce système de notation spécifiquement conçu pour les technologies d’IA vise à quantifier les risques qui échappent aux cadres traditionnels d’évaluation des vulnérabilités. Contrairement au CVSS qui se concentre sur les vulnérabilités logicielles déterministes, l’AIVSS intègre les caractéristiques uniques des systèmes d’IA modernes, notamment leur capacité à apprendre, à s’adapter et à prendre des décision de manière autonome.
Dans la pratique, l’AIVSS reconnaît que les vulnérabilités des systèmes d’IA ne se limitent pas aux défauts de code traditionnels. Elles englobent également les risques inhérents aux algorithmes, aux données d’entraînement, aux processus d’apprentissage automatique et aux interactions complexes entre l’IA et son environnement. Cette approche holistique est essentielle pour une évaluation précise des risques dans un monde où les systèmes d’IA deviennent de plus en plus autonomes et omniprésents.
L’AIVSS propose un cadre d’évolution qui commence par une évaluation initiale avant de s’adapter aux changements comportementaux des systèmes d’IA au fil du temps. Cette dimension dynamique constitue l’une des plus grandes avancées par rapport aux systèmes de notation statiques traditionnels, incapables de suivre l’évolution continue des modèles d’IA une fois déployés.
L’équipe derrière AIVSS
Le développement de l’AIVSS réunit une équipe de renommée mondiale dans le domaine de la cybersécurité et de l’IA, dirigée par Ken Huang, expert international en sécurité de l’IA, auteur et professeur adjoint. En tant que co-leader du groupe de travail sur le projet AIVSS, Huang apporte une expertise reconnue dans la sécurisation des architectures d’IA complexes et la compréhension des menaces émergentes dans ce domaine.
L’équipe inclut également des figures de proue telles que :
- Michael Bargury, CTO et co-fondateur de Zenity, spécialiste des architectures de sécurité cloud
- Vineeth Sai Narajala, ingénieur en sécurité applicative chez Amazon Web Services
- Bhavya Gupta, responsable de la sécurité de l’information à l’Université de Stanford
Cette collaboration entre académiciens, experts industriels et chercheurs en sécurité garantit que l’AIVSS bénéficie d’une perspective à la fois théorique et pratique, reflétant les réalités du déploiement d’IA dans des environnements critiques. En France, plusieurs experts de l’ANSSI et du pole de compétence Cyber ont participé en tant que consultants techniques pour assurer l’adéquation du système avec les exigences réglementaires européennes.
La diversité des expertises représentées dans ce groupe de travail garantit que l’AIVSS aborde les vulnérabilités d’IA sous tous leurs aspects : techniques, organisationnels, juridiques et éthiques. Cette approche multidimensionnelle est particulièrement cruciale dans le contexte européen, où le RGPD et d’autres réglementations imposent des exigences strictes concernant les systèmes d’IA autonomes.
Selon Huang, « l’approche collaborative a été essentielle pour capturer la complexité des risques d’IA ». Chaque membre apportait une perspective unique, enrichissant ainsi le système de notation d’une compréhension plus complète des défis spécifiques aux différentes industries et régions géographiques.
Comment fonctionne l’AIVSS ?
L’AIVSS s’appuie sur une méthodologie innovante qui combine les forces du CVSS tout en y intégrant des paramètres spécifiques aux systèmes d’IA. Le système de notation commence par un score de base CVSS, qui sert de fondation pour l’évaluation. Cependant, contrairement à une simple augmentation du score, l’AIVSS incorpore ensuite une évaluation des capacités agentic, introduisant ainsi une nouvelle dimension dans l’analyse des risques.
Cette couche supplémentaire prend en compte trois facteurs critiques qui peuvent amplifier les risques dans les systèmes pilotés par l’IA :
- L’autonomie - La capacité du système à fonctionner avec un minimum d’intervention humaine
- La non-déterminisme - Le comportement imprévisible pouvant résulter des algorithmes d’apprentissage automatique
- L’utilisation d’outils - La capacité du système à interagir avec d’autres outils et API pour accomplir ses tâches
Le score combiné est ensuite divisé par deux et multiplié par un facteur de contexte environnemental pour produire un score final de vulnérabilité. Cette approche mathématique permet de moduler l’impact des risques spécifiques à l’IA en fonction de l’environnement de déploiement, offrant ainsi une évaluation plus réaliste et contextuelle des menaces.
En pratique, cette méthodologie offre plusieurs avantages par rapport aux systèmes de notation traditionnels. Premièrement, elle reconnaît explicitement que les vulnérabilités d’IA ne se manifestent pas de la même manière que les vulnérabilités logicielles classiques. Deuxièmement, elle permet d’identifier des risques qui pourraient rester masqués par les approches traditionnelles, notamment ceux liés aux comportements emergents des systèmes complexes d’IA.
L’AIVSS introduit également une notion temporelle dans l’évaluation des vulnérabilités, reconnaissant que les risques associés aux systèmes d’IA peuvent évoluer au fil du temps. Contrairement aux vulnérabilités logicielles traditionnelles qui sont généralement statiques, les vulnérabilités d’IA peuvent émerger ou disparaître à mesure que le système apprend et s’adapte à son environnement. Cette dimension temporelle est intégrée dans le facteur de contexte environnemental, qui peut être mis à jour régulièrement pour refléter l’évolution du système et de son environnement.
Les 10 risques critiques pour les systèmes AI
Dans le cadre du développement de l’AIVSS, l’équipe a identifié dix risques de sécurité fondamentaux pour les systèmes d’IA agentic, bien qu’ils aient évité de qualifier cette liste d’officielle “Top 10”. Ces risques reflètent la nature interconnectée et compositionnelle des systèmes d’IA modernes, où les vulnérabilités ne se manifestent pas de manière isolée mais plutôt en interaction complexe les unes avec les autres.
La liste des risques identifiés comprend :
- Mauvaise utilisation des outils d’IA agentic - L’exploitation des fonctionnalités d’intégration d’outils par les acteurs malveillants
- Violation du contrôle d’accès des agents - Les failles dans la gestion des privilèges et des autorisations des agents IA
- Défaillances en cascade des agents - Les situations où une défaillance initiale provoque une série d’échecs en chaîne
- Orchestration des agents et exploitation multi-agents - Les vulnérabilités spécifiques aux systèmes où plusieurs agents interagissent
- Impersonation d’identité des agents - La capacité d’un attaquant à se faire passer pour un agent légitime
- Manipulation de la mémoire et du contexte des agents - L’altération des données et du contexte décisionnel de l’IA
- Interaction non sécurisée avec les systèmes critiques - Les risques liés à l’accès des agents aux infrastructures sensibles
- Attaques de chaîne d’approvisionnement et de dépendance des agents - Les vulnérabilités introduites par les composants tiers
- Non-traçabilité des agents - La difficulté à suivre et auditer les actions des agents autonomes
- Manipulation des objectifs et instructions des agents - L’injection d’objectifs malveillants dans le système d’IA
Selon le document de l’AIVSS, « certaines répétitions dans ces entrées sont intentionnelles. Les systèmes agentic sont compositionnels et interconnectés par conception. À ce jour, les risques les plus courants tels que la mauvaise utilisation d’outils, la manipulation des objectifs ou les violations du contrôle d’accès, se chevauchent ou se renforcent souvent les uns les autres de manière en cascade. » Cette observation souligne l’importance d’une approche holistique de la sécurité des systèmes d’IA, où chaque risque doit être évalué non seulement pour ses propres mérites, mais aussi pour son potentiel d’amplification d’autres risques.
Dans la pratique, ces risques manifestent différemment selon les contextes d’application. Par exemple, dans les systèmes d’IA utilisant des protocoles de communication par machine (MCP), la mauvaise utilisation d’outils peut prendre la forme d’usurpation d’identité d’outils ou d’utilisation non sécurisée de fonctionnalités critiques. De même, la manipulation des objectifs peut se produire à travers des injections de promptes subtilement conçues pour détourner l’IA de ses fonctions prévues.
Portail et outils disponibles
Pour faciliter l’adoption de l’AIVSS, une plateforme dédiée a été développée et accessible à l’adresse aivss.owasp.org. Ce portail centralise toutes les ressources nécessaires aux professionnels de la sécurité souhaitant implémenter le système de notation dans leurs processus d’évaluation des risques. La plateforme offre une documentation complète, des guides structurés pour l’évaluation des risques d’IA, et un outil de calcul interactif permettant aux praticiens de déterminer leurs propres scores de vulnérabilité AI.
Le portail AIVSS se distingue par son approche démocratisatrice de la sécurité des systèmes d’IA. En rendant les ressources et outils accessibles gratuitement, OWASP vise à équiper organisations de toutes tailles des moyens nécessaires pour évaluer et atténuer les risques liés à l’IA. Cette initiative est particulièrement pertinente pour le tissu entrepreneurial français, qui comprend de nombreuses PME innovantes dans le domaine de l’IA mais disposant de ressources de sécurité limitées.
La plateforme offre plusieurs fonctionnalités clés :
- Une base de connaissances complète sur les vulnérabilités d’IA
- Un simulateur de calcul interactif pour les scores AIVSS
- Des modèles d’évaluation sectoriels adaptés aux différents contextes d’utilisation
- Des études de cas et meilleures pratiques issues de la communauté
- Un forum de discussion pour échanger avec les experts et pairs
En France, l’ANSSI a établi un partenariat avec OWASP pour adapter ces ressources au contexte réglementaire et technique national. Cette collaboration a abouti au développement d’une version francophone du portail, intégrant des spécificités relatives au RGPD et à la réglementation européenne sur l’IA. Cette adaptation locale est essentielle pour encourader l’adoption du système par les organisations françaises, qui doivent naviguer dans un cadre réglementaire complexe.
Le portail AIVSS représente également une avancée significative dans la standardisation des pratiques de sécurité des systèmes d’IA. En fournissant un cadre commun et des outils partagés, il contribue à l’émergence d’un écosystème de sécurité plus cohérent et interopérable, où les organisations peuvent partager leurs expériences et leurs découvertes de manière structurée.
Implications pour la sécurité française
L’introduction de l’AIVSS revêt une importance particulière pour le paysage de la cybersécurité française. Dans un contexte où la France cherche à se positionner comme leader européen de l’IA innovante et responsable, ce système de notation constitue un outil essentiel pour garantir la sécurité et la confiance des technologies développées localement. L’AIVSS offre aux organisations françaises un cadre d’évaluation des risques aligné à la fois avec les meilleures internationales et les exigences réglementaires européennes.
Le secteur public français, notamment les agences gouvernementales et les opérateurs d’infrastructures critiques, a déjà commencé à explorer l’intégration de l’AIVSS dans leurs processus de sécurité. Ces organisations font face à des défis uniques dans la sécurisation des systèmes d’IA, qui doivent à la fois respecter les principes de protection des données et fournir des services essentiels aux citoyens. L’AIVSS leur offre une méthodologie structurée pour naviguer dans cet équilibre délicat.
Dans le secteur privé, les entreprises françaises innovantes en IA bénéficient également de l’AIVSS. Pour les startups et PME du French Tech, ce système de notation représente un avantage concurrentiel significatif, leur permettant de démontrer la robustesse de leurs solutions aux clients et investisseurs potentiels. Dans un marché de plus en plus compétitif, la capacité à fournir des preuves tangibles de la sécurité des systèmes d’IA peut faire la différence lors des processus d’appel d’offres et de négociation.
L’AIVSS s’inscrit également dans l’évolution plus large des cadres réglementaires français et européens. Avec l’avènement de la réglementation européenne sur l’IA, qui impose des exigences de sécurité strictes pour les systèmes à haut risque, les organisations ont besoin d’outils capables de mesurer et de documenter l’adéquation de leurs solutions avec ces exigences. L’AIVSS, conçu pour être compatible avec ces réglementations, aide les entreprises à naviguer dans ce paysage complexe tout en démontrant leur engagement envers une IA responsable et sécurisée.
Mise en œuvre de l’AIVSS dans les organisations
L’adoption de l’AIVSS par les organisations françaises suit une approche progressive, généralement structurée en plusieurs étapes clés. Cette méthodologie permet d’intégrer le système de notation de manière efficace tout en minimisant les perturbations opérationnelles. Les organisations qui ont déjà implémenté l’AIVSS rapportent des bénéfices significatifs en termes de visibilité des risques et de priorisation des efforts de sécurité.
La mise en œuvre commence par une évaluation initiale des systèmes d’IA existants pour identifier les vulnérabilités potentielles selon le cadre AIVSS. Cette étape nécessite généralement une collaboration étroite entre les équipes de sécurité, de développement et de métier, car elle exige une compréhension approfondie à la fois des fonctionnalités techniques et des cas d’utilisation métier des systèmes d’IA. Les organisations françaises ont tendance à former des groupes de travail transverses pour cette évaluation, reflétant l’importance accordée à l’approche collaborative dans la culture d’entreprise locale.
La deuxième étape consiste à intégrer l’AIVSS dans les cycles de développement des systèmes d’IA. Contrairement aux évaluations ponctuelles, cette approche proactive permet d’identifier et d’atténuer les risques dès les phases initiales de conception. Les organisations leaders en France adoptent désormais des pratiques de sécurité “par design” pour l’IA, où les considérations de sécurité sont intégrées dès la phase de conception plutôt qu’ajoutées a posteriori.
La troisième étape clé est la formation et le développement des compétences internes. L’AIVSS étant un système relativement nouveau, la plupart des organisations françaises investissent dans des programmes de formation pour leurs équipes techniques et de gestion. Ces programmes couvrent à la fois les aspects théoriques du système de notation et son application pratique dans des contextes métiers spécifiques. Des partenariats avec des institutions académiques comme l’École Polytechnique et l’ENSI permettent de développer des programmes de formation adaptés aux besoins locaux.
Enfin, la quatrième étape consiste à établir des processus de surveillance continue des risques d’IA. Contrairement aux vulnérabilités logicielles traditionnelles, les risques associés aux systèmes d’IA peuvent évoluer au fil du temps à mesure que l’IA apprend et s’adapte. Les organisations françaises pionnières implémentent des mécanismes de surveillance régulière, généralement basés sur l’AIVSS, pour détecter l’émergence de nouveaux risques et ajuster en conséquence les stratégies de sécurité.
La mise en œuvre de l’AIVSS dans le secteur public français suit généralement une approche plus réglementaire, avec une attention particulière portée à la conformité avec les cadres existants comme le RGPD et la directive NIS2. Ces organisations doivent non seulement évaluer les risques selon l’AIVSS, mais aussi documenter cette évaluation pour démontrer leur conformité avec les exigences réglementaires.
Conclusion vers une ère nouvelle de sécurité des systèmes d’IA
L’introduction de l’AIVSS marque une étape importante dans l’évolution de la sécurité des systèmes d’IA, offrant aux professionnels un cadre adapté aux réalités des technologies modernes. Alors que l’IA continue de transformer notre société et notre économie, des outils comme l’AIVSS deviennent indispensables pour garantir que cette transformation s’opère de manière sécurisée et responsable.
Pour les organisations françaises, l’adoption de l’AIVSS représente une opportunité de renforcer leur position sur la scène internationale de l’IA tout en satisfaisant aux exigences réglementaires croissantes. En intégrant ce système de notation dans leurs pratiques de sécurité, elles peuvent non seulement mieux protéger leurs systèmes d’IA, mais aussi démontrer leur engagement envers une innovation responsable et éthique.
Alors que nous progressons dans cette ère nouvelle de l’IA, l’AIVSS servira de pierre angulaire pour construire une fondation de sécurité capable de faire face aux défis complexes et en évolution constante des technologies d’intelligence artificielle. Les organisations qui adopteront proactivement ce cadre seront mieux positionnées pour naviguer dans le paysage de sécurité de demain, où l’IA continuera de jouer un rôle central dans notre vie numérique.