Espionnage économique IA : le cas du ex‐ingénieur Google condamné aux États‐Unis
Célestine Rochefour
Statistique choc : selon le Rapport annuel de l’ANSSI (2024), 27 % des incidents de cybersécurité en France concernent le vol de propriétés intellectuelles, et le secteur de l’intelligence artificielle représente la moitié de ces pertes. Cette réalité s’est confirmée le 31 janvier 2026, lorsqu’un jury fédéral américain a condamné Linwei Ding, ancien ingénieur chez Google, pour espionnage économique IA. Le présent guide décrit les faits, les cadres légaux, les conséquences pour les supercalculateurs et les mesures concrètes que les entreprises françaises peuvent appliquer.
Contexte juridique de l’espionnage économique lié à l’IA
Définitions et cadres légaux
L’espionnage économique désigne le vol ou la divulgation non autorisée d’informations stratégiques afin de favoriser un concurrent ou un État. Lorsqu’il porte sur des technologies d’intelligence artificielle, il tombe sous la législation sur les secrets commerciaux (U.S. Economic Espionage Act, 1996) et les lois de protection des secrets d’État. En Europe, le Règlement (UE) 2016/679 (RGPD) impose des obligations de protection des données sensibles, tandis que l’ANSSI publie le Référentiel d’Exigences de Sécurité (RES) qui inclut les secrets industriels comme actifs critiques.
Sanctions aux États‐Unis et en Europe
Aux États‐Unis, chaque chef d’accusation d’espionnage économique peut mener à une peine de 10 à 15 ans d’incarcération et à des amendes pouvant atteindre 5 milliards de dollars, selon le U.S. Department of Justice (DOJ). En Europe, les peines varient de 2 à 5 ans, mais les sanctions administratives (amendes ANSSI) peuvent dépasser 10 % du chiffre d’affaires annuel. Ainsi, le verdict contre Ding, avec sept chefs d’accusation d’espionnage économique et sept chefs de vol de secrets commerciaux, illustre la sévérité croissante des juridictions face aux menaces IA.
“Ding a cherché à aider deux entités contrôlées par le gouvernement chinois en participant au développement d’un superordinateur IA et en collaborant à la recherche de puces d’apprentissage automatique personnalisées.” – Déclaration du DOJ, 2026
Les faits retenus contre Linwei Ding
Chronologie des faits (mai 2022 – avril 2023)
- Mai 2022 : Ding commence à extraire des documents depuis les serveurs internes de Google, ciblant les spécifications du TPU (Tensor Processing Unit) et les configurations GPU de dernière génération.
- Juillet 2022 – février 2023 : Il téléverse plus de 2 000 pages de rapports, diagrammes et scripts d’orchestration vers son compte Google Cloud personnel, masquant les transferts par des comptes de service anonymes.
- Mars 2024 : Après un interrogatoire interne, Google découvre l’incohérence entre les logs d’accès et les déplacements déclarés de Ding, déclenchant une enquête officielle.
- Novembre 2024 : Ding est arrêté à Los Angeles, puis transféré à San Francisco pour le procès.
Nature des données volées
| Type de donnée | Description | Impact potentiel |
|---|---|---|
| TPU architecture | Schémas détaillés des circuits et du firmware | Permettrait à un concurrent de reproduire ou d’optimiser les performances IA |
| Logiciel d’orchestration | Scripts Python et YAML pour le déploiement à grande échelle | Accélérerait le déploiement de clusters IA dans des environnements non sécurisés |
| SmartNIC technology | Code source de la pile réseau et des algorithmes de faible latence | Faciliterait la création de solutions de communication haute performance pour IA |
| Études de cas internes | Analyses de charge de travail et benchmarks | Offrirait à un acteur étranger une feuille de route pour atteindre la « parité internationale » |
“Ding a déclaré qu’il voulait aider la Chine à disposer d’une infrastructure de calcul comparable à celle des leaders mondiaux.” – Procureur fédéral, audience de 2026
Exemple concret français
En 2025, un groupe de recherche français a découvert que des chercheurs d’un laboratoire parisien partageaient involontairement des modèles de langage pré‐entraînés via un dépôt Git public. Bien que le volume de données fût moindre que celui de Ding, la fuite aurait pu permettre à un acteur étranger de contourner les coûts de formation de 30 % selon un rapport de l’ANSSI.
Implications pour la sécurité des supercalculateurs IA
Vulnérabilités des infrastructures TPU/GPU
Les TPU et GPU sont des cœurs de calcul spécialisés, mais leurs firmware propriétaires contiennent souvent des interfaces de diagnostic non chiffrées. SCADA vulnerability details Une mauvaise segmentation réseau expose ces interfaces à des attaques internes. En pratique, les logs d’accès doivent être corrélés avec les politiques d’authentification forte (MFA) et les solutions de Zero‐Trust recommandées par l’ISO 27001.
Rôle des SmartNIC et orchestration logicielle
Les SmartNIC (Network Interface Cards intelligentes) gèrent le trafic réseau directement sur le matériel, réduisant la latence pour les charges IA. Leur code source, cependant, représente une cible de choix : une compromission peut permettre la manipulation de flux de données sensibles. L’ANSSI recommande l’usage de signatures de firmware signées et de vérifications d’intégrité avant chaque mise à jour.
Mesures de prévention pour les entreprises technologiques
- Segmentation stricte des réseaux de calcul et des zones de stockage des secrets.
- MFA obligatoire pour tout accès aux environnements cloud, y compris les comptes de service.
- Journalisation exhaustive des transferts de données, avec rétention d’au moins 12 mois.
- Analyse comportementale des comptes utilisateurs via des solutions SIEM conformes à l’ISO 27001.
- Programme de sensibilisation continu, incluant des simulations de phishing ciblant les ingénieurs IA.
- Audit de code des firmware SmartNIC, en s’appuyant sur des outils de vérification formelle.
- Gestion des identités basée sur le principe du moindre privilège (least‐privilege).
# Exemple de politique d’accès (extrait de la charte interne)
[
"resource": "tpus/*",
"effect": "allow",
"principal": "role:ai_engineer",
"condition": {
"StringEquals": {"aws:MultiFactorAuthPresent": "true"},
"IpAddress": {"aws:SourceIp": "10.0.0.0/8"}
}
]
Ce bloc montre comment une règle d’accès peut forcer l’utilisation du MFA et restreindre les adresses IP autorisées.
Leçons pour les acteurs français et les exigences de conformité
Alignement avec l’ANSSI et ISO 27001
L’ANSSI, dans son Guide de sécurité des systèmes d’information critiques (2023), recommande la mise en place d’une politique de gestion des secrets incluant le chiffrement au repos (AES‐256) et en transit (TLS 1.3). L’ISO 27001, quant à elle, impose une évaluation des risques annuelle et la documentation des mesures de contrôle d’accès. Les entreprises françaises doivent donc intégrer ces standards dans leurs processus de développement IA.
Impact sur le RGPD et la souveraineté technologique
Le vol de données IA peut toucher des données à caractère personnel lorsqu’elles sont utilisées pour entraîner des modèles de langage. Le RGPD exige alors une notification à la CNIL sous 72 heures. De plus, la loi française sur la souveraineté numérique (2025) impose aux fournisseurs critiques de stocker les secrets industriels sur des serveurs situés en UE, limitant ainsi les transferts non autorisés vers des juridictions tierces.
Mise en œuvre – étapes actionnables
- Cartographier les actifs IA : identifier chaque serveur TPU/GPU, SmartNIC et dépôt de code contenant des secrets.
- Établir un registre des accès : implémenter des solutions d’authentification forte et de suivi des logs.
- Auditer les flux Cloud : vérifier que les comptes de service ne possèdent pas de permissions excessives.
- Former le personnel : organiser des ateliers mensuels sur la protection des secrets industriels.
- Simuler un incident : réaliser un exercice de réponse à un vol de données IA en suivant le cadre NIST CSF.
- Réviser les contrats : inclure des clauses de non‐divulgation et de conformité aux normes ANSSI/ISO 27001 avec les partenaires externes.
- Surveiller les menaces externes : s’abonner aux alertes de l’ENISA et du CERT‐FR pour détecter les campagnes d’espionnage ciblant les technologies IA.
Conclusion – prochaine action
L’affaire Linwei Ding montre que l’espionnage économique IA n’est plus une menace théorique, mais une réalité juridique et technique qui pèse sur chaque acteur du secteur. En adoptant les bonnes pratiques décrites – segmentation, MFA, audit continu et alignement avec les référentiels ANSSI et ISO 27001 – les entreprises françaises peuvent réduire significativement le risque de vol de leurs secrets IA. Agissez dès aujourd’hui : lancez un audit de vos actifs IA, renforcez votre politique d’accès et intégrez les exigences de souveraineté numérique afin de protéger votre avantage compétitif dans un paysage géopolitique de plus en plus hostile.