Navigateurs AI : une révolution technologique aux risques méconnus pour les entreprises
Célestine Rochefour
Selon une étude récente, 78% des professionnels de la sécurité informatique ignorent les dangers potentiels des navigateurs intelligents AI dans leur environnement professionnel. Les navigateurs AI représentent une avancée technologique majeure, mais ils sont « trop risqués pour une adoption généralisée par la plupart des organisations », avertit Gartner dans un récent avis à ses clients. Dans un contexte où l’innovation technologique se heurte aux impératifs de sécurité, comprendre ces risques devient une priorité stratégique pour toute entreprise soucieuse de protéger ses données sensibles.
Les risques majeurs des navigateurs AI pour les organisations
Les navigateurs intelligents AI introduisent des vulnérabilités inédites qui menacent directement la sécurité des entreprises. Le document de 13 pages rédigé par les analystes Gartner Dennis Xu, Evgeny Mirolyubov et John Watts met en lumière des préoccupations fondamentales concernant ces technologies émergentes. « La capacité des navigateurs AI à naviguer autonomement sur le web et à effectuer des transactions peut contourner les contrôles traditionnels et créer de nouveaux risques tels que les fuites de données sensibles, les transactions automatisées erronées et l’abus d’identifiants », soulignent les experts.
Fuites de données sensibles et exposition des informations
Les paramètres par défaut des navigateurs AI, qui privilégient l’expérience utilisateur, peuvent compromettre la sécurité. « Les données utilisateur sensibles — telles que le contenu web actif, l’historique de navigation et les onglets ouverts — sont souvent envoyées vers le backend cloud basé sur l’IA, augmentant le risque d’exposition des données à moins que les paramètres de sécurité et de confidentialité ne soient renforcés et gérés de manière centralisée et délibérée », expliquent les analystes.
Dans la pratique, cela signifie que toute information consultée par un utilisateur dans un navigateur AI pourrait potentiellement être transmise à des serveurs tiers, créant un risque significatif de fuite de données. Selon une étude menée par l’ANSSI en 2025, 64% des entreprises françaises ont déjà rapporté des incidents liés à l’exposition non intentionnelle de données sensibles via des outils basés sur l’IA.
Transactions automatisées erronées
Les navigateurs AI sont conçus pour effectuer des actions autonomes, ce qui présente un danger considérable dans un contexte professionnel. Des transactions incorrectes menées par des agents automatisés pourraient entraîner des pertes financières, des erreurs opérationnelles ou des violations contractuelles. « Les employés pourraient être tentés d’utiliser les navigateurs AI pour automatiser des tâches, ce qui pourrait entraîner des transactions automatisées erronées contre les ressources internes en raison du raisonnement inexact ou du contenu de sortie du LLM », préviennent les experts Gartner.
Vulnérabilités aux attaques d’injection
Les navigateurs intelligentes sont particulièrement exposés aux attaques par injection de commandes, une faille persistante dans les systèmes d’IA actuels. « Les fonctions de recherche et de résumé alimentées par LLM seront toujours susceptibles aux attaques d’injection de commandes indirectes, étant donné que les LLM actuels sont intrinsèquement vulnérables à ce type d’attaques », notent les analystes.
Les capacités “agent” des navigateurs AI : un danger distinct
La capacité transactionnelle des agents représente une innovation qui différencie les navigateurs AI des barres latérales conversationnelles traditionnelles et de l’automatisation basée sur des scripts. « C’est une nouvelle capacité qui distingue les navigateurs AI des barres latérales conversationnelles tierces et de l’automatisation de base basée sur des scripts de navigateur », précisent les experts de Gartner.
La différence avec les barres latérales classiques
Bien que les barres latérales AI intégrées présentent des risques, les analystes Gartner ont choisi de se concentrer sur les menaces plus graves posées par les capacités d’agent autonome. « Les chercheurs ont largement ignoré les risques posés par les barres latérales AI intégrées, notant que les fonctions de recherche et de résumé alimentées par LLM « seront toujours susceptibles aux attaques d’injection de commandes indirectes » », expliquent-ils. Toutefois, ils notent que l’utilisation de ces barres latérales pourrait également entraîner des fuites de données sensibles.
Leurs recherches se sont concentrées sur les risques introduits par les capacités d’agent et de transaction autonomes des navigateurs AI, qui pourraient créer de nouvelles menaces de sécurité telles que « les actions d’agent incontrôlées induites par injection de commandes indirectes, les actions d’agent erronées dues à un raisonnement inexact, et une perte et un abus supplémentaires d’identifiants si le navigateur AI est trompé pour naviguer automatiquement vers un site de phishing ».
Cas d’étude : Perplexity Comet et ChatGPT Atlas
Tous les navigateurs AI ne supportent pas les transactions d’agent, mais deux exemples notables le font : Perplexity Comet et ChatGPT Atlas d’OpenAI. « Les analystes ont effectué « un nombre limité de tests en utilisant Perplexity Comet », ce navigateur AI étant donc leur principal point d’attention, mais ils notent que « ChatGPT Atlas et autres navigateurs AI fonctionnent de manière similaire, et les considérations de cybersécurité sont également similaires ».
La documentation de Comet indique que le navigateur « peut traiter certaines données locales en utilisant les serveurs de Perplexity pour répondre à vos requêtes. Cela signifie que Comet lit le contexte de la page demandée (tel que le texte et les e-mails) afin d’accomplir la tâche demandée ». « Cela signifie que les données sensibles que l’utilisateur consulte sur Comet pourraient être envoyées au service cloud AI de Perplexity, créant un risque de fuite de données sensibles », soulignent les analystes.
Les utilisateurs sont susceptibles de consulter davantage de données sensibles dans un navigateur qu’ils ne le font généralement lors de la saisie d’une invite de GenAI, notent les experts. Même si un navigateur AI est approuvé, les utilisateurs doivent être formés pour comprendre que « tout ce qu’ils consultent pourrait potentiellement être envoyé au backend du service IA pour s’assurer qu’ils n’ont pas de données hautement sensibles actives dans l’onglet du navigateur tout en utilisant la barre latérale du navigateur AI pour résumer ou effectuer d’autres actions autonomes ».
Risques spécifiques aux fonctionnalités autonomes
Les navigateurs AI autonomes introduisent plusieurs risques spécifiques qui méritent une attention particul :
- Navigation vers des sites malveillants : Les agents automatisés peuvent être trompés pour visiter des sites de phishing ou d’hameçonnage, compromettant ainsi la sécurité des comptes et des données.
- Actions non autorisées : Une fois connecté à un compte, l’agent pourrait effectuer des transactions non autorisées ou modifier des paramètres importants.
- Persistance des données : Les interactions avec les navigateurs AI peuvent être enregistrées et utilisées pour former de nouveaux modèles, créant un risque de persistance des données sensibles.
Recommandations stratégiques pour les entreprises
Face à ces risques, les organisations doivent adopter une approche prudente et stratégique. « Gartner recommande fortement que les organisations bloquent tous les navigateurs AI pour un avenir prévisible en raison des risques de cybersécurité identifiés dans cette recherche, et d’autres risques potentiels qui restent à découvrir, étant donné que c’est une technologie très naissante », préviennent les experts.
Approche prudente selon le profil de risque
Les entreprises doivent adapter leur approche en fonction de leur tolérance au risque. « Les organisations avec faible tolérance au risque doivent bloquer les installations de navigateurs AI, tandis que celles avec une tolérance plus élevée peuvent expérimenter avec des cas d’utilisation d’automatisation à faible risque, en garantissant des garde-robustes et une exposition minimale aux données sensibles », suggèrent les analystes Gartner.
Mesures de protection immédiates
Pour protéger leurs environnements immédiatement, les entreprises devraient :
- Bloquer l’accès aux navigateurs AI : Utiliser des contrôles de sécurité réseau et de point de terminaux pour empêcher les employés d’accéder, de télécharger et d’installer des navigateurs AI.
- Surveiller les installations : Mettre en place des systèmes de détection et de réponse pour identifier toute tentative d’utilisation de navigateurs AI non autorisés.
- Former les utilisateurs : Sensibiliser les employés aux risques associés aux navigateurs AI et à l’importance de ne pas consulter de données sensibles lorsqu’ils utilisent ces outils.
Pilotage contrôlé des cas d’usage
Pour les entreprises souhaitant explorer les avantages potentiels des navigateurs AI dans un environnement contrôlé, les experts recommandent un pilotage très strict. « Pour les cas d’utilisation pilote, ils recommandent de désactiver le paramètre « rétention des données AI » de Comet afin que Perplexity ne puisse pas utiliser les recherches des employés pour améliorer leurs modèles d’IA. Les utilisateurs devraient également être instruits pour effectuer périodiquement la fonction « supprimer tous les souvenirs » dans Comet afin de minimiser le risque de fuite de données sensibles ».
Vers une adoption responsable des navigateurs AI
Bien que les risques soient significatifs, l’interdiction complète des navigateurs AI pourrait priver les entreprises d’innovations potentiellement bénéfiques. Une approche équilibrée, combinant vigilance et opportunité, semble être la voie la plus prometteuse.
Éducation des utilisateurs
La sensibilisation des utilisateurs constitue un élément fondamental de toute stratégie de gestion des risques liés aux navigateurs AI. Les employés doivent comprendre que tout ce qu’ils consultent dans un navigateur AI pourrait potentiellement être envoyé au backend du service IA. Cette prise de conscience est particulièrement cruciale dans les environnements où des données sensibles sont fréquemment manipulées.
En pratique, cela signifie développer des programmes de formation spécifiques qui couvrent :
- Les risques spécifiques associés aux navigateurs AI
- Les bonnes pratiques pour éviter l’exposition accidentelle de données
- Les procédures à suivre en cas de soupçon d’utilisation non autorisée
Évolution des technologies de sécurité
Les fournisseurs de navigateurs AI sont conscients des préoccupations de sécurité et travaillent sur des améliorations. Dans un avenir proche, nous pouvons nous attendre à voir émerger des fonctionnalités de sécurité améliorées, notamment :
- Des mécanismes de chiffrement renforcés pour les données transmises vers les backends cloud
- Des systèmes de détection et de prévention des actions non autorisées
- Des options de configuration granulaires permettant aux entreprises de contrôler précisément les fonctionnalités autorisées
Équilibre entre innovation et protection
Les entreprises doivent trouver un équilibre délicat entre l’innovation et la protection. Les navigateurs AI offrent des avantages potentiels considérables, notamment :
- Une recherche d’information plus intuitive et contextuelle
- Une automatisation des tâches répétitives
- Une analyse de contenu enrichie et personnalisée
Toutefois, ces avantages doivent être mis en balance avec les risques inhérents. Une approche progressive, commençant par des cas d’usage à très faible risque et s’étendant progressivement vers des applications plus complexes, semble être la plus judicieuse.
En conclusion, bien que les navigateurs AI représentent une avancée technologique fascinante, leur adoption généralisée dans les environnements professionnels présente des risques considérables qui ne peuvent être ignorés. Les entreprises doivent adopter une approche prudente, basée sur une compréhension approfondie des risques et des mesures de protection appropriées. Seules les organisations qui parviendront à équilibrer innovation et sécurité pourront bénéficier pleinement de cette technologie émergente sans compromettre la protection de leurs données sensibles.