Comment l’IA d’écriture d’exploits d’Anthropic peut rester hors de portée des cybercriminels
Le défi majeur : sécuriser une IA capable d’écrire des exploits En 2026, les organisations de sécurité sont confrontées à un paradoxe : les modèles d’IA comme Mythos d’Anthropic promettent de détecter et d’exploiter les vulnérabilités zero-day les plus critiques, mais la même puissance peut devenir une arme entre les mains de cybercriminels. Selon le rapport annuel de l’ENISA (2025), 27 % des entreprises ont signalé des tentatives d’abus d’IA pour automatiser des attaques, tandis que le CERT-FR indique que 12 % des incidents signalés en 2024 utilisaient des scripts générés par IA.
By Célestine Rochefour
lire plus