Le rapport DataDome révèle une multiplication par quatre du trafic généré par les robots d’indexation et agents IA en 2025, représentant désormais plus de 10 % des requêtes, avec près de 1,7 milliard de requêtes d’agents OpenAI en août. Ces agents imitent parfaitement le comportement humain, contournent les Captchas et visent prioritairement formulaires, pages de connexion et flux de paiement, augmentant les risques de fraude et de prise de contrôle de comptes. La protection décroît: seulement 2,8 % des sites sont sécurisés (2 % parmi les très gros sites), avec d’importantes disparités sectorielles en France (bâtiment mieux protégé; santé et jeux vidéo très vulnérables). Il faut réviser les stratégies de défense pour concilier risques et opportunités de l’IA.
D’après le rapport Global Bot Security Report 2025 publié par DataDome, le volume de trafic généré par les robots d’indexation et les agents d’intelligence artificielle a été multiplié par quatre en 2025. Il constitue ainsi à présent plus de 10 % des requêtes sur le web. Cette explosion pose de sérieux défis de cybersécurité, car ces nouveaux agents imitent parfaitement le comportement humain et contournent les protections classiques.
Une explosion du trafic IA qui redéfinit le web
Les chiffres sont sans appel : en 2025, le trafic des robots d’indexation et des agents IA a quadruplé. Désormais, ils constituent plus de 10 % du total des requêtes sur le web. Cette avancée constitue une étape décisive dans l’histoire du développement d’Internet.
À titre d’illustration de cette tendance, il convient de noter que les robots d’OpenAI ont à eux seuls produit près de 1,7 milliard de requêtes au cours du seul mois d’août. Ces données démontrent que l’IA ne constitue plus une exception technologique. Elle se transforme, au contraire, en un composant essentiel du trafic internet contemporain.
Des IA de plus en plus sophistiquées
Le défi ne se restreint pas à la seule quantité de requêtes. Les nouveaux agents IA développent des capacités d’imitation particulièrement avancées. Ils imitent avec précision le comportement humain et produisent des navigateurs de manière instantanée.
Plus alarmant encore, ces agents réussissent à déjouer les Captchas conventionnels. Cette complexification accrue entraîne une inefficacité croissante des systèmes traditionnels de cyberdéfense. Par conséquent, les entreprises éprouvent des difficultés à différencier le trafic légitime des menaces potentielles.
Un degré de protection préoccupant
Il est paradoxal que, tandis que les menaces se multiplient, les dispositifs de protection se réduisent. L’étude met en évidence que seulement 2,8 % des sites examinés bénéficient actuellement d’une protection. Ce pourcentage représente une diminution notable comparativement aux 8,4 % enregistrés l’année précédente.
Même les plateformes les plus majeures demeurent susceptibles d’être vulnérables. Parmi les sites enregistrant plus de 30 millions de visites mensuelles, seuls 2 % disposent d’une sécurisation adéquate. Cette situation met en péril l’intégralité de l’écosystème numérique.
Des secteurs particulièrement vulnérables
L’analyse met en évidence que les bots IA privilégient en priorité les terminaux vulnérables. Ainsi, 64 % de ce trafic automatisé parviennent directement aux formulaires des sites web. Les pages de connexion constituent 23 % des destinations les plus fréquentées.
De manière plus préoccupante, 5 % du trafic contrôlé par l’IA sont orientés vers les flux de paiement. Cette focalisation sur les secteurs sensibles accroît de manière significative les risques de fraude. Elle accroît également les risques de prise de contrôle des comptes utilisateurs.
Des disparités sectorielles en France
La France affiche des degrés de protection particulièrement hétérogènes en fonction des secteurs d’activité. Le bâtiment se caractérise favorablement par une proportion de 23 % de sites intégralement protégés. Cette performance se distingue nettement de celle observée dans d’autres secteurs économiques.
À l’inverse, le domaine de la santé ainsi que celui des jeux vidéo présentent un retard particulièrement alarmant. Ces secteurs, bien que particulièrement vulnérables, paraissent minimiser les risques associés à l’essor fulgurant du trafic lié à l’IA. Cette situation requiert une prise de conscience immédiate.
Un enjeu qui transcende la cybersécurité
Selon Jérôme Segura, vice-président de la recherche chez DataDome, l’enjeu dépasse le cadre strict de la sécurité informatique. « Les entreprises se doivent d’acquérir la capacité de diriger simultanément ce double défi : se prémunir contre les menaces sophistiquées tout en tirant parti des opportunités engendrées par le trafic généré par l’IA », explique-t-il.
Cette mutation exige une réévaluation intégrale des stratégies de défense en vigueur. Les instruments conventionnels ne sauraient désormais suffire face à des agents aptes à estomper la distinction entre automatisation et interactions humaines. Internet inaugure une nouvelle ère dans laquelle l’IA constitue en même temps un vecteur d’innovation et une source de risques sans précédent.