Jusqu’à présent, le web reposait sur un équilibre tacite où les sites publient des contenus librement accessibles, tandis que les moteurs et plateformes qui les indexent renvoient du trafic en échange.
Mais comme cela a déjà été le cas avec l’AI Mode, ce fonctionnement historique pourrait être bientôt obsolète, et pourrait même redéfinir la manière dont les internautes accèdent à l’information… et dont les contenus sont exploités.
Cloudflare met en lumière un déséquilibre inédit
Des chiffres qui impressionnent… et inquiètent – Source : Business Insider
Une étude récente menée par Cloudflare, révélée par Business Insider, apporte un éclairage chiffré sur ce phénomène. Depuis 2025, Cloudflare analyse le comportement des robots d’exploration des IA, en comparant le volume de pages « crawlées » au nombre réel de visites redirigées vers les sites sources.
Ce ratio, baptisé « crawl-to-refer« , permet de mesurer ce que les plateformes prélèvent sur le web… et ce qu’elles restituent.
Et les résultats sont sans appel. Anthropic affiche un ratio vertigineux avec environ 65 000 requêtes d’exploration pour une seule visite générée. OpenAI suit, avec un ratio d’environ 1 400 pour 1. À l’opposé, Google reste à un niveau bien plus bas, autour de 5 pour 1, sans doute grâce à son moteur de recherche.
Des coûts bien réels pour les éditeurs de sites
Ce déséquilibre n’est pas qu’une question théorique ou éthique, car les robots d’IA consomment des ressources techniques comme la bande passante, les serveurs, ou le cloud computing.
Dans son analyse, Business Insider rapporte que certains éditeurs ont vu leurs coûts d’hébergement doubler en quelques mois, uniquement à cause de cette activité automatisée. Une charge financière supplémentaire, sans contrepartie directe en trafic ou en revenus publicitaires.
Dans le même temps, les usages évoluent. Les internautes se contentent de plus en plus des réponses fournies par les chatbots, même lorsque des sources sont citées. Le clic vers le site d’origine devient alors optionnel, voire inutile, ce qui fragilise l’économie de nombreux médias et créateurs de contenus.
Google, une exception… encore temporaire ?
Dans ce tableau contrasté, Google apparaît comme un élève à part. Son faible ratio s’explique par la persistance d’une recherche « classique », basée sur des liens cliquables.
Toutefois, cette situation pourrait évoluer, notamment avec l’intégration progressive de réponses générées par l’IA, que ce soit via AI Overviews ou l’AI Mode, qui interrogent sur la capacité du moteur à maintenir ce flux de trafic vers les sites web.
Derrière ces statistiques, une question demeure : comment préserver un web viable à l’ère des IA génératives, alors que la valeur circule de plus en plus à sens unique ?
