Elle n’était qu’un projet de recherche il y a 5 ans, mais l’IA générative est en train de complètement redéfinir les usages numériques. Si les chatbots nous offrent un accès alternatif aux informations et à la connaissance, les agents intelligents ambitionnent de bouleverser l’exploitation des contenus et services en ligne. Les solutions présentées par les BigTechs sont très impressionnantes d’un point de vue technique, mais perturbent fortement la monétisation des contenus et des audiences.

En synthèse :
- En à peine deux ans et demi, les chatbots se sont imposés comme les nouveaux outils du quotidien pour des centaines de millions d’internautes, faisant émerger de nouveaux acteurs comme ChatGPT ou Perplexity ;
- En standardisant la conception et le fonctionnement des agents intelligents, les géants numériques reprennent la main sur des usages émergents qui risquaient de menacer leur hégémonie ;
- L’agentisation du web est plus qu’un exploit technique, c’est un nouveau paradigme pour l’accès et l’exploitation des ressources numériques ;
- En s’imposant comme les nouveaux intermédiaires entre utilisateurs et éditeurs, les agents IA remettent en cause la monétisation de contenus et services en ligne grâce à la publicité ;
- S’ils vont se révéler très utiles dans les usages professionnels (applications en ligne, collaboration…), les agents intelligents risquent de déstabiliser l’équilibre de l’écosystème du web grand public (utilisateurs, éditeurs, annonceurs, prestataires…).
Cela fait 6 mois qu’on nous décrit les agents intelligents comme la nouvelle merveille numérique : Les agents intelligents sont-ils les nouveaux navigateurs web ? Mais jusqu’à preuve du contraire, nous n’avons rien vu de concret, du moins pour les utilisateurs lambda (cf. Web agentique : quand l’industrie de l’IA cherche sa nouvelle ‘Next Big Thing’).

Heureusement, les choses ont changé en quelques semaines avec différentes annonces majeures faites par les géants numériques :
- Plein de nouveautés chez Microsoft avec Copilot Memory, Copilot Actions, Copilot Shopping… (Your AI Companion) ;



De toutes ces annonces, la plus significative est indéniablement l’ajout d’un onglet « AI Mode » sur le moteur de recherche de Google, et ce pour TOUS les utilisateurs qui se voient ainsi imposer l’utilisation de Gemini. Le prolongement logique des AI Overviews, et surtout un signal fort que personne ne peut ignorer : The future of SEO as the future Google Search rolls out.

Mais le pire dans ces annonces est qu’elles ne sont qu’une étape vers un changement radical dans la façon d’accéder ou d’exploiter les contenus et services en ligne.
Nous avions déjà pu constater une première phase d’agentisation des applications en ligne, c’est-à-dire la mise à disposition d’un certain nombre d’agents intelligents pour les utilisateurs des solutions de Microsoft, Google, SalesForce, Adobe, ServiceNow, Hubspot… Les agents intelligents nous font rentrer dans l’ère de la GenAI-as-a-Service.

Ce à quoi nous avons assisté ces deux dernières semaines est le début de la course à l’agentisation du web grand public, c’est-à-dire la mise à disposition d’agents intelligents pour que les utilisateurs puissent déléguer leurs tâches du quotidien (prendre RDV chez le coiffeur, planifier un WE…).
Cette agentisation des contenus et services en ligne est rendue possible grâce à différents protocoles pour encadrer et sécuriser les actions réalisées par les agents :
Pour vous permettre de mieux comprendre l’intérêt et le fonctionnement de ces protocoles, ainsi que leur complémentarité, je vous propose les explications suivantes :
- MCP est un protocole ouvert développé par Anthropic pour standardiser et sécuriser la façon dont les IA peuvent interagir avec des ressources en ligne (authentification, gestion des permissions, traçabilité des actions…). Grâce à ce protocole, un agent peut accéder et maintenir un historique de contexte partagé lorsqu’il manipule plusieurs outils ou bases de données, ce qui améliore la pertinence et la cohérence des réponses. Le principal avantage est qu’au lieu que chaque développeur crée ses propres connexions (fastidieuses et fragiles), MCP offre un standard unique. C’est comme avoir un adaptateur universel pour brancher n’importe quel périphérique, l’équivalent d’un port USB pour les agents intelligents, mais qui garantit que ces agents opèrent de manière sûre, fiable et responsable.
- A2A est un standard ouvert proposé par Google pour permettre aux agents de communiquer et de coordonner leurs actions entre eux. Ce protocole facilite l’échange d’informations et la délégation de tâches entre des agents de différents éditeurs fonctionnant sur des serveurs séparés. A2A définit un langage commun pour la découverte mutuelle des capacités des agents et l’orchestration de processus de travail complexes sans intervention humaine. Pour faire simple : un moyen de faciliter la collaboration entre agents.
- NLWeb est un projet open source de Microsoft qui permet de transformer n’importe quel site web en interface conversationnelle exploitable par des utilisateurs ou des agents. Ce protocole permet aux éditeurs de créer une interface en langage naturel pour leurs sites web en exploitant des formats semi-structurés comme RSS et en les combinant avec des modèles génératifs. L’objectif étant de rendre un site web exploitable par des agents de manière autonome, leur permettant de collecter des informations, de remplir des formulaires, d’effectuer des achats… C’est en quelque sorte une interface de programmation (une API), mais construite de façon plus simple (en langage naturel). Microsoft présente NLWeb comme pouvant « jouer un rôle similaire à HTML pour le web agentique », transformant les sites web statiques en interfaces universelles.

J’ai tout à fait conscience que ces explications peuvent vous laisser sceptiques, mais croyez-moi sur parole : nous venons de franchir un nouveau cap de maturité, car grâce à ces nouveaux standards, les BigTechs sont en train de façonner une couche sémantique pour le web.
Ce qu’il y a de particulièrement intéressant est que ces protocoles ne sont pas concurrents, mais complémentaires. Microsoft intègre d’ailleurs MCP dans NLWeb, et a même adopté le standard A2A de Google. L’objectif est de faciliter l’émergence d’un écosystème d’agents interopérables capables d’exploiter de façon autonome toute l’immensité des contenus et services disponibles sur le web.
Un nouveau paradigme pour les contenus et services en ligne
De ces trois nouveaux protocoles, celui qui m’intrigue le plus est NLWeb. Vous noterez au passage que son créateur (Ramanathan V. Guha) est également à l’origine d’autres standards comme RSS, RDF ou Schema.org, donc pas n’importe qui… Les équipes de Microsoft ont visiblement de grandes ambitions pour ce protocole : Microsoft CTO Kevin Scott on how AI can save the web, not destroy it.
Précisons que NLWeb est un protocole standardisé pour pouvoir facilement greffer un chatbot sur un site web, un principe mis en lumière il y a quelques semaines par Adobe, mais avec des technologies propriétaires (GenUI : de la personnalisation aux concierges numériques).
J’insiste sur le fait que ce n’est pas juste un protocole technique de plus, comme il en existe des dizaines, mais une brique technologique essentielle pour pouvoir « agentiser » le web. Selon cette approche, les agents se positionnent comme de nouveaux intermédiaires entre les utilisateurs et les contenus / services en ligne.
Ce nouveau paradigme entraine nécessairement un repositionnement des grands acteurs :

La question que nous sommes maintenant en droit de nous poser est la suivante : les utilisateurs sont-ils prêts ? Visiblement oui, du moins en partie (L’IA générative : le nouvel assistant shopping des Français ?).
Ainsi, selon une étude réalisée par Havas Market, les chatbots inspirent ou aident à la découverte de produits pour 61 % des utilisateurs. Ils renforcent la confiance dans les choix pour 42 % d’entre eux et influencent directement la décision finale pour 17 %. De nouveaux comportements qui sont particulièrement marqués chez les 18-34 ans dont 40 % achètent directement le produit recommandé par un chatbot.

Face à ces nouvelles attentes, les acteurs historiques du web ne pouvaient pas rester passifs. Les annonces de ses dernières semaines, fruits d’intenses travaux de R&D, sont donc un sursaut salutaire pour des géants numériques qui étaient dans leur zone de confort, mais qui ont dû réagir en urgence face aux velléités des startups américaines et chinoises :

Ces startups sont à l’avant-garde de l’IA générative, mais les BigTechs ont un avantage indéniable, une forme de concurrence asymétrique : Google has a big AI advantage: it already knows everything about you (valable aussi pour Microsoft et Amazon : Comment les Big Techs vont s’accaparer le marché de l’IA).
Ne vous bercez pas d’illusions, cette agentisation du web ne correspond pas à une volonté de simplifier la vie des internautes, mais plutôt un moyen pour les Big Techs de verrouiller le marché en contrôlant l’offre (les contenus et services) et la demande (les utilisateurs).

Bien évidemment, Microsoft, Google et Amazon ne sont pas les seuls en lices dans cette course à l’agentisation, car d’autres acteurs affichent des velléités, mais sont soit en retard (Apple), soit pas assez agressifs (Meta), soit manquent d’envergure (Hugging Face releases a free Operator-like agentic AI tool).
Ce qui est certain, c’est que les choses sont en train de bouger très vite, avec des briques technologiques bien réelles et des fonctionnalités très concrètes, mais malheureusement pas disponibles en Europe à cause de la régulation. Plutôt que de voir le verre à moitié vide (la régulation freine l’innovation), je préfère voir le verre à moitié plein (laissons les américains défricher et essuyer les plâtres, ça nous laisse le temps de nous préparer à tous ces changements).
Pour conclure cet article, il nous faut encore aborder le sujet qui fâche : l’argent.
Je pense ne rien vous apprendre en écrivant que le web a été financé par la publicité. C’est grâce aux bannières, résultats et messages sponsorisés, interstitiels et cie que vous avez accès à une infinité de contenus et services gratuits. De façon plus générale, c’est parce que le web offre une très large surface d’exposition, génératrice de revenus annexes, que les contenus sont gratuits, dont ce blog que je rédige depuis 22 ans maintenant (cf. The Advertising Business Model In A Nutshell).

Mais à partir du moment où ce ne sont plus des utilisateurs (cibles ou clients potentiels), mais des agents qui consultent les sites pour en exploiter les contenus et services, le contrat tacite exposition = contenus / services gratuits est rompu. puisque les utilisateurs ne sont plus exposés aux publicités, et ne sont même plus conscients de qui a produit les contenus et dans quel but… Je vous recommande à ce sujet cette analyse : The Agentic Web and Original Sin.
Les agents transactionnels vont changer beaucoup de choses dans les habitudes et comportements des acheteurs, mais ne remettent pas en question le modèle économique (car s’il y a intermédiation, il y a versement d’une commission). Google tente ainsi de rassurer les annonceurs avec des résultats sponsorisés intégrés dans les AI Overviews (More opportunities for your business on Google Search).

OK très bien, mais je doute que les éditeurs y trouvent leur compte, car avec les agents informationnels, il n’y a plus d’exposition, donc plus de revenus directs ou indirects. Ce qui remet en cause le modèle économique fondateur du web : la monétisation des contenus via la publicité.
Si le web est tel qu’il est aujourd’hui, c’est parce qu’avec des utilisateurs humains, nous sommes dans un schéma win / win / win où :
- les utilisateurs bénéficient de contenus gratuits ;
- les annonceurs ont accès à des emplacements publicitaires offrant à la fois volume et précision ;
- les éditeurs ont à leur disposition différents leviers de monétisation (CPM, CPC…).
En voulant agentiser le web, les BigTechs mettent en péril cet équilibre en apportant une solution qui est techniquement viable, mais pas du tout d’un point de vue économique : Google Is Burying the Web Alive. Dans cet article, c’est Google qui est mis en cause par l’auteur, mais il faudrait plutôt cibler Microsoft, car ce sont leurs équipes qui ont mis au point NLWeb. Charge à eux de trouver un nouveau modèle win / win / win pour financer les contenus et services.
Certains mettent en avant la possibilité d’utiliser la blockchain et les cryptomonnaies pour « rebattre les cartes » et envisager un marché plus sain où tout le monde gagne. J’y vois surtout une tentative désespérée de refourguer des technologies immatures qui ne feraient que compliquer encore plus le problème de monétisation des contenus à travers des agents intelligents.
Y-a-til un pilote (automatique) dans l’avion ?
Tout ceci me conforte dans l’impression que tous les acteurs du numérique sont lancés dans une course qui ressemble de plus en plus à une fuite en avant où l’IA nous est présentée comme LA solution à des problèmes qui n’existent pas réellement, mais qui risque de perturber l’équilibre d’un écosystème complexe d’éditeurs, annonceurs et utilisateurs.
Dans un scénario ultra-optimiste, cet agentisation permettrait justement d’assainir le web en le purgeant de tous les contenus générés par l’IA qui vont petit petit le polluer, pour ne laisser que des publications de qualité qui seraient monétisées par de l’abonnement. Donc plutôt une bonne chose pour les éditeurs qui pourraient se concentrer sur une audience captive d’abonnés. Idem pour les e-commerçants dont le trafic entrant serait fortement réduit, mais qui pourraient ainsi se concentrer sur les acheteurs à fort potentiel, les super intentionnistes.
Dans un scénario pessimiste…
…
…
…
Bon en fait je ne préfère pas aborder ce scénario, car il me déprime.
Au final, nous nous retrouvons dans une situation compliquée, car les grands acteurs du numérique (promoteurs historiques et startups) embarquent de force les utilisateurs, éditeurs et annonceurs du web dans une vaste refonte des usages et pratiques qu’aucun n’a réellement demandé ! Tout ce qu’ils vont y gagner est d’être encore plus dépendants de géants numériques qui ont déjà quasiment tous les pouvoirs.
Je sais bien que rien n’arrête le progrès, mais en quoi l’agentisation du web est-elle un progrès ? Ou du moins pour qui ? Voilà des réflexions qu’il nous faut impérativement mener avant de nous lancer dans un processus de transformation qui va détruire plus de valeur qu’il ne va en créer.
Tout bien réfléchit, ce n’est peut-être pas une si mauvaise chose que le régulateur européen cherche à calmer le jeu en encadrant l’utilisation des nouveaux usages liés à l’IA générative…
Questions / Réponses
Qu’est-ce que l’agentisation du web ?
L’agentisation du web désigne l’émergence d’agents intelligents capables d’agir à la place des utilisateurs sur internet. Ces agents, propulsés par des modèles génératifs, peuvent naviguer entre les pages, remplir des formulaires, planifier des tâches, ou acheter des produits. Ils transforment ainsi l’accès aux contenus et services en ligne en automatisant les interactions, un peu comme des assistants personnels numériques qui opèrent en toute autonomie.
Pourquoi les grands acteurs du numérique misent-ils autant sur ces agents intelligents ?
Les Big Techs (Microsoft, Google, Amazon…) voient dans l’agentisation une façon de reprendre le contrôle sur les usages numériques et d’anticiper la montée en puissance des startups de l’IA. En créant des standards techniques (comme MCP, A2A, NLWeb), elles construisent un écosystème d’agents interopérables capable de redéfinir la navigation web et la relation aux services en ligne. C’est aussi pour elles une réponse stratégique à une perte progressive de maîtrise sur la chaîne de valeur numérique.
En quoi ces nouveaux protocoles sont-ils importants ?
Les protocoles comme MCP (standardisation et sécurité des accès), A2A (communication entre agents) ou NLWeb (interface conversationnelle pour les sites web) permettent aux agents d’interagir de manière fiable, coordonnée et autonome avec les ressources du web. Ils constituent les fondations techniques d’un web agentique, au même titre que HTML l’a été pour le web classique. Leur complémentarité vise à bâtir une nouvelle couche sémantique sur internet, rendant les sites accessibles non plus par des humains, mais par des agents.
Quel impact cette transformation pourrait-elle avoir sur les éditeurs et les annonceurs ?
L’un des enjeux majeurs est la remise en question du modèle économique du web, reposant historiquement sur la publicité. Si des agents intelligents accèdent aux contenus sans afficher les publicités ni exposer l’utilisateur aux messages sponsorisés, alors les éditeurs perdent leur principale source de revenus. Cela rompt le contrat implicite « exposition publicitaire = accès gratuit », menaçant l’équilibre entre utilisateurs, éditeurs et annonceurs.
Quels sont les risques d’un web piloté par des agents ?
Au-delà de la prouesse technique, l’agentisation pourrait renforcer la dépendance des utilisateurs et des professionnels aux plateformes dominantes. Ce changement de paradigme soulève des questions sur la neutralité de l’accès à l’information, la visibilité des producteurs de contenu, et la concentration des revenus. Sans régulation adaptée, ce nouveau modèle risque de réduire la diversité des acteurs du web au profit de quelques géants maîtrisant à la fois l’offre, la demande et les canaux d’intermédiation.