L’IA est partout dans les discours, mais presque nulle part dans les pratiques professionnelles réelles. Je vous propose de comprendre pourquoi cette adoption stagne malgré des progrès technologiques indéniables, et surtout comment en sortir. La réponse ne viendra pas de meilleurs modèles, mais d’un changement de discours : adopter des appellations commerciales simples et rassurantes, à l’image de ce que la 5G a réussi à faire pour les télécommunications. C’est tout l’enjeu du Web4 et de l’Entreprise4 que je vous propose d’explorer ici : deux concepts qui désignent une nouvelle étape de maturité des uages numériques, pour les internautes comme pour les salariés.

En synthèse :
- L’adoption de l’IA stagne, non par manque de progrès technologiques, mais par manque de pédagogie. Les éditeurs ont adopté un discours anxiogène (« vous serez remplacé ») qui a généré un rejet naturel chez les utilisateurs, rendant contre-productifs leurs efforts de déploiement.
- Le problème central n’est pas technique, mais sémantique. Tout comme la 5G a simplifié des réalités complexes en un terme commercial accrocheur, il faut de nouveaux raccourcis cognitifs pour rendre l’IA générative et les agents intelligents accessibles aux utilisateurs lambda.
- Le Web4 désigne une quatrième ère des usages numériques fondée sur l’action. Après le « Read » (Web 1.0), le « Write » (Web 2.0) et le « Join » (Web3), les agents intelligents permettent désormais aux utilisateurs de déléguer des tâches et de faire « agir » le web à leur place (« Act« ).
- L’Entreprise4 constitue un nouveau paradigme aussi significative que l’Entreprise 2.0 en son temps. Face à la dispersion des outils dopés à l’IA, il devient impératif de repenser les environnements de travail en intégrant l’IA non comme une couche supplémentaire, mais comme une composante fondamentale de l’architecture des outils.
- La clé de l’adoption réside dans les agents préconfigurés (skills et plugins). Ces agents prêts à l’emploi permettent aux salariés de bénéficier des capacités agentiques sans maîtriser le prompting, contournant ainsi la principale barrière à l’adoption.
Avec l’avènement de l’IA, de nouveaux termes apparaissent pour exprimer les anxiétés du moment : le FOMO (« Fear of Missing Out« ) a laissé place au FOBO, pour « Fear of Becoming Obsolete » ; tandis que le TL;DR (« Too Long; Didn’t Read« ) s’est transformé en AI;DR pour « Artificial Intelligence; Didn’t Read« .
En découvrant ces nouveaux acronymes, vous pouvez soit voir le verre à moitié plein et penser que l’IA rentre dans le vocabulaire courant, donc dans les usages courants ; soit voir le verre à moitié vide et constater que vous n’avez jamais entendu ces termes. Très honnêtement, je pense que nous sommes largement plus proches du verre à moitié vide, voire d’un verre vide avec 2 ou 3 gouttes dedans que l’on nous exhibe comme une preuve formelle d’un raz-de-marée à venir.
En effet, nombreux sont les techno-prophètes sur YouTube ou LinkedIn qui vous promettent de gagner 5 h par jour grâce à l’IA, des promesses auxquelles plus personne ne croit. Pour paraphraser Robert Solow qui écrivait en 1987 « You can see the computer age everywhere but in the productivity statistics« , on pourrait dire aujourd’hui : « L’IA est omniprésente, sauf dans les entreprises« .

Une réalité difficile à accepter, car la pression sociale est toujours très forte, et car aucune entreprise ne veut admettre son retard en la matière (cf. Cols blancs et IA générative : entre promesses d’augmentation et risques de substitution).
Le problème n’est pas les entreprises ou les salariés, mais les éditeurs et promoteurs de l’IA qui, dans leur empressement à monétiser une technologie très coûteuse, font fausse route. Leurs efforts sont contre-productifs : l’adoption de l’IA générative stagne alors que les progrès sont pourtant très fréquents (cf. Une accélération exponentielle de l’IA grâce aux agents intelligents).
Il est temps de prendre du recul et de chercher un autre moyen de stimuler l’adoption.
Plus d’IA ne facilitera pas l’adoption de l’IA
Je suis actif sur le sujet de l’IA depuis presque 10 ans, et je constate qu’il y a un thème récurrent : Pour ou contre l’IA ? Un débat sans fin très bien décrit dans The Six Loops et décortiqué par mon ancien patron et mentor Reza : IA en 2026 : sortir des débats stériles pour une innovation pragmatique.
Scaman identifie six postures récurrentes, trois évangélistes, trois sceptiques, qui s’alimentent mutuellement et nous enferment dans un dialogue de sourds.
Côté évangélistes :
- Le hype : « L’AGI est pour demain, la singularité approche ».
- L’efficacité : « Plus de contenu, plus vite, moins cher ».
- La tactique : « Les 10 prompts qui vont transformer votre vie ».
Côté sceptiques :
- La peur : « Adaptez-vous ou mourez ».
- L’exceptionnalisme : « L’IA n’a pas d’âme ».
- La minimisation : « L’IA n’est qu’un outil ».
Ces six boucles partagent un point commun : elles évitent toutes la question centrale. Sortir de l’impasse exige d’entrer dans ce que Scaman appelle la Terra Nova : un territoire où l’on cesse de débattre du remplacement ou du refus pour expérimenter ce que l’IA permet de nouveau.
Effectivement, je ne peux qu’approuver : il nous faut impérativement sortir de ce débat stérile pour avancer dans l’adoption de l’IA et entamer la révolution agentique. Ce débat est en réalité symptomatique d’un problème plus profond : nous continuons à poser la mauvaise question. Ce n’est pas « L’IA est-elle bonne ou mauvaise ? » qui devrait nous occuper, mais « Comment l’IA peut-elle s’intégrer utilement dans le quotidien professionnel sans générer de nuisances ? » Ce changement de prisme est indispensable pour progresser.
L’impasse est réelle. Depuis l’irruption de ChatGPT fin 2022, les organisations ont multiplié les chartes d’usage, les formations accélérées, les expérimentations en silos, les PoC sans suite et les annonces de déploiements à grande échelle rarement concrétisés. Résultat : beaucoup de bruit, mais peu d’effets mesurables sur la productivité collective. Nous sommes encore dans l’équivalent de 1995 pour l’internet, quand la grande majorité des décideurs ne voyaient pas en quoi le « réseau des réseaux » allait transformer leur activité. Sauf que le rythme d’innovation s’est considérablement accéléré, ce qui laisse encore moins de temps pour tergiverser.
Dernier exemple en date : la sortie de GPT 5.4, la nouvelle version du modèle de référence de ChatGPT et ses remarquables capacités agentiques : Introducing GPT‑5.4.

Avec une sortie majeure toutes les semaines, autant dire que ce rythme est impossible à suivre pour les entreprises. Mais comme l’a si bien dit Galilée pendant son procès : « Et pourtant elle tourne« .
L’IA est là pour durer, et non, ce n’est pas une fatalité
C’est devenu comme un rituel ces derniers temps, toutes les semaines sortent de nouvelles études sur l’impact de l’IA. Cette semaine, c’est au tour de la Réserve Fédérale du Texas de nous démontrer qu’il n’y a pour le moment aucun impact significatif sur l’emploi : AI is simultaneously aiding and replacing workers, wage data suggest.

Et ça ne concerne pas que les États-Unis, puisqu’une autre étude réalisée en 2025 auprès de 5.000 entreprises européennes par la BCE conclut à son tour : « Dans l’ensemble, en termes de création et de destruction d’emplois, nous ne trouvons aucune différence significative entre les entreprises qui déclarent utiliser l’IA et celles qui ne l’utilisent pas » (cf. Artificial Intelligence: friend or foe for hiring in Europe today?).

Voilà des statistiques qui devraient calmer les esprits les plus anxieux, mais qui a toutes les chances d’être ignorée, noyées dans le flux incessant de signaux contradictoires, à l’image de cette autre étude de l’éditeur de Claude qui nous démontre que, si l’impact de l’IA est très faible sur les emplois, c’est parce qu’elle est sous-exploitée : Labor market impacts of AI: A new measure and early evidence.

À ce stade, une étude de plus ou de moins ne fera pas la différence, car les raisons de la défiance des salariés envers l’IA sont irrationnelles. Inutile donc de leur opposer des arguments rationnels : ce n’est pas comme ça que fonctionne Homo Sapiens.
Pourtant, je n’ai de cesse de vous répéter que les progrès sont bien réels, aussi bien en performances qu’en consommation énergétique, avec notamment une série des petits modèles ultra-optimisés :

Et des capacités toujours plus impressionnantes pour les modèles « Frontier » (dans le sens : « à la frontière du possible) » : GPT-5.4 reportedly brings a million-token context window and an extreme reasoning mode.

Très bien, mais quel intérêt sachant que la très large majorité des utilisateurs font de simples recherches dans ChatGPT comme ils le feraient dans Google ? Vous serez ainsi surpris d’apprendre (ou pas) que les questions posées à ChatGPT font en moyenne 12 mots : ChatGPT fan-outs have doubled in length in 4 months.
Ne vous voilez pas la face : l’apprentissage du prompting est une étape quasi-infranchissable pour les utilisateurs lambda. Ce qui est certain, c’est que la surenchère technologique des éditeurs ne répond pas à la question principale : comment faire monter en compétences des utilisateurs qui ne se sentent pas concernés, voire qui résistent activement ?
Les utilisateurs potentiels ne savent pas qu’ils ne savent pas
Le principal problème de l’IA est qu’elle a mauvaise réputation. Et cette mauvaise réputation est en partie la conséquence directe des discours alarmistes qui ont accompagné son déploiement. Déjà il y a dix ans, à l’époque du machine learning, on nous parlait déjà de « replacer l’humain au centre » et de « valoriser l’empathie« . Une belle hypocrisie dans un environnement professionnel qui ne repose que sur les applications informatiques et les processus. Ces discours empathiques masquaient en réalité une crainte diffuse de la substitution, que personne n’osait nommer franchement.
Mais dans la mesure où les éditeurs ont décidé d’imposer l’IA de force, avec des discours anxiogènes du type « Vous allez être remplacé par une IA ou par quelqu’un qui utilise l’IA« , il y a eu un phénomène naturel de rejet de la part des utilisateurs potentiels. Un mécanisme de protection guidé par le cerveau reptilien, un réflexe de survie parfaitement compréhensible face à une menace perçue comme existentielle.

Je vous rappelle qu’il a fallu dix ans pour que la moitié de la population soit équipée en smartphones, alors que les bénéfices étaient évidents et que tout le monde en voulait un. Combien de temps va-t-il falloir à l’IA pour qu’elle soit adoptée par la moitié des salariés dans le climat de défiance actuel ? (cf. Des limites de la capacité d’absorption du marché avec l’IA)
Comme j’ai déjà eu l’occasion de vous l’expliquer, l’IA générative n’est utilisée à son plein potentiel que par une infime minorité de la population (autour de 0,1%). Cette réalité est très bien expliquée dans cet article : The 0.04%.

La grande question est donc : comment faire pour augmenter la part des salariés capables d’opérer la révolution agentique et de manier des agents intelligents ? En changeant de discours, tout simplement : Le web agentique engendre toujours plus de peurs et d’incompréhensions.
Ne pensez pas que les enjeux sont uniquement financiers (rembourser les dépenses d’infrastructure), car la situation se complique du côté de l’éducation, notamment pour les lycéens et étudiants qui ne se méfient pas suffisamment d’un usage mal appréhendé. Le dernier rapport de l’OCDE nous confirme ainsi que l’utilisation de l’IA générative nuit à la qualité de l’apprentissage : « Successfully performing a task with GenAI does not automatically lead to learning » (OECD Digital Education Outlook 2026).

Vous pourriez me dire que cette statistique ne concerne que les lycéens d’un seul pays (la Turquie) et sur une période où l’on découvrait seulement l’IA (2023-2024), mais combien de jeunes ont un usage « raisonnable » de l’IA (pas uniquement pour obtenir les réponses ux questions / problèmes ou rédige les devoirs) ?
Depuis, les lycéens et étudiants ont accès à des outils bien mieux conçus, notamment les modes « Study & Learn » que l’on retrouve chez ChatGPT, Gemini, Claude… et qui apportent des résultats bien plus intéressants (New tools for understanding AI and learning outcomes), mais encore faut-il connaitre leur existence et avoir la volonté / discipline pour els activer.
D’où la nécessité de changer d’approche pour (ré)expliquer ce qu’est l’IA, ce que l’on peut faire avec les modèles génératifs, et l’enjeu de l’agentisation du web. L’urgence n’est pas d’améliorer les modèles, mais de mieux marketer l’IA, de la repackager pour la « vendre » de façon plus efficace aux utilisateurs potentiels.
Et ceci passe par une acculturation profonde, qui commence au commencement.
Une quatrième ère pour l’outil informatique
Je ne vais pas réécrire l’histoire, mais pour simplifier une longue et laborieuse explication, disons que le domaine de l’informatique a connu trois grandes périodes et qu’il est en train d’entrer dans une quatrième.

La première ère est celle des grands systèmes dans les années 1960-80 avec leurs scripts et batchs. Ces systèmes conçus par IBM exploitaient des logiciels avec une approche procédurale : des instructions, développées par des informaticiens, qui sont exécutées les unes à la suite des autres. Ces systèmes ont très bien fonctionné, et fonctionnent encore dans certaines banques, mais ils étaient limités par nature, car les informaticiens devaient anticiper et coder tous les cas de figure à l’avance. Ces systèmes étaient donc réservés aux grandes entreprises disposant de ressources importantes (trop de lignes de code pour des systèmes qui deviennent rapidement très couteux à maintenir).
Au bout de vingt ans, plus de scripts ou de batchs ne faisant plus la différence, les entreprises ont commencé à chercher des outils informatiques plus riches d’un point de vue fonctionnel.
La deuxième ère est celle des PC dans les années 1980-2000 avec tous leurs logiciels installés sur des ordinateurs individuels. Une démocratisation de l’outil informatique qui a fait la fortune de Microsoft et qui a donné naissance à une industrie florissante d’éditeurs de logiciels avec une approche fonctionnelle : l’objectif était de proposer toujours plus de fonctionnalités pour pouvoir vendre des licences à un coût toujours plus élevé. Le problème est que cela a également engendré une saturation du marché avec des logiciels très puissants, que nous utilisons encore, mais qui sont devenus petit à petit extrêmement lourds et complexes (Office en est l’exemple canonique), dont certains demandent des années d’apprentissage avant de les maîtriser (Photoshop, par exemple), et avec des formats propriétaires. Il en résulte une incapacité à les faire fonctionner ensemble, d’où une perte de temps à convertir ou opérer à la main l’échange d’informations ou données (import / export).
Au bout de vingt ans, plus de logiciels ou de fonctionnalités ne faisant plus la différence, les entreprises ont cherché des outils informatiques plus souples d’un point de vue technique.
La troisième ère est celle du cloud computing dans les années 2000-2020 et des applications en ligne. Une véritable révolution pour les DSI, qui ont pu s’affranchir des contraintes de déploiement et de mise à jour des logiciels, car tous les traitements sont centralisés dans des data centers (cf. Définition et usages du cloud computing publié en 2011). Une logique de ressources à distance qui a fait la fortune d’Amazon ou de Salesforce dans les années 2000-2020, et qui a lancé une nouvelle dynamique avec le marché du SaaS (« Software-as-a-Service« ). L’objectif des éditeurs n’était plus de faire rentrer un maximum de fonctionnalités dans un logiciel, mais de proposer un ensemble de services en ligne avec un modèle économique reposant sur l’abonnement ou l’utilisation (via des APIs). C’est ce principe que l’on retrouve chez les éditeurs historiques ayant réussi la bascule, notamment Microsoft et Adobe dont l’essentiel des revenus reposent maintenant sur MS 365 et Creative Cloud. Le problème est que la prolifération d’offres en ligne pour couvrir tous les besoins possibles et imaginables a engendré un morcellement des systèmes d’information (les DSI se concentrant sur l’intégration de solutions tierces) et un éparpillement des données hébergées sur les clouds des différents éditeurs.
Au bout de vingt ans, les entreprises sont maintenant à la recherche d’outils informatiques toujours plus riches et souples, mais aussi plus modulaires.
La quatrième ère est celle de l’IA, relancée par les modèles génératifs et les agents intelligents. Là encore, une nouvelle révolution avec un nouveau paradigme : celui de la délégation et de l’orchestration. Il n’est plus ici question pour les utilisateurs de chercher une fonctionnalité dans un menu ou d’assimiler le fonctionnement d’une interface, mais d’exprimer un besoin, et de laisser l’IA le comprendre (grâce aux modèles de langage), de le décortiquer en tâches (grâce aux modèles de raisonnement) et d’en confier l’exécution à des agents (grâce aux modèles d’action).
Comme détaillé dans mes précédents articles, les modèles génératifs progressent, avec des capacités linguistiques toujours plus puissantes (compréhension), des mémoires contextuelles toujours plus grandes (prise en compte du contexte) et de la multimodalité (compréhension orale, visuelle…). De plus, les agents intelligents peuvent s’appuyer sur des modèles de raisonnement et d’action qui leur permettent de décomposer un besoin en tâches et sous-tâches, puis de planifier leur exécution et leur contrôle.

Nous parlons bien ici d’une approche agentique de l’IA, pas seulement de poser des questions à un chatbot et d’attendre une réponse. Mais pour que ça fonctionne, pour que les utilisateurs en tirent des gains de productivité, il y a un réel besoin de savoir correctement exprimer son besoin (délégation) et d’en surveiller la réalisation (orchestration) : Des Digital Workplaces aux Agentic Workplaces.
En un peu plus de trois ans, les progrès des modèles sont spectaculaires, mais les dirigeants et managers (les vrais décideurs) ne savent pas qu’ils ne savent pas. Ils n’ont pas conscience de ces progrès ni des capacités des modèles de dernière génération, victimes du brouhaha médiatique et de ses signaux contradictoires : La fracture numérique est un problème que personne ne peut ignorer.
Voilà pourquoi il faut changer de discours : pour s’extraire de cette impasse lexicale (IA = danger) afin de relancer l’intérêt grâce à des discours plus simples à assimiler et à accepter.
« 5G » est plus facile à vendre que « Network Slicing »
Notre cerveau est exposé à d’innombrables stimuli à longueur de journée. Pour pouvoir prendre des décisions, celui-ci cherche des raccourcis cognitifs, sinon nous serions paralysés face à chaque nouveau choix.
Voilà pourquoi la numération est une technique éditoriale toujours aussi efficace : il offre un raccourci simple à traiter (« 10 astuces pour… »). Ainsi, personne ne remet en cause le fait que l’iPhone 17 est mieux que l’iPhone 16, ou que la PS5 est mieux que la PS4. Il se trouve que ces produits sont conçus et fabriqués par des sociétés qui ont su gagner la confiance des consommateurs, et que les composants électroniques utilisés apportent effectivement plus de puissance et de confort d’utilisation. Mais en règle générale, l’incrémentation suffit à convaincre les consommateurs sans leur imposer la compréhension des techniques d’une nouvelle offre.
Pour ce qui est des services numériques, c’est un peu plus compliqué, car ils reposent sur de nombreuses technologies sous-jacentes. Voilà pourquoi l’industrie des télécommunications a opté pour des appellations commerciales : 3G, 4G, 5G…

Ces appellations permettent de simplifier un discours technique truffé de termes barbares comme « IMT-2020 », « MU-MIMO » ou « Full duplex » (cf. Enjeux et usages de la 5G publié en 2017) et d’aligner les discours des différents fournisseurs, notamment à travers le 3GPP (3rd Generation Partnership Project) qui définit le calendrier de déploiement des équipements (nous sommes au début de la 20ème phase).
L’analogie est frappante : personne ne connaît les réelles différences techniques entre la 4G et la 5G, et pourtant tout le monde sait que la 5G est « mieux » et « plus rapide ». Ce consensus n’est pas le fruit du hasard, mais d’une communication rodée, fondée sur l’incrément. Cette tactique est d’autant plus efficace qu’elle s’applique à des technologies qui semblent complexes et lointaines, mais dont les bénéfices concrets sont facilement perceptibles.
Dans la mesure où l’IA générative et les agents intelligents représentent un nouveau paradigme des services numériques, je milite pour un nouveau discours reposant sur des appellations commerciales incrémentales. « IA », « modèles génératifs », « agents intelligents » sont des termes qui désignent des briques technologiques, pas des usages. Rien de palpable, au même titre que « cloud computing » qui reste une notion vague pour bon nombre d’utilisateurs, même vingt ans après son irruption dans le vocabulaire professionnel.
Il est donc nécessaire de s’appuyer sur des termes déjà assimilés, comme ça a été le cas avec le Web 2.0 et l’Entreprise 2.0, ainsi que le Web3. Des appellations imparfaites, certes, mais opérantes. Des raccourcis sémantiques / cognitifs qui ont permis de simplifier des argumentaires, d’aligner des discours et de stimuler l’adoption.
Une quatrième ère pour les services numériques
Voilà trois ans que ChatGPT est accessible au grand public, une période relativement courte à l’échelle du web, mais un fer de lance porteur d’espoirs pour des éditeurs qui espèrent trouver un nouveau souffle. Le problème est que ce n’est pas eux qui décident du rythme d’adoption. Ils ont beau forcer, le point de saturation est largement atteint.
Officiellement, les statistiques d’adoption sont très encourageantes : voir à ce sujet les statistiques du Forum Économique Mondial (These 3 charts show how AI is affecting wages, job quality and hiring decisions) ou de Ramp (AI Index Overall Adoption Rate).

Mais dans les faits, les usages réels sont plutôt basiques, comme en témoignent les statistiques fournies directement par OpenAI : les usages de ChatGPT concernent majoritairement des conseils pratiques ou de la recherche d’informations (cf. Données OpenAI Signals). En d’autres termes, les utilisateurs s’en servent comme d’un Google amélioré, et non comme d’un véritable assistant capable d’agir en leur nom.

Le problème, comme abordé précédemment sur ce blog, est que les chatbots proposent une interface trop déroutante pour des utilisateurs qui ne savent pas trop quoi faire avec et se contentent de reproduire ce qu’ils connaissent déjà (Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA). Ces interfaces conversationnelles sont effectivement très souples, puisqu’elles reposent sur des interactions en langage naturel, mais les utilisateurs sont plutôt habitués aux menus et aux boutons. Ce qu’il leur faut, ce sont des services qui proposent des interfaces plus proches de celles qu’ils ont l’habitude de manier.
La limite à laquelle se heurtent les utilisateurs est que, pour pouvoir exploiter les modèles génératifs à leur plein potentiel, il faut savoir prompter : La maîtrise des prompts est une étape indispensable à l’adoption de l’IA générative. Or, prompter efficacement est une compétence non triviale. Savoir formuler une instruction précise, contextualiser une demande, décomposer un problème complexe en étapes séquentielles… nécessite un apprentissage, et cela prend du temps. L’ironie est que plus les modèles sont puissants, plus les utilisateurs inexpérimentés risquent d’être déçus par des résultats qui ne correspondent pas à leurs attentes mal exprimées.
Heureusement, les choses sont en train de changer avec des agents intelligents préconfigurés, qui combinent la puissance et la souplesse des modèles génératifs avec la simplicité de prise en main des interfaces traditionnelles.

L’agentisation des sites web et services en ligne est donc une authentique révolution (Êtes-vous prêt pour le web agentique ?), un nouveau paradigme des usages numériques qui mérite largement une incrémentation d’appellation commerciale.
D’où la notion de Web4 pour pouvoir facilement désigner un ensemble de technologies qui offrent de nouveaux usages. Un thème que j’avais déjà abordé en 2024 (cf. Du Web4 à la Société 5.0), mais qui prend tout son sens aujourd’hui dans ce contexte d’agentisation.

Selon ce découpage, la première ère est celle du Web 1.0, le web en mode « Lecture » (« Read« ) : le web des origines avec des utilisateurs qui se connectent depuis un ordinateur à des sites web pour une consultation passive.
La deuxième ère est celle du Web 2.0, le web en mode « Écriture » (« Write« ) : avec des utilisateurs qui, munis de smartphones, se connectent à des plateformes sociales pour publier leurs propres contenus. C’est l’avènement du web participatif, de l’UGC (« User-Generated Content ») et des médias sociaux.
Puis est venue l’ère du Web3, le web participatif (« Join« ) : grâce à la blockchain, des utilisateurs pouvaient participer à des projets alternatifs décentralisés, des cryptomonnaies aux NFT en passant par les tokens (cf. Mythes et réalités du Web3 publié en 2022).
Nous sommes maintenant au tout début d’une nouvelle ère, le web en mode « Action » (« Act« ) : avec l’avènement des IA génératives, les utilisateurs peuvent maintenant faire (quasiment) tout ce qu’ils souhaitent, grâce aux agents intelligents qui vont agir à leur place.
Le problème est « Web de l’IA » n’est pas très parlant, car l’IA reste une notion floue qui désigne beaucoup de choses. Les agents intelligents étant potentiellement plus faciles à comprendre, la notion de web agentique peut être simplifiée en « Web4 ».
Je juge cette appellation commerciale indispensable, car les chatbots représentent clairement un frein à l’adoption de pratiques agentiques. La priorité est maintenant d’inciter les utilisateurs à adopter de nouveaux réflexes grâce à des outils concrets. Par exemple, les assistants d’achat changent beaucoup de choses (Gemini Shopping, Copilot Shopping…), notamment grâce à de nombreux standards émergents comme UCP, ACP, NLWeb ou WebMCP : Seules les marques fortes parviendront à dompter le commerce conversationnel.

Ce nouvel incrément de l’appellation commerciale (Web3 -> Web4) permet de caractériser le début d’une nouvelle ère des usages et technologies numériques grâce aux capacités avancées des modèles (les fonctions agentiques). Mais ceci ne sera possible qu’avec des agents prêts à l’emploi, car je n’imagine pas une seule seconde que les internautes lambda vont se mettre à coder leurs propres agents dans OpenClaw.
Et ce qui est valable pour le grand public l’est aussi pour les salariés.
Une quatrième ère pour les outils numériques de travail
Nous avons pu constater sur les 30 dernières années une longue évolution des outils de travail depuis l’introduction des emails et des intranets, jusqu’aux dernières générations de plateformes collaboratives (les Digital Workplaces). Une évolution qui peut également être traduite à l’aide d’appellations commerciales incrémentales.

Les premiers outils de travail en ligne sont apparus dans les années 1990, avec les systèmes de messagerie électronique et les intranets, auxquels les salariés accédaient depuis leur ordinateur nouvellement connecté à l’internet. Nous pouvons qualifier cette période d’Entreprise 1.0 : un environnement de travail numérique embryonnaire, centré sur la diffusion d’informations descendantes et l’échange de fichiers par email.
Puis, avec l’avènement du Web 2.0 dans le milieu des années 2000, sont apparus les premiers blogs d’entreprise, wikis et réseaux sociaux internes, ainsi que les nombreuses applications en ligne (cf. Qu’est-ce que l’Entreprise 2.0 ? publié en 2007). L’Entreprise 2.0 apportait une promesse forte : le savoir collectif de l’organisation, jusqu’alors enfermé dans des silos et des messageries individuelles, allait pouvoir circuler librement, s’enrichir et se valoriser. Les réseaux sociaux d’entreprise (RSE) ont incarné cette promesse, avec des succès réels mais souvent mitigés en raison de résistances culturelles profondes. La technologie était là, mais les usages ne suivaient pas toujours.
Idem pour le Web3, avec les nombreuses applications potentielles de la blockchain dans le monde professionnel (décentralisation, traçabilité, smart contracts…), mais qui restait un concept technologique complexe à expliquer et encore plus à comprendre pour le salarié lambda : Définition, usages et enjeux des blockchains. Un rendez-vous manqué entre les entreprises et la blockchain, qui n’a donc pas donné lieu à une appellation comme Entreprise3. Pourtant, le potentiel était bien réel avec les applications décentralisées (dApps) et les organisations décentralisées (DAOs), par opposition aux modèles classiques (cf. Sommes-nous et souhaitons-nous être contrôlés par des algorithmes ?).
Nous avons depuis connu la crise sanitaire, avec l’obligation de recentrer les efforts sur la résilience et l’agilité, donc sur une rationalisation de l’environnement de travail. La pandémie a forcé une adoption accélérée des outils numériques intégrés, mais cette adoption ne s’est pas toujours accompagnée d’une réorganisation en profondeur des pratiques. Beaucoup d’entreprises ont simplement dupliqué en ligne ce qu’elles faisaient en présentiel, sans profiter de l’opportunité pour repenser leurs processus (cf. Futur du travail : faut-il tuer l’email pour forcer l’adoption de la digitale workplace ?).
Un effort de mutualisation des outils et ressources numériques au sein d’un environnement intégré qui ne se révèle pas du tout compatible avec la multiplication des outils en ligne reposant sur l’IA générative. Nous nous retrouvons donc aujourd’hui face à un nouveau risque de dispersion avec de nombreux chatbots et services dopés à l’IA générative qui s’ajoutent à un environnement de travail déjà surchargé.

Dans ces conditions, il est impossible de réaliser des gains de productivité avec tous ces services en ligne disparates : cela ne fait qu’empirer le problème d’éparpillement que les équipes IT s’évertuaient à résoudre depuis des années : Les entreprises n’ont pas besoin de meilleurs modèles génératifs, mais d’IA mieux intégrées.
D’où la nécessité de repenser les environnements de travail, à nouveau, en y intégrant l’IA, non pas comme une couche supplémentaire, mais comme une composante fondamentale de l’architecture des outils : Des intranets collaboratifs aux environnements numériques de travail augmentés par l’IA.
D’autant plus que les agents intelligents ne demandent qu’à être intégrés au cœur du SI des entreprises : Des Digital Workplaces aux Agentic Workplaces. Après les intranets « 1.0 » et l’Entreprise 2.0, voici donc l’Entreprise4 (ou « Enterprise4 » en anglais), par souci d’alignement des versions avec le Web4. Cette appellation n’est pas un simple effet de style : elle signale une rupture de paradigme aussi importante que celle qu’a représentée l’Entreprise 2.0 en son temps.
Ne pensez pas que je suis en train de décrire un scénario futur, car les bases théoriques et technologiques sont là, notamment grâce aux nombreux standards qui ont vu le jour ces derniers mois (MCP, A2A…). Mais le facteur limitant est toujours le même : des salariés qui ont du mal à suivre le rythme, et sont de plus en plus défavorables à un déploiement trop rapide de l’IA : L’adoption de l’IA générative ne passera ni par les politiques, ni par les cas d’usage.
Le pré-requis est de traduire les sacrosaints cas d’usage (qui n’existent souvent que sur le papier) en outils prêts à l’emploi, donc pas sous la forme de chatbots avec une interface conversationnelle qui rebute plus qu’elle ne facilite. La solution est donc la mise à disposition d’agents pré-conçus, pour aider les salariés à mettre le pied à l’étrier et faciliter ainsi l’accès aux capacités avancées des modèles génératifs.
La bonne nouvelle est qu’il existe un standard agentique simple à implémenter et relativement facile à comprendre pour les utilisateurs : les skills (pour les tâches horizontales, transversales aux différentes fonctions de l’entreprise) et les plugins (des packages de skills adaptés aux tâches verticales, donc orientés métier). Le tout étant compatible avec les différents modèles (Claude, GPT…), services (Perplexity, Manus…), outils (Cursor, windsurf…) et par extension avec les environnements de travail intégrés (Office 365, Google Workspace). Ces briques fonctionnelles pré-configurées permettent ainsi aux salariés de bénéficier des capacités agentiques sans avoir à maîtriser l’art du prompting.
Une nouvelle génération d’outils pour de nouvelles habitudes de travail
J’ai déjà eu plusieurs occasions de vous parler de Claude Cowork, assurément un outil révolutionnaire, mais largement sous-côté pour le moment. J’insiste sur le fait que c’est un outil parmi d’autres, car on trouve des équivalents : OpenAI Codex, Perplexity Computer Work ou des équivalents open source comme OpenWork.

Et pour faciliter la compréhension de votre contexte de travail par l’IA (les flux d’informations, les séquences de travail), il existe même des outils complémentaires pour aider les modèles dans leur phase d’appropriation du contexte comme Vercept, récemment racheté par Anthropic, qui permettent d’enrichir les agents d’une connaissance fine des pratiques et interfaces de l’organisation.

Une nouvelle génération d’outils, nécessitant de nouvelles habitudes de travail, et potentiellement bientôt une nouvelle génération de patrons ? C’est notamment le cas du patron de Uber pour lequel a développé un clone synthétique afin de filtrer et trier les demandes : Uber employees have an AI clone of CEO Dara Khosrowshahi, and use ‘Dara AI’ before talking to the big boss himself.
Oui je sais, le concept de jumeaux numériques est encore trop avant-gardiste pour les salariés lambda des entreprises lambda. Mais nous y allons petit à petit : les chatbots sont une première étape, puis viendront les agents préconçus, puis les agents spécifiques à telle ou telle entreprise ou activité, puis peut-être les jumeaux numériques. Chaque chose en son temps… D’où la nécessité de faire preuve de pédagogie, donc d’utiliser des termes plus simples et moins anxiogènes : d’où le Web4 et l’Entreprise4.
CQFD.
Questions / Réponses
Pourquoi l’IA peine-t-elle à s’imposer dans les entreprises, malgré des progrès constants ?
Les entreprises ne manquent pas d’outils, mais de conditions favorables à leur adoption. Le discours anxiogène des techno-prophètes (« Vous serez remplacé par l’IA« ) a provoqué un rejet naturel chez les salariés. Par ailleurs, les interfaces conversationnelles des chatbots restent déroutantes pour des utilisateurs habitués aux menus et aux boutons. Résultat : beaucoup d’expérimentations, peu d’effets mesurables sur la productivité collective.
Qu’est-ce que le Web4, et en quoi est-ce différent de ce que l’on connaît déjà ?
Le Web4 désigne une quatrième ère des usages numériques, fondée sur l’action et la délégation de tâches. Après le Web 1.0 (consultation passive), le Web 2.0 (publication de contenus) et le Web3 (participation), le Web4 permet aux utilisateurs de confier des tâches à des agents intelligents qui agissent à leur place. Ce n’est plus l’utilisateur qui cherche et exécute, c’est l’agent qui comprend, planifie et réalise.
Qu’est-ce qu’un agent intelligent, concrètement ?
Un agent intelligent est une sorte de programme capable de comprendre un besoin exprimé en langage naturel, de le décomposer en tâches et sous-tâches, puis d’en planifier et d’en superviser l’exécution de façon autonome. Il ne s’agit donc plus de poser une question à un chatbot et d’attendre une réponse, mais de déléguer une mission à un système qui va agir à votre place. Pour les salariés, cela se traduit par des outils préconfigurés (skills, plugins) utilisables sans maîtrise du prompting.
Pourquoi parler d’Entreprise4, et que recouvre ce terme ?
L’appellation « Entreprise4 » fait écho au « Web4 » et désigne une rupture dans l’évolution des environnements de travail numériques. Après les intranets (Entreprise 1.0), les réseaux sociaux d’entreprise (Entreprise 2.0) et les applications décentralisées (Entreprise3), l’Entreprise4 intègre l’IA non comme une couche supplémentaire, mais comme une composante fondamentale aux processus et flux d’informations. Les bases technologiques existent déjà, notamment grâce aux standards récents comme MCP et A2A.
Pourquoi utiliser des appellations comme « Web4 » plutôt que de parler simplement d’IA ou d’agents intelligents ?
Parce que le cerveau humain fonctionne par raccourcis cognitifs. Des termes comme « IA générative » ou « agents intelligents » désignent des briques technologiques abstraites, sans usage perceptible. À l’image de la 5G, qui a rendu accessibles des concepts techniques complexes (« MU-MIMO », « Network Slicing ») grâce à une appellation simple et incrémentale, le Web4 et l’Entreprise4 visent à simplifier le discours, aligner les acteurs et stimuler l’adoption sans générer d’anxiété.