Les modèles génératifs ont fait des progrès considérables ces trois dernières années. Mais avec les agents intelligents, les progrès deviennent exponentiels. Le problème est que la très large majorité des utilisateurs n’en sont pas conscients : ils ne savent pas qu’ils ne savent pas. Si les progrès technologiques sont indéniables, l’adoption se fait dans la précipitation, sans accompagnement suffisant, créant un fossé grandissant entre initiés et néophytes. De nombreux problèmes peuvent potentiellement en découler : saturation des utilisateurs, rejet d’une technologie incomprise, aggravation de la dette numérique… Il y a une nécessité urgente de passer d’une logique d’adoption forcée à une appropriation bienveillante, méthodique et responsable, de ces nouveaux outils.

En synthèse :
- L’innovation en IA crée plus de saturation que d’adoption réelle. Le rythme effréné des annonces provoque lassitude et confusion chez les utilisateurs, dont la moitié testent l’IA sans en tirer de satisfaction, faute d’accompagnement pédagogique suffisant.
- Les agents intelligents marquent une rupture fondamentale avec les outils traditionnels. L’IA ne se contente plus d’assister, elle agit à notre place, comme le prouvent les prouesses de Claude Code ou Cowork, et cette approche agentique devient un standard industriel en cours de déploiement.
- Un fossé grandissant sépare les utilisateurs avertis des autres. Ceux qui paient pour les meilleurs outils et les utilisent quotidiennement perçoivent des capacités transformatrices, tandis que la majorité des cols blancs ne savent pas qu’ils ne savent pas, créant une asymétrie dangereuse.
- Plus d’IA ne signifie pas moins de travail, mais davantage. Conformément au phénomène de rebond du paradoxe de Jevons, des outils plus puissants engendrent plus d’usages. Le risque est qu’une poignée de salariés seniors augmentés par l’IA remplace plusieurs postes, avec des conséquences sociales dramatiques.
- L’urgence n’est pas d’accélérer l’adoption, mais d’améliorer l’appropriation. Il faut miser sur la pédagogie, des méthodes standardisées et une conduite du changement rigoureuse, car la précipitation ne produit que de la dette technique, numérique, organisationnelle et humaine.
Hier soir, j’ai regardé les épreuves de qualification aux JO d’Hiver de Milano-Cortina. Quelle n’a pas été ma surprise de constater que la moitié des qualifié(e)s pour la finale du half-pipe en snowboard sont des athlètes asiatiques. J’ai tout de suite été frappé d’un sentiment d’incompréhension (« Qu’est-ce qui s’est passé ? AI-je raté un épisode ?« ). L’impression que la discipline a évoluée d’un coup sans que je m’en rende compte, car la dernière fois que je m’y suis intéressé, c’était Shaun White et des riders américains / canadiens qui dominaient la discipline. Aujourd’hui, ce sont manifestement les athlètes japonais, chinois et coréens qui ont pris le dessus.

Peut-être ressentez-vous un sentiment équivalent avec l’IA générative , car il suffit de détourner le regard quelques instants pour avoir deux trains de retard tant les innovations sont nombreuses et le rythme rapide. Entendons-nous bien : l’innovation n’est en théorie jamais un problème, sauf si elle est trop fréquente et intensive, car cela crée de l’instabilité. Et avec l’IA générative, l’évolution ne se fait pas en années, mais en semaines, car il y a des nouveautés et des annonces majeures tous les jours.
La saturation, symptôme d’une adoption bâclée
C’est une réflexion récurrente sur ce blog depuis presque 3 ans : l’innovation autour de l’IA générative est tellement rapide qu’il suffit de s’éloigner du sujet quelques semaines (parfois quelques jours) pour ne plus comprendre les discussions en cours ou les nouveaux usages qui se profilent. Si vous rajoutez à cela les innombrables prophéties de techno-disruptions aussi irrémédiables que subites, vous obtenez un raz-le-bol général, un rejet naturel tant le sujet est dense et omniprésent :
Il faut bien avouer que toutes ces innovations sont très intéressantes, mais terriblement rébarbatives pour les néophytes. Qu’à cela ne tienne, « Show must go on » comme chantait Freddie Mercury. La dernière édition de la finale de Football US a ainsi été l’occasion pour les éditeurs d’envahir l’espace médiatique : AI Took Over the Super Bowl, Accounting for 23% of Ads et The Super Bowl Was Overrun by AI Ads, And There’s a Reason Viewers Weren’t Buying It.
Cette débauche publicitaire trahit l’empressement des éditeurs de services d’IA de nous faire adopter leurs outils en toute urgence. Et dans le même temps, les CEO interrogés pour la dernière étude de PWC relativisent : « Most companies haven’t yet realised financial returns from their investment in AI » (Leading through uncertainty in the age of AI). Formulé autrement : On dépense massivement, mais on ne sait toujours pas pourquoi.
Mais comme toujours, ce sont des considérations qui ne freinent pas les grands éditeurs qui maintiennent la pression pour forcer l’adoption, mais reconnaissent qu’il y a un déficit pédagogique. La dernière étude de Microsoft France est ainsi très révélatrice : L’usage de l’IA progresse dans les entreprises françaises, mais se heurte à un manque d’accompagnement. Cette étude, menée par YouGov en janvier 2026 auprès de plus de 650 cadres et dirigeants nous apprend ainsi que :
- 80 % des dirigeants utilisent déjà des outils d’IA générative, et 60% considèrent l’adoption de l’IA comme un objectif prioritaire pour leur entreprise ;
- 61 % des salariés utilisent des services d’IA génératives via des comptes personnels ;
- plus de 7 cadres sur 10 n’ont pas encore été formés à l’utilisation de l’IA.
Les signes d’une adoption précipitée sont évidents. Nous le constatons d’ailleurs aussi dans les usages privés grâce à la dernière édition du Baromètre du numérique de l’Arcom qui confirme cette dissonance entre adoption et bonne utilisation : si la moitié des Français utilisent désormais l’IA (en progression de 47 % en un an), seul un quart s’en dit satisfait.

Ceci ne signifie en rien que l’IA est inutile, mais que la majeure partie des utilisateurs n’en ont qu’un usage superficiel : ils testent des recherches dans ChatGPT comme ils le feraient dans Google, et se désintéressent de l’outil quand les résultats ne sont pas meilleurs.
Il en résulte logiquement un phénomène de confusion, voire de lassitude : AI fatigue is real and nobody talks about it. La question n’est pas de savoir si nous sommes proches du point de rupture, car il n’y en aura pas (l’IA ne va pas disparaitre), mais plutôt de se soucier de la qualité d’adoption de l’IA : se fait-elle réellement dans de bonnes conditions ? Les utilisateurs vont-ils réellement en bénéficier ou finir esclaves de l’IA ? (cf. Cols blancs et IA générative : entre promesses d’augmentation et risques de substitution). Laissez-moi ainsi vous rappeler que nous avons connu une situation similaire avec l’email dont l’adoption a été faite petit à petit, de façon empirique, et que nous en subissons tous les jours les désagréments.
Si vous lisez ce blog régulièrement, alors vous savez que je milite activement pour plus de pédagogie autour de l’IA et un accompagnement d’urgence des utilisateurs aux nouveaux outils reposant sur les modèles génératifs. Le risque étant qu’avec cette frénésie, les salariés saturent et freinent des quatre fers pour se mettre à l’IA. Ce qui serait un drame, car un point de bascule vient d’être franchi. Silencieusement.
Des agents qui changent la donne
J’ai déjà eu de nombreuses occasions de vous expliquer les enjeux de l’avènement des agents intelligents (Web agentique : la révolution qui ne vous attendra pas). Ces dernières semaines, je passe beaucoup de temps sur Claude Cowork, et plus je creuse, plus je suis stupéfait par les capacités des agents. Je suis intimement convaincu qu’une nouvelle étape a été franchie : les IA génératives ne sont plus des outils, mais des agents. Ou du moins : les modèles génératifs de dernière génération nous offrent des capacités qui ne sont plus exploitées à travers des outils (que l’on utilise), mais des agents (qui agissent à notre place).

Cette approche agentique est en rupture avec nos usages précédents des outils informatiques et numériques, mais elle a fait ses preuves avec Claude Code. Ainsi, il a fallu 24 heures pour créer un navigateur web fonctionnel avec Cursor et Opus 4.5 (Scaling long-running autonomous coding). Plus récemment, 16 agents codant en parallèle ont suffi pour produire un compilateur C avec Opus 4.6, pour un coût de 20.000 $ (Building a C compiler with a team of parallel Claudes).
Ces performances donnent le vertige et nous font nous questionner : De quoi seront capables Opus 5, GPT-6 ou Gemini 4 ? Des prouesses réalisées par des experts, certes, mais qui sont maintenant à la portée de tous grâce à une version « grand public » de Claude Code : Anthropic brings its AI agent software Claude Cowork to Windows.
À une époque pas si lointaine, les éditeurs nous expliquaient que chaque salarié allait bientôt créer ses propres agents, ouvrant ainsi une nouvelle ère de productivité : La superintelligence va décupler notre capacité d’agir. Un scénario qui n’a, à priori, quasiment aucune chance de se produire. Mais ce n’est pas un problème, car il existe maintenant un système de Plugins et de Skills qui semble devenir la norme et qui facilitent considérablement le déploiement et l’utilisation des agents : Customize Cowork with plugins.

Ceci étant dit, tout ne tourne pas autour de Claude, car OpenAI et Google sont dans la roue d’Anthropic avec Codex et Antigravity. Mais pas que, car je vous rappelle que Microsoft a été pionnier avec ses « pre-built agents« . Idem pour Adobe, SalesForce ou ServiceNow qui proposent tous des agents pré-conçus. Tenez-le pour dit : l’approche agentique n’est plus une expérimentation, c’est un standard industriel en cours de déploiement.
Le problème est que comme le dit très justement William Gibson : « Le futur est déjà là, il n’est simplement pas réparti équitablement« .
Les cols blancs ne savent pas qu’ils ne savent pas
La situation est très préoccupante, car ce que l’on pensait arriver dans 3 à 5 ans, arrivera à coup sûr dans 3 à 5 mois, voire 3 à 5 semaines. Les cols blancs vont connaitre une révolution équivalente à ce qu’ont connu les développeurs, mais ils n’y sont pas préparés : ils ne savent pas qu’ils ne savent pas, ils ne se doutent pas des progrès récents de l’IA générative.

Cet article récent de Matt Shumer résume parfaitement la situation : Les modèles sont maintenant tellement performants en code qu’ils peuvent se coder eux-mêmes (Something Big Is Happening).
Les laboratoires d’IA ont fait un choix délibéré. Ils se sont d’abord concentrés sur le fait de rendre l’IA excellente pour écrire du code, parce que construire de l’IA nécessite beaucoup de code. Si l’IA peut écrire ce code, elle peut aider à construire la version suivante d’elle-même. Une version plus intelligente, qui écrit un meilleur code, qui construit une version encore plus intelligente… Faire de l’IA une experte du code était la stratégie qui débloque tout le reste. Voilà pourquoi ils ont commencé par là.
Mais ces changements sont invisibles pour ceux qui utilisent les versions gratuites des outils, celles qui sont fortement limitées en puissance et en fonctionnalités.
Les versions gratuites ont plus d’un an de retard sur ce à quoi les utilisateurs payants ont accès. Juger l’IA à partir de ChatGPT en version gratuite, c’est comme évaluer l’état des smartphones avec un téléphone à clapet. Les personnes qui paient pour les meilleurs outils et qui les utilisent réellement chaque jour pour un travail concret savent ce qui arrive.
D’énormes changements sont à venir pour des salariés qui sont bien souvent réfractaires au changement, contrairement aux populations informatiques qui sont habituées à s’adapter rapidement aux innovations technologiques (quasiment tous les ans).
Rien de ce qui peut être fait sur un ordinateur n’est à l’abri à moyen terme. Si votre travail se fait sur un écran, si l’essentiel de ce que vous faites consiste à lire, écrire, analyser, décider, communiquer au clavier, alors l’IA va s’attaquer à des parts importantes de ce travail. L’échéance n’est pas « un jour », car cela a déjà commencé.
Une constatation faite par d’autres, ainsi qu’un phénomène d’addiction à ces nouveaux outils dont très peu perçoivent le potentiel réel : The AI Vampire.
La productivité x 10 est réelle […] Mais si tu n’as pas utilisé précisément Opus 4.5/4.6 avec Claude Code pendant au moins une heure, alors tu vas avoir un vrai choc. Parce que toutes tes plaintes sur le fait que l’IA ne serait pas utile pour des tâches du monde réel sont désormais obsolètes. Le code assisté par l’IA a franchi un cap, et cette fois, c’est du sérieux.
La tension vient du fait que personne ne peut reprocher aux utilisateurs lambda cette lente adoption, car les initiatives pédagogiques ne suivent pas (formation, accompagnement…). Pourtant, l’adoption forcée de l’IA se fait au pas de charge : les entreprises se précipitent tels des poulets sans têtes qui courent par réflexe sans voir où ils vont : Ramp AI Index – February 2026.

Une étude du cabinet Cognizant vient enfoncer le clou avec des impacts prévisionnels très préoccupants : 93 % des emplois pourraient être transformés dès 2026, avançant les prévisions initiales de six ans (New work, new world 2026: How AI is reshaping work faster than expected).

Pas étonnant que les récentes prises de parole des patrons de la Silicon Valley s’éloignent de plus en plus des discours policés et bienveillants que l’on a connu jusqu’à présent : Le « Cyber-mysticisme » ou pourquoi la Silicon Valley prépare l’Apocalypse.
Ces points de vue extrêmes qui devraient nous alarmer : savons-nous réellement ce que nous faisons ?
Plus d’IA ne signifie pas moins de travail
J’avoue ouvertement être un techno-optimiste. J’ai été le premier à écrire que les agents intelligents sont un progrès, car ils vont nous libérer des tâches ingrates. Sauf que c’est le chemin inverse qui se dessine. Une étude du MIT le confirme sans ambiguïté : l’IA générative ne diminue pas la charge de travail, elle l’augmente (AI Doesn’t Reduce Work, It Intensifies It). Le problème vient de notre conditionnement et de la pression sociale : disposant d’outils plus puissants, nous nous forçons à produire davantage.
Nous retrouvons ici une parfaite illustration de l’effet rebond du paradoxe de Jevons : des outils plus efficaces engendrent plus d’usages, donc une plus grande utilisation.

Selon cette tendance, nous nous dirigeons vers un scénario où le travail serait très prochainement accaparé par des salariés séniors qui, assistés par des agents intelligents, pourraient fournir autant de travail que 3 à 4 ETP (juniors, salariés moyennement qualifiés / motivés). Les conséquences d’un tel scénario sur l’emploi et la cohésion sociale seraient dramatiques : La fracture numérique est un problème que personne ne peut ignorer.
La question que l’on est en droit de se poser est la suivante : pourrions-nous éviter que ce scénario se réalise ? En théorie, oui, en mettant en place un plan ambitieux de formation initial et continue à l’IA. Mais ce n’est pas du tout ce que je constate, car l’adoption de l’IA est une charge que l’on confie de façon implicite aux jeunes, en espérant qu’ils vont participer activement à l’évolution des méthodes de travail et former les plus vieux. Nous reproduisons ainsi le report de la charge d’adoption des nouvelles technologies aux générations suivantes, comme ça a été le cas avec les ordinateurs et avec les outils numériques.
Selon un sondage EPITA / Ipsos, l’adoption est élevée, mais chaotique : 94 % des étudiants français ont déjà utilisé l’IA, entre usage massif et dérives inquiétantes. Autant vous dire que miser sur la génération suivante pour résoudre un problème d’aujourd’hui n’est pas une stratégie, c’est un aveu d’impuissance.

Tous ces signaux mis bout à bout devraient vous convaincre que nous sommes au devant de bouleversements majeurs pour lesquels notre société (entreprises, institutions, gouvernement…) n’est pas prête : L’IA ne doit plus être considérée comme un outil, mais comme un agent économique et social.
Accélérer l’appropriation, pas l’adoption
Encore une fois : l’innovation n’est pas un problème, mais si les nouvelles technologies et usages génèrent des avantages fortement asymétriques entre ceux qui les adoptent rapidement et les attentistes, alors il y a une nécessité de prendre du recul et de ne pas se précipiter par peur d’être dépassé… par qui et par quoi déjà ?
Je répète ce qui est écrit plus haut : la majorité des salariés et managers ne savent pas qu’ils ne savent pas. Dans ces conditions, comment faire les bons diagnostics, prendre les bonnes décisions ou définir des plans d’action pertinents ?
Comme j’ai déjà eu l’occasion de l’expliquer, l’important n’est pas d’accélérer l’adoption, mais de l’améliorer : de savoir quoi faire avec l’IA, et comment bien le faire : exploiter ces nouveaux outils avec confiance (connaitre leurs points forts et faibles afin de les utiliser à leur plein potentiel) et responsabilité (ne pas en abuser, ne pas laisser de mauvaises habitudes s’installer). Je vous invite à (re)lire à ce sujet cet article publié l’année dernière : De l’IA générale aux super-intelligences : course au progrès ou fuite en avant ?
Si tout le monde s’accorde sur les incroyables capacités des modèles génératifs, dans la mesure où c’est une technologie à usages généraux, nous n’avons pas réellement d’éléments de comparaison. Ce qui explique la difficulté à faire comprendre le potentiel ou à anticiper l’impact.
Certes, nous avons déjà connu des phrases d’emballement avec les cryptomonnaies et le métavers, mais avec l’IA générative, les changements sont palpables et plus profonds. (nous parlons ici de la Quatrième Révolution Industrielle).
Il est donc impératif de s’appuyer sur des méthodes d’appropriation standardisées (De l’intérêt d’une charte pour stimuler et cadrer l’adoption de l’IA et Un référentiel de compétences en IA pour faciliter l’adoption), ainsi que sur une conduite du changement rigoureuse pour pouvoir garantir une adoption de l’IA qui va bénéficier à tous : Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA.
Voilà pourquoi il ne faut pas céder au FOMO (« Fear of missing out« , la peur de manquer) et déployer l’IA de force et en urgence. Car la précipitation n’a jamais produit que de la dette (technique, numérique, organisationnelle, humaine…). Et celle-ci, contrairement aux outils, ne se met pas à jour en un clic.
Questions / Réponses
Qu’est-ce qu’un agent intelligent et en quoi est-ce différent d’un outil d’IA classique ?
Un outil d’IA classique, comme un chatbot, se contente de répondre à vos questions. Un agent intelligent, lui, agit à votre place : il peut exécuter des tâches complexes de manière autonome, comme produire du code ou piloter des processus. C’est un changement fondamental, car nous passons d’un mode « j’utilise un outil » à un mode « l’agent travaille pour moi ».
Pourquoi tant de salariés semblent dépassés par l’IA alors qu’elle est de plus en plus présente ?
Le rythme d’innovation est si intense que quelques semaines d’inattention suffisent à perdre le fil des évolutions. À cela s’ajoute un déficit criant de formation et d’accompagnement. Le résultat est un phénomène de saturation et de lassitude, souvent qualifié d’AI fatigue.
L’IA va-t-elle réduire notre charge de travail au quotidien ?
Contrairement à ce qu’on pourrait espérer, une étude du MIT montre que l’IA générative ne diminue pas la charge de travail, elle l’augmente. C’est l’effet rebond du paradoxe de Jevons : disposant d’outils plus puissants, nous nous forçons à produire davantage. Le risque est qu’un salarié senior assisté par des agents puisse fournir le travail de trois à quatre personnes, avec des conséquences lourdes sur l’emploi.
Les entreprises qui adoptent l’IA en tirent-elles déjà des bénéfices concrets ?
Pas vraiment, du moins pour le moment. Selon la dernière étude de PwC, la plupart des entreprises n’ont pas encore constaté de retour financier sur leurs investissements en IA. L’adoption se fait souvent dans la précipitation, sans stratégie claire ni accompagnement adapté. En France, si la moitié des internautes utilisent déjà des outils d’IA, seul un quart des utilisateurs s’en déclarent satisfaits.
Que devrait faire une entreprise pour bien intégrer l’IA, plutôt que de se précipiter ?
L’urgence n’est pas d’accélérer l’adoption, mais d’améliorer l’appropriation. Cela passe par des méthodes standardisées (chartes d’usage, référentiels de compétences), un plan de formation ambitieux, et une conduite du changement rigoureuse. Car la précipitation ne génère que de la dette (technique, numérique, organisationnelle et humaine) qu’aucune mise à jour ne pourra corriger.