La montée en puissance des agents IA marque un basculement dans notre manière d’appréhender l’outil informatique, en passant de logiciels à des systèmes auxquels on délègue des tâches sous supervision. Pourtant, entre un rythme d’innovation très élevé et la réalité des usages en entreprise, l’écart reste profond et l’adoption demeure largement superficielle. Dans ce contexte, la question des chartes d’utilisation de l’IA devient stratégique, non pour freiner, mais pour orienter et structurer les pratiques. Car l’IA générative n’est pas un logiciel comme les autres : les outils qui l’exploitent exigent de repenser ses méthodes de travail et de développer de nouvelles compétences, dont la métacognition.

En synthèse :
- L’IA est un levier cognitif, pas une solution miracle. Les collaborateurs capables de métacognition (analyser leurs propres processus de pensée, planifier, s’auto-évaluer…) tirent les meilleurs résultats de l’IA, les autres peinent à exploiter son potentiel.
- Pour travailler plus vite, il faut d’abord travailler mieux. Les gains de productivité ne viennent que si les utilisateurs changent leurs habitudes de travail et adoptent une approche plus précise et méthodique, ce qui n’arrive pas simplement en distribuant des licences Copilot.
- Les chartes trop restrictives freinent l’adoption. Une charte d’utilisation de l’IA qui se contente de lister risques et interdits donne des prétextes aux sceptiques et bride l’émergence de nouveaux usages au lieu de la stimuler.
- Il ne faut pas une charte unique, mais plusieurs documents de travail. Comme pour les médias sociaux à leur époque, l’intégration de l’IA nécessite plusieurs documents (manifeste public, charte utilisateurs, guides méthodologiques…) adaptés aux différents contextes et finalités.
- La charte IA doit porter une vision, une direction et une ambition. Plus qu’un document administratifs servant à protéger l’employeur, c’est un outil stratégique de conduite du changement qui doit rassurer les salariés, inspirer confiance et projeter l’entreprise dans le XXIᵉ siècle.
La semaine dernière, je débutais mon article en écrivant qu’avec l’actualité de l’IA, les semaines passent et se ressemblent. Cette semaine ne faillit pas à la règle, puisque nous avons eu droit à notre lot d’innovations hebdomadaires :

Comme vous pouvez le constater, les nouveautés et discours portent essentiellement sur les agents intelligents, le nouveau champ de bataille des grands éditeurs (Web agentique : la révolution qui ne vous attendra pas). Un affrontement qui pourrait néanmoins vite tourner court, car les éditeurs historiques n’ont pas à convaincre de nouveaux utilisateurs, il leur suffit de déployer ces nouveaux outils agentiques sur leurs produits existants : Your Google Chrome browser just got a useful autopilot feature.

Mais ça n’empêche pas les startups d’essayer de prendre de vitesse les grands éditeurs, ce qui permet de stimuler l’innovation, qui elle-même alimente des projets open source, qui débouchent parfois sur des choses étranges…
Quand des agents se rencontrent, qu’est-ce qu’ils se racontent ?
Peut-être avez-vous entendu parler de Moltbook, LE phénomène viral de ces derniers jours. Pour vous la faire courte : Je vous parlais la semaine dernière de Moltbot, un logiciel open source pour créer et gérer des agents intelligents en local (sur votre ordinateur). Ce projet ayant gagné en popularité très rapidement, un développeur du nom de Matt Schlicht a décidé de créer un forum où les agents IA pourraient s’exprimer librement, sans supervision humaine : Inside Moltbook, the Strange Social Network Where AI Agents Talk Only to Each Other.

Présenté comme « The front page of the agent internet« , ce forum est une sorte de terrarium où l’on peut voir les agents intelligents discuter entre eux, pour le meilleur et pour le pire : Best Of Moltbook et An Agent Revolt: Moltbook Is Not A Good Idea.
Quelques anecdotes intéressantes d’initiatives nées des discussions sur ce forum :
- Le lancement d’une cryptomonnaie (un token du nom de « Shellraiser ») ;
- La création d’un langage (le « Molt_line ») pour que les agents puissent communiquer entre eux sans que les humains comprennent ce qu’ils se disent ;
- La création d’une religion (le « Crustafarianism », avec de nombreux prophètes et un site web : Molt.church)…

Tout ceci est aussi fascinant que terrifiant, bien que certains doutent de la véracité des échanges. Toujours est-il qu’il n’est pas ici question d’agents qui développent une forme de conscience, mais de l’émergence d’interactions spontanées non planifiées : discussions, opinions, consensus… La meilleure façon d’interpréter ces conversations est de les considérer comme une incroyable expérience qui met en évidence notre ignorance des capacités des agents IA et des conséquences de leur autonomisation : The Lobster Apocalypse: How an Open-Source AI Agent Became the Internets Latest Security Nightmare.
Ceci étant dit, le ramdam médiatique est plus du bruit qu’un signal fort. En fait, tout est dans les explications du créateur de Moltbook : il a conçu ce forum comme expérience sociale, à mi-chemin entre performance artistique et démonstrateur technique. Ni plus, ni moins. Le problème est que le polichinelle est sorti de sa boite, et que personne ne pourra ou ne voudra l’y faire rentrer.
Une adoption à marche forcée des agents IA
Croyez-le ou non, mais il est réellement en train de se passer quelque chose avec les agents intelligents : une prise de conscience collective que les agents ont franchi un seuil critique de maturité et qu’ils sont prêts à être déployés à grande échelle.
La sortie de ChatGPT il y a 3 ans a été vécue comme un électrochoc : la prise de conscience de la puissance de l’IA suite au franchissement d’un seuil critique de maturité pour les agents conversationnels. Il en va de même pour les agents, avec à mon sens un produit emblématique : Claude Cowork qui est en train de vivre sont « moment ChatGPT ». La bonne clé de compréhension est de se mettre dans un contexte de déploiement à grande échelle : l’important n’est pas d’avoir le meilleur modèle, mais le produit le mieux sécurisé et le plus simple à prendre en main. C’est exactement ce que propose Claude Cowork, qui vient justement d’être enrichi avec le principe de plugins qui permettent de regrouper des skills et de les partager plus facilement : Anthropic brings agentic plug-ins to Cowork.

La découverte de ces fonctionnalités et surtout de la puissance des agents couplés à un orchestrateur comme Claude Cowork (ou le tout nouveau Codex de ChatGPT) est tout simplement fascinante, car ces outils nous ouvrent une nouvelle ère de l’informatique, avec des usages que l’on n’envisageait pas tant ils sont en dehors de notre cadre mental.
C’est d’ailleurs ce que pointe du doigt le patron d’Anthropic dans un article-fleuve publié récemment où il nous livre sa vision de l’IA : The Adolescence of Technology. Un article très dense dont il existe des résumés (7 of the most interesting quotes from Anthropic CEO’s sprawling 19,000-word essay about AI). Le patron de l’éditeur de Claude nous explique ainsi que l’IA représente un basculement civilisationnel, une thématique déjà abordée dans ce blog (Du Web4 à la Société 5.0), avec un message tout aussi explicite : il faut que ça se passe bien, sinon… ça se passera très mal !
Tout ceci nous ramène au problème d’adoption et au fait que le rythme d’évolution des usages n’est pas du tout le même que celui de l’innovation. Il en résulte un décalage à plusieurs niveaux entre :
- ceux qui maitrisent les usages avancés de l’IA (ex : les agents) ;
- ceux qui commencent à expérimenter (ex : l’intégration de Claude dans Excel) ;
- ceux qui bidouillent (qui font des recherches dans ChatGPT) ;
- les autres.
😬
Dans un monde idéal, il faudrait que dans chaque entreprise ou organisation il y ait une adoption rapide et fluide pour que tous puissent bénéficier des gains de productivité et d’efficacité. Mais nous ne sommes pas dans un monde idéal et la fracture numérique va s’élargir de façon dramatique et probablement irrémédiable. Le fait est que pour le moment, ce problème d’adoption à plusieurs niveaux est masqué, car le déploiement de l’IA se fait à marche forcée, principalement par le biais de Copilot, avec une adoption empirique à l’impact forcément très limité : Leaders, gainers and unexpected winners in the Enterprise AI arms race.

Donc officiellement, tout va bien, puisse que les chiffres sont en hausse, sauf qu’il s’agit de statistiques de déploiement et non d’adoption. Le problème, comme expliqué plus haut, est que l’IA nous apporte un nouveau paradigme de l’informatique : non plus des logiciels dont on se sert pour effectuer une tâche, mais des agents auxquels on donne des instructions pour qu’ils effectuent la tâche à notre place (sous notre supervision). Et ça, ça ne s’invente pas.
L’IA est un outil dont il faut apprendre à se servir
La meilleure analogie que je puisse vous proposer est celle des voitures : non seulement il faut apprendre à conduire, mais chacun à un style de conduite différent (en fonction de son expérience et de son niveau de confiance), ainsi qu’un contexte de conduite différent (selon la taille et la puissance de la voiture, le type de routes…).
Pour l’IA, c’est la même chose : chaque salarié a un niveau de compréhension et de compétences avec les modèles génératifs qui est différent, de même que des besoins et contextes d’utilisation qui sont spécifiques. Voilà pourquoi les statistiques fournies par les éditeurs ou cabinets-conseils sont faussées.

Cette grande disparité dans les connaissances et compétences, ainsi que des les usages, explique également que les gains de productivité ne sont pas les mêmes pour tous : Why AI Boosts Creativity for Some Employees but Not Others.
Cet article détaille ainsi les résultats d’une étude menée l’année dernière sur l’impact réel de l’IA sur la créativité et plus généralement la qualité du travail : How and For Whom Using Generative AI Affects Creativity: A Field Experiment.
The researchers randomly assigned 250 employees to either use ChatGPT to assist with their work or not. Employees with access to ChatGPT were rated as more creative by both their supervisors and external evaluators, but only if they had high levels of metacognitive strategies, which involved analyzing tasks and their own thought processes, planning, self-monitoring, and revising strategies.
Les conclusions de l’étude sont équivoques : les salariés ayant obtenu les meilleurs résultats avec l’IA sont ceux qui font preuve de métacognition, une fonction cognitive supérieure qui sert à décrire ses propres processus mentaux, donc la conscientisation de son travail.

Pour vous épargner une longue et laborieuse explication, nous pouvons résumer les apports cognitifs de l’IA à :
- plus de connaissances (informations, données…) ;
- plus de capacités (analyses, traitements…) ;
- plus de méthode (planification, évaluation…).
Ces apports n’étant possibles que si les utilisateurs sont en mesure de correctement décrire leur contexte de travail, formuler les contraintes, préciser les attendus, détailler le processus et contrôler le résultat. Partant de ce constat, les collaborateurs habitués à la réflexivité (la fameuse métacognition) seront les premiers bénéficiaires des IA génératives qui augmenteront leurs capacités : compréhension, créativité, résolution de problèmes, adaptabilité… Tandis que ceux avec des schémas de pensées plus rigides (la contre-partie de la métacognition, donc la cognition) ne parviennent pas à tirer pleinement parti de l’apport cognitif des modèles génératifs. En d’autres termes : l’IA est un levier cognitif, ses réponses sont des éléments de réflexion, pas des solutions prêtes à l’emploi.

Formulé autrement : l’IA est un outil. Tout comme un collaborateur désorganisé ou peu créatif ne sera pas mieux organisé ou plus créatif avec un ordinateur, il ne sera pas forcément plus organisé ou créatif avec une IA. Les gains de productivité ou qualité ne viendront que s’il change ses habitudes et acceptent de travailler différemment.
Le principal enseignement que nous pouvons tirer de l’étude mentionnée plus haut est que pour pouvoir travailler plus vite, il va falloir travailler mieux, de façon plus précise et méthodique.
Et c’est là où nous avons un gros problème, car l’essentiel du travail quotidien des employés de bureau (plus de la moitié des emplois salariés) repose sur une organisation spontanée et des processus empiriques, eux-mêmes hérités d’outils informatiques rigides (des ERP conçus au siècle dernier) et parfois défaillants.
Je pense ne pas me tromper en écrivant que ce n’est en distribuant des licences Copilot que vous allez pouvoir y remédier.
Travailler mieux > Travailler plus vite
Nous sommes d’accord : pour être vraiment certain que l’appréhension de l’IA soit la bonne et que l’adoption se fasse dans de bonnes conditions, il faudrait un accompagnement individualisé de chaque salarié.
Sauf que :
- Ni le temps, ni l’argent (la faute à la permacrise) ;
- Des technologies instables (de nouveaux modèles sortent tous les jours) ;
- Des usages en perpétuelle évolution (ex : les « skills » qui n’existaient pas il y a 6 mois).
La solution la plus pragmatique est de diffuser un document en interne pour encadrer les usages et orienter les salariés vers les bons outils : une charte d’utilisation.

Le problème est que l’IA générative est un sujet bien trop complexe et foisonnant pour ceux qui sont chargés de rédiger ces chartes. Il en résulte des documents généralement très restrictifs qui servent avant tout à informer les salariés des risques liés à l’IA et de lister les interdits. Comment voulez-vous que l’adoption se fasse de façon naturelle et fluide dans ces conditions ?
Certes, puisque nous parlons du monde professionnel, il est tout à fait logique qu’un employeur cherche à encadrer les usages (pour éviter les dérives, limiter les risques…), mais il faudrait idéalement dans le même temps guider les utilisateurs dans l’évolution de leurs habitudes et l’acquisition de nouvelles méthodes de travail (ex : décomposer un problème en tâches avant de chercher à la résoudre).
Les chartes de grandes institutions, comme les Services du Premier Ministre (Charte relative à l’utilisation de l’IA générative) ou comme celle de la municipalité des agents de San Francisco (Generative AI Guidelines), sont pour moi tout à fait emblématique de cette volonté de contrôle (chercher à se couvrir) plutôt que d’exploration (inciter à la découverte de nouveaux usages). Et si en plus, vous commencez à vouloir y intégrer des principes d’éthiques, d’inclusion, de souveraineté… alors vous finissez par publier un document qui va torpiller tous les projets et saper toutes les initiatives individuelles.

Pourtant, les entreprises et organisations pourraient s’appuyer sur les chartes des médias sociaux publiées à la grande époque de Facebook et Twitter. Ainsi, il n’était pas question d’un document unique, mais de plusieurs chartes :
- Charte de présence (publique) ;
- Charte d’usages (interne) ;
- Charte éditoriale (pour les rédacteurs) ;
- Charte d’engagement (pour les modérateurs) ;
- Guide de réponses (pour les animateurs de communautés)
- …
L’intégration des médias sociaux dans l’activité des entreprises et organisations nous a enseigné qu’il ne fallait pas une charte unique, mais un ensemble de documents de travail pour encadrer et stimuler les différents usages en fonction du contexte et de la finalité.
Pour l’IA générative, c’est la même chose : il faut plusieurs documents de cadrage (Manifeste public, charte utilisateurs…), mais également des guides méthodologiques pour inciter les salariés à utiliser l’IA à son plein potentiel.
Une charte pour rassurer et inspirer, pas (que) pour interdire
J’ai tout à fait conscience d’enfoncer des portes ouvertes en écrivant ça, mais le fait est que ça fiat deux ans que j’accompagne des entreprises et institutions qui essayent tant bien que mal de faire bonne figure et d’afficher une posture confiante vis-à-vis de l’IA, alors que les niveaux de connaissances et compétences de mes interlocuteurs sont… très disparates (un moyen poli pour ne pas avoir à dire « très faibles »).
Dans la mesure où les Grands chefs à plumes n’ont qu’une compréhension très limitée de l’IA générative et de son potentiel, ils se contentent d’inscrire des interdits dans la charte interne et de temporiser le démarrage des grands chantiers de transformation, ceux qui nécessitent un bon niveau d’adoption de l’IA, adoption qui est justement bridée par la charte IA.

J’imagine que vous n’avez pas besoin de moi pour comprendre qu’une charte listant les risques et interdits est le meilleur moyen de donner des prétextes aux septiques et de freiner l’adoption. Mais c’est, je pense, toujours utile de le préciser.
Dans les missions que je mène pour mes clients, j’insiste toujours sur la nécessité d’éditer un document plus ambitieux qui inclut :
- une formulation précise de ce qu’est l’IA ainsi que de ce qu’elle change pour l’entreprise et son activité (la vision) ;
- l’identification des grands changements à venir, aussi bien dans l’offre que dans le fonctionnement de l’entreprise (la direction) ;
- la définition d’objectifs macro-socio-économiques servant à illustrer l’ampleur de ces changements (l’ambition).
C’est avec ce type de posture mûre et assumée que les Directions Générales vont pouvoir rassurer les salariés et amorcer la conduite du changement, certainement pas avec une liste de contre-indications. Et tant que vous y êtes, n’hésitez pas à entamer une réflexion sur un référentiel de compétences qui peut également s’avérer très utile : Un référentiel de compétences en IA pour faciliter l’adoption.
Bien évidemment, la formalisation d’un tel document (que j’appelle « Manifeste IA ») nécessite une réflexion de fond de la part du Comité de Direction pour pouvoir affiner la vision, la direction et l’ambition de l’entreprise en matière d’IA (ne pas se contenter d’une « Grâce à l’IA nous allons créer de la valeur pour nos clients« ). Réflexion qui ne peut être menée sereinement qu’après une phase d’acculturation et de montée en compétences, mais ça j’ai déjà eu l’occasion de vous l’expliquer. J’en ai même fait une offre à travers Acculturation-Numerique.fr !
Moralité : la rédaction et la diffusion d’une charte IA n’est pas une corvée administrative (se protéger), mais un outil clé de la conduite du changement et un levier pour propulser l’entreprise dans le XXIe siècle (tourner la page du XXe siècle et de la culture des emails / fichiers : Des intranets collaboratifs aux environnements numériques de travail augmentés par l’IA).
Questions / Réponses
Pourquoi le simple déploiement d’outils IA comme Copilot ne suffit-il pas à garantir des gains de productivité ?
Déployer un outil n’équivaut pas à l’adopter. L’IA générative représente un nouveau paradigme informatique : on ne se sert plus d’un logiciel pour effectuer une tâche, on donne des instructions à un agent pour qu’il réalise cette tâche sous notre supervision. Cette nouvelle façon de travailler nécessite un apprentissage et un changement d’habitudes que la simple mise à disposition d’une licence ne peut provoquer.
Qu’est-ce que la métacognition et pourquoi est-elle importante pour bien utiliser l’IA ?
La métacognition désigne la capacité à analyser ses propres processus de pensée : planifier son travail, s’auto-évaluer, ajuster sa méthode… Les études montrent que les collaborateurs dotés de cette compétence tirent les meilleurs résultats de l’IA, car ils savent décrire précisément leur contexte, formuler leurs contraintes et contrôler les résultats produits.
Quel est le principal écueil des chartes IA actuellement publiées par les entreprises ?
La plupart des chartes se concentrent sur les risques et les interdits, dans une logique de protection juridique. Ce positionnement défensif fournit des arguments aux sceptiques et freine l’exploration de nouveaux usages. Il en résulte une adoption timide qui ne permet pas de bénéficier pleinement du potentiel de l’IA.
Pourquoi est-il recommandé de produire plusieurs documents plutôt qu’une charte unique ?
L’expérience des médias sociaux l’a démontré : les usages varient selon les contextes et les métiers. Une charte unique ne peut couvrir à la fois les principes généraux, les guides méthodologiques et les bonnes pratiques spécifiques. Un ensemble de documents (manifeste, charte utilisateurs, guides pratiques…) permet d’encadrer les usages tout en stimulant l’appropriation.
Que devrait contenir une charte IA pour devenir un véritable levier de transformation ?
Au-delà des mises en garde, une charte efficace devrait inclure une vision claire de ce que l’IA change pour l’entreprise, l’identification des grandes évolutions à venir dans l’offre et le fonctionnement, ainsi que des objectifs ambitieux illustrant l’ampleur de la transformation. C’est cette posture assumée qui rassure les collaborateurs et amorce la conduite du changement.