L’IA doit nous aider à mieux réfléchir et non réfléchir à notre place


Trois ans après le raz-de-marée ChatGPT, l’IA générative reste largement mal comprise, mal utilisée et mal encadrée en entreprise. Entre promesses mirobolantes des éditeurs et chatbots qui simulent des émotions, il est urgent de remettre chacun à sa place. Je vous propose dans cet article de déconstruire les modèles mentaux qui freinent une adoption efficace de l’IA générative, et de tracer une ligne claire entre ce qui relève de l’humain et ce qui relève de la machine. Car la vraie question n’est pas de savoir comment faire plus avec l’IA, mais comment faire mieux, différemment, en pleine conscience (numérique).

#GenAI #TransfoNum


En synthèse :

  • L’adoption de l’IA souffre d’un problème de modèles mentaux, pas de technologie. Les utilisateurs oscillent entre surestimation (prêter aux IA des capacités qu’elles n’ont pas) et sous-estimation (les réduire à des gadgets ou photocopieuses), deux postures qui empêchent une adoption sereine et efficace en entreprise.
  • L’anthropomorphisme des robots et des IA est un piège cognitif. Donner une forme humaine aux robots ou simuler des émotions dans les chatbots ne répond pas à un besoin réel des utilisateurs, cela sert avant tout des logiques d’adoption / rétention qui brouillent la frontière entre humains et machines.
  • La vraie valeur de l’IA réside dans sa capacité différentielle, pas substitutive. Utiliser l’IA pour penser différemment (reformuler un problème, explorer des hypothèses, proposer de nouveaux angles d’analyse…) est bien plus pertinent que de l’utiliser pour simplement produire du contenu ou des réflexions à votre place.
  • Humains et IA doivent occuper des rôles distincts et complémentaires. Les problèmes humains (conflits, négociations, dilemmes éthiques) doivent rester du ressort exclusif des humains, car l’IA excelle sur les tâches rationnelles et cognitives (analyse de données, détection d’anomalies, génération de scénarios).
  • La gouvernance de l’IA est un enjeu organisationnel, pas technologique. Les entreprises doivent formaliser un manifeste et une charte IA pour définir ce qui est délégué, ce qui est préservé et quels garde-fous sont mis en place, afin d’éviter une sur-utilisation ou un rejet de l’IA laissés à la libre appréciation de chacun.

Cela fait maintenant plus de trois ans que ChatGPT a déclenché un raz-de-marée médiatique. Trois ans de promesses mirobolantes, d’annonces fracassantes et d’investissements colossaux autour de l’IA générative. Trois ans durant lesquels les éditeurs se sont livrés à une course effrénée à la puissance, dépensant des centaines de milliards de dollars dans l’espoir de franchir un seuil mythique (celui de l’AGI) dont personne n’est capable de donner une définition consensuelle.

Pourtant, si l’on prend un pas de recul, le constat est sans appel : le déploiement de l’IA se fait dans l’urgence, avec une adoption quasi forcée. Les entreprises sont sommées de s’équiper, les salariés de s’auto-former, les dirigeants de formuler une stratégie IA, le tout dans un climat où la peur de rater le train l’emporte sur la réflexion stratégique : Le web agentique engendre toujours plus de peurs et d’incompréhensions.

La grande question est de savoir pourquoi nous devrions nous laisser imposer un rythme par des éditeurs qui dépensent plus que de raison ou par des projets open source qui se révèlent être de véritables passoires : OpenClaw fever: why is China rushing to ‘raise a lobster’?

Ne pas confondre vitesse et précipitation

Il est grand temps de prendre du recul et de se poser les bonnes questions pour ne pas faire fausse route, car la marge de manœuvre est restreinte (ni de temps, ni d’argent à gaspiller). Le contexte de permacrise que nous traversons depuis plusieurs années ne permet ainsi pas les détours inutiles. Les budgets IT sont sous tension, les équipes surchargées et la dette numérique accumulée par les organisations n’a jamais été aussi lourde. Dans ce contexte, se lancer tête baissée dans l’IA pour « ne pas être en retard » est probablement la pire stratégie qui soit.

Ce dont nous avons besoin, ce n’est pas de plus d’IA, mais de meilleures conditions d’utilisation de l’IA. Pas de plus d’automatisation, mais de plus de discernement dans ce que nous choisissons d’automatiser. Et pour cela, il y a une réelle nécessité de (ré)expliquer ce qu’est l’IA (ou pas) et ce que les modèles génératifs peuvent faire (ou pas). Ceci afin d’éviter que les utilisateurs potentiels ne forgent des modèles mentaux qui ne sont pas les bons (a priori, craintes ou espoirs disproportionnés…) et nuisent potentiellement à une adoption sereine : La fracture numérique est un problème que personne ne peut ignorer.

Car c’est bien là que réside le problème : les modèles mentaux. L’IA générative, parce qu’elle manipule du langage naturel et produit des résultats d’apparence humaine, crée une confusion profonde. Les utilisateurs oscillent entre deux extrêmes au sujet de l’IA générative : soit ils la surestiment (en projetant sur elle des capacités de raisonnement, d’empathie ou de créativité qu’elle ne possède pas), soit ils la sous-estiment (en la réduisant à un gadget proche d’une photocopieuse). Ces deux postures sont aussi nocives l’une que l’autre pour une adoption efficace.

L’IA et les robots occupent la place qu’on leur attribue (même à tort)

Il est ainsi essentiel que chacun reste à sa place (humains, IA et robots). Cette affirmation peut sembler triviale, mais elle est loin de l’être. Les frontières entre ces trois types d’entités sont délibérément brouillées par les stratégies marketing agressives des éditeurs, une couverture médiatique sensationnaliste et un imaginaire collectif nourri de science-fiction. Clarifier ces frontières n’est pas un exercice philosophique abstrait : c’est une condition préalable à toute stratégie d’adoption responsable.

Par exemple, les robots sont là depuis 60 ans, ils sont maintenant acceptés dans l’opinion publique (modèle mental cohérent avec la réalité), mais sous couvert d’innovation, on essaye aujourd’hui de leur faire occuper une place qui n’est pas la leur : celle des humains, avec une nouvelle génération de robots humanoïdes (China unveils humanoid robot standards committee with members from Unitree, ZhiYuan, Xiaomi, Huawei, ZTE and XPeng).

Cet anthropomorphisme n’est ni anodin, ni innocent : il répond à des logiques mercantiles et de projets géopolitiques bien plus qu’à des besoins réels (China’s Humanoid Bots Were Everywhere at America’s Top Tech Show).

Les robots ne sont pas des humains plus performants, ils restent des machines

L’année 2025 a été marquée par une véritable fièvre des robots humanoïdes : Tesla avec Optimus, Unitree avec le G1, ou encore 1X Technologies avec Neo, présenté comme le premier robot humanoïde grand public prêt à l’emploi. La promesse est séduisante : un robot ménager qui fait vos corvées pendant que vous vous consacrez à ce qui compte vraiment. La réalité est néanmoins sensiblement différente : I Tried the Robot That’s Coming to Live With You, It’s Still Part Human.

Une idée grotesque, parfaite illustration de cet anthropomorphisme toxique, car derrière les vidéos promotionnelles, la réalité est très décevante : Neo, dans sa version actuelle, repose en grande partie sur la télé-opération (des opérateurs humains, équipés de casques de réalité virtuelle, regardent à travers les yeux du robot et guident ses mouvements). Ce n’est clairement pas de l’IA, c’est de la marionnette connectée !

Le problème n’est pas technique (la télé-opération est une étape nécessaire pour collecter les données d’entraînement), mais narratif : présenter ce robot comme un compagnon domestique autonome, c’est nourrir un modèle mental erroné. C’est laisser croire que la technologie est plus avancée qu’elle ne l’est réellement, et que la cohabitation humains / robots est imminente, bénéfique et souhaitable. On touche là à une limite éthique qui devrait suffire à refroidir les enthousiasmes.

Mais le plus troublant dans cette histoire est que ces startups s’inscrivant dans la mouvance des robots humanoïdes sont en train de réinventer la roue, car les robots ménagers existent déjà : aspirateurs autonomes, appareils de cuisson programmables, lave-vaisselle, lave-linge avec cycles automatiques… Tous ces appareils électroménagers fonctionnent parfaitement depuis des décennies et cohabitent harmonieusement avec les humains. Pourquoi ? Parce que ces appareils n’essaient pas de ressembler à des humains, ils sont conçus pour accomplir des tâches spécifiques avec efficacité, sans prétention ni anthropomorphisme. Ils ne vivent pas avec nous, ils travaillent pour nous, et c’est exactement ce que nous attendons d’eux.

La tendance actuelle à vouloir donner une forme humaine aux robots relève d’un solutionnisme technologique poussé à l’extrême. On ne résout pas le problème du rangement domestique en créant un robot humanoïde à 20.000 dollars qui plie maladroitement du linge. On le résout en repensant les espaces de rangement (penderies articulées), les matériaux (tissus infroissable)… La fascination pour la forme humaine des robots est un piège cognitif qui détourne l’attention des solutions réellement efficaces.

Les machines (robots, IA…) ne sont pas des humains, elles ne le seront jamais (par définition), et elles ne doivent jamais l’être (par choix). Cette triple affirmation mérite d’être martelée, car startups et géants numériques travaillent activement à brouiller cette frontière, et l’histoire nous enseigne que les confusions conceptuelles finissent toujours par avoir des conséquences réelles (adoption lente, déception, usages détournés…).

Les intelligences artificielles doivent rester artificielles

Si les robots humanoïdes sont une impasse mécanique (ils n’auront jamais la polyvalence et l’autonomie qu’on nous promet), celui des IA empathiques est une impasse cognitive. Les éditeurs se donnent ainsi beaucoup de mal pour essayer de doter les IA d’une forme d’humanité, de leur apprendre les sentiments, mais pourquoi et qui l’a demandé ? Certainement pas les utilisateurs (il est extrêmement perturbant de dialoguer avec un chatbot qui simule des émotions). Plus vraisemblablement parce que cela facilite la création d’habitudes, d’attachement, et donc de rétention. On retrouve ici les mêmes mécanismes que ceux dénoncés depuis une décennie à propos des grandes plateformes sociales : l’engagement comme métrique suprême, au détriment du bien-être des utilisateurs. Comme si l’innovation technologique était nécessairement source de progrès…

Comme le fait fort justement remarquer Joanna Maciejewska : « I want AI to do my laundry and dishes, so that I can do art and writing ; not AI to do my art and writing, so that I can do my laundry and dishes« .

Cette citation devenue virale capture avec une grande lucidité le paradoxe du déploiement actuel de l’IA : on investit des centaines de milliards de $ pour que l’IA écrive des emails, génère des images, compose de la musique, rédige des rapports (autrement dit, les activités créatives et intellectuelles qui donnent du sens au travail), plutôt que de concentrer les efforts sur l’automatisation des tâches réellement pénibles et répétitives (traitement de dossiers administratifs, extraction et consolidation d’informations et de données…). Ce choix n’est pas neutre : il reflète les priorités économiques des éditeurs (monétiser les cas d’usage les plus visibles) et non les besoins réels des utilisateurs (gagner du temps, ou en perdre moins).

Les IA ne sont pas là pour et ne doivent pas chercher à nous remplacer. Présenter les choses autrement relève soit de l’hérésie, soit d’une mécompréhension totale de ce qu’est l’IA. Un modèle de langage, aussi puissant soit-il, ne comprend rien : il calcule des probabilités sur des séquences de fragments de mots (les tokens). C’est un outil probabiliste extraordinairement performant, mais pas une conscience. Et c’est précisément parce qu’il n’a pas de conscience qu’il est utile : il peut traiter des grands volumes d’information sans aucun biais, identifier des schémas récurrents sans être pollué, et produire des variantes de contenus textuels et graphiques à l’infini, sans se fatiguer ou remettre en question le besoin de l’utilisateur.

En prolongement, les IA génératives (et plus particulièrement les modèles de raisonnement) ne servent pas à penser comme nous, mais à nous amener à penser différemment. C’est là que réside leur véritable valeur ajoutée, et c’est cette valeur ajoutée que nous gaspillons en les utilisant comme de simples générateurs de contenu ou des assistants de rédaction. Quand vous demandez à un modèle de raisonnement de décomposer un besoin complexe en tâches plus simples, d’évaluer vos hypothèses ou de proposer des angles d’analyse que vous n’aviez pas envisagés, vous exploitez sa capacité différentielle (ce qu’il fait que vous ne faites pas aussi bien). Quand vous lui demandez de rédiger un email à votre place, vous exploitez sa capacité substitutive (ce qu’il fait à votre place), et vous perdez au passage le bénéfice de l’exercice intellectuel.

La bonne question n’est donc pas « Qu’est-ce qu’on peut automatiser ? » (faire faire), mais « Qu’est-ce qu’on peut faire différemment ? » (essayer de faire mieux), car travailler plus vite ne changera pas la donne. Ce changement de perspective est fondamental, car il implique de repenser la manière dont nous abordons l’intégration de l’IA dans les processus de travail : de façon additive et non substitutive.

Des usages conscients et viables de l’IA

La bonne approche serait de déléguer aux IA les tâches urgentes ou répétitives, mais en conscience, pour prendre de la hauteur et s’autoriser des réflexions de plus haut niveau. Ne pas chercher à faire toujours plus, mais à faire mieux. Ceci implique non pas d’accélérer le rythme, la cadence de travail, mais de changer de rouages ou braquet. Donc d’utiliser l’IA comme un tremplin vers la pensée stratégique (du travail cognitif de plus haut niveau) plutôt que comme un accélérateur de production.

Nous touchons ici à une nouvelle facette de la pleine conscience numérique, un concept que j’avais exploré dès 2018 : De l’illectronisme à la pleine conscience numérique.

À l’époque, la réflexion portait sur la surconnexion et la dépendance aux smartphones. Aujourd’hui, cette notion prend une dimension nouvelle avec l’IA : il ne s’agit plus seulement de maîtriser notre consommation d’écrans, mais de maîtriser notre relation à des outils qui, pour la première fois, peuvent émuler un travail intellectuel. La pleine conscience numérique à l’ère de l’IA, c’est savoir quand déléguer et quand s’abstenir, quand accélérer et quand ralentir, quand automatiser et quand préserver l’effort humain.

L’objectif est de passer de « Faire plus avec moins » (modèle mental erroné, hérité d’une vision purement productiviste de la technologie) à « Faire mieux parce que différemment » (modèle mental beaucoup plus réaliste, ancré dans une compréhension fine de la complémentarité humains / machines). Cette transition n’est pas qu’intellectuelle : elle implique des changements organisationnels, managériaux et culturels profonds.

Et ce n’est pas un vœu pieux ou une prospective lointaine. Nous pouvons dès aujourd’hui profiter de l’apport méthodologique des modèles de raisonnement grâce aux Skills, ces ensembles d’instructions structurées qui standardisent et normalisent les interactions avec l’IA. Les Skills transforment l’IA d’un outil générique aux réponses aléatoires en un assistant méthodologique fiable et maîtrisé (guidage cognitif). C’est dans cette direction que nous devrions concentrer nos efforts : non pas rendre l’IA plus humaine, mais la rendre plus méthodique pour assister les salariés dans leurs réflexions et tâches quotidiennes.

Recentrer les usages sur la résolution de problèmes, oui mais lesquels ?

On nous parle de l’intelligence générale artificielle (AGI) comme celle qui est capable de résoudre tous les problèmes. Sam Altman, le patron d’OpenAI, a déclaré en fin d’année dernière que « Nous avons construit l’AGI » et que « L’AGI est passée en un éclair« . Elon Musk promet une IA plus intelligente que le plus intelligent des humains dans le courant de l’année 2026. Les prédictions se multiplient, chaque éditeur surenchérissant pour annoncer un calendrier plus ambitieux que le concurrent. Le Saint Graal de la course à l’AGI est de concevoir le plus rapidement possible une superintelligence capable de résoudre tous les problèmes. Pourtant, nous n’avons pas correctement défini ce qu’est un problème. Tant que nous n’aurons pas clarifié pas cette notion de « problème », toute la rhétorique autour de l’AGI reste un exercice de communication à propos d’une technologie théorique.

Si l’on s’en tient à la définition sociale : un problème est une situation conflictuelle, c’est donc un problème humain par essence. Les conflits interpersonnels, les négociations, les dilemmes éthiques, les arbitrages entre des intérêts contradictoires : tout cela requiert de l’empathie, de l’intuition, de la connaissance du contexte social, culturel et émotionnel. Des compétences que l’IA ne possède pas et ne possédera pas, car elles sont le produit d’une existence biologique et sociale que les machines n’ont pas.

Mais si l’on aborde le mot « problème » dans sa définition stricte, un problème est une situation qui exige une réponse, donc la nécessité d’aborder différemment la question posée pour trouver la bonne réponse (la solution potentielle). Et comme ous venons de le voir plus haut, c’est précisément là que l’IA excelle : reformuler un problème, proposer des pistes de réflexion alternatives, tester des hypothèses à grande vitesse, identifier des corrélations dans des masses de données. En un mot : l’IA générative nous aide à augmenter notre capacité à explorer l’espace des solutions possibles.

La définition de la folie (attribuée à Einstein, probablement à tort, mais la formule reste percutante) est de répéter les mêmes gestes en espérant un résultat différent. Or, c’est exactement ce que font beaucoup d’organisations avec l’IA : elles automatisent les mêmes processus dysfonctionnels, accélèrent les mêmes workflows inefficaces, produisent plus vite le même type de contenu que personne ne lit. L’IA ne fait alors qu’amplifier les défauts existants, plus rapidement et à plus grande échelle.

Voici pourquoi il faut faire une distinction claire : les humains doivent s’occuper de la résolution des problèmes humains, donc des situations conflictuelles (médiation, négociation, décision éthique, leadership, accompagnement) ; tandis que les IA doivent se concentrer sur l’exécution de tâches (même à fort niveau de cognition) comme l’analyse de données, l’optimisation de processus, la détection d’anomalies, la recherche d’hypothèses ou la génération de scénarios. Cette distinction n’est pas un appauvrissement du rôle de l’IA, c’est une clarification qui lui permet d’être utilisée là où elle est réellement supérieure, tout en préservant les espaces où l’humain est irremplaçable.

Pour illustrer cette distinction, je vous propose de découvrir les résultats de cette étude très intéressante portant sur près de 760 consultants du BCG : Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of Artificial Intelligence on Knowledge Worker Productivity and Quality. Les enseignements sont les suivants :

  • Les consultants ayant utilisé l’IA générative ont augmenté de 12% leur taux de complétion de tâches faisant appel à l’analyse ou la créativité, tout en diminuant le temps de complétion de 25%, et ce avec un gain significatif en qualité.
  • En revanche, les consultants séniors ayant utilisé l’IA pour gérer des problèmes managériaux (= humains) ont constaté une baisse de 19% de la pertinence des solutions.

Oui je sais, présenté comme ça, on a vraiment l’impression que cette étude a été conçue pour étayer les arguments exposés plus haut. Néanmoins, elle existe, et nous apporte des premiers éléments chiffrés.

Les IA (et robots) ne sont compétents que pour des tâches rationnelles

Comme vous vous en doutez, je ne suis pas certain que l’on puisse un jour mettre au point une superintelligence capable de résoudre tous les problèmes auxquels elle est confrontée, notamment les fameux problèmes humains. Une fois ce constat posé, il est bien plus pertinent de considérer l’AGI non pas comme pas un seuil, mais comme une trajectoire, une direction.

Ainsi, il convient de concentrer les efforts pour développer des systèmes d’IA qui soient de plus en plus puissants, à même de résoudre des tâches de plus en plus complexes avec un maximum d’autonomie. C’est la bonne direction, mais il faut rester lucide sur la portée réelle des IA, car l’humain est et restera un facteur limitant : nous ne sommes pas des machines, mais des êtres biologiques imparfaits, souvent irrationnels, et c’est ce qui fait à la fois notre faiblesse (imprévisibilité, manque de fiabilité, biais cognitifs, fatigue) et notre force (résilience, créativité, empathie, capacité d’adaptation à l’imprévu).

Cette imperfection biologique / hormonale n’est pas un défaut, c’est une caractéristique. C’est précisément parce que nous sommes irrationnels que nous pouvons faire des sauts créatifs que nulle machine ne peut reproduire. C’est parce que nous sommes émotionnels que nous pouvons établir des liens de confiance, motiver des équipes, inspirer des communautés. C’est parce que nous sommes faillibles que nous avons développé des systèmes de vérification, de débat, de démocratie. Vouloir « corriger » l’humain en le remplaçant par l’IA, c’est confondre efficacité et sens.

C’est dans cette complémentarité humains/IA qu’on aura le meilleur système : les humains pour les problèmes humains, les IA pour les problèmes fonctionnels ou techniques. Pas l’un à la place de l’autre, mais l’un avec l’autre, dans un schéma de responsabilités clairement défini. Une complémentarité qui doit être institutionnalisée, et non laissée à la libre appréciation des uns et des autres. Car, livré à lui-même, chaque individu aura tendance soit à sur-utiliser l’IA (par facilité ou par pression), soit à la rejeter (par méfiance ou par fierté professionnelle). Ni l’un ni l’autre ne constitue une stratégie viable.

Ceci doit être la priorité des organisations (entreprises comme institutions) : définir une place pour chacun (salariés et IA). C’est un travail de gouvernance, pas de technologie. Il ne s’agit pas de choisir le bon outil ou le bon modèle, mais de répondre à des questions fondamentales :

  • Quelles décisions voulons-nous continuer à prendre nous-mêmes ?
  • Quels processus acceptons-nous de déléguer ?
  • Quelles compétences voulons-nous préserver, développer, valoriser ?
  • Quels garde-fous mettons-nous en place ?

D’où l’intérêt de formaliser un Manifeste IA (vision, ambition, principes directeurs qui expriment la philosophie de l’organisation vis-à-vis de l’IA) et une charte IA (règles d’utilisation concrètes, cas d’usage autorisés et interdits, processus de validation, mécanismes de contrôle). Ces deux documents ne sont pas de la bureaucratie : ce sont des outils de pilotage stratégique qui permettent d’aligner l’ensemble des parties prenantes autour d’une vision commune.

Grâce à cette complémentarité organisée et gouvernée, nous arriverons à une forme d’équilibre social et économique. Un équilibre où l’IA ne cannibalise pas les emplois mais les transforme, où les gains de productivité ne se traduisent pas par une intensification du travail mais par une élévation de sa qualité, où l’innovation technologique ne crée pas de la précarité mais de la valeur partagée. C’est un horizon ambitieux, certes, mais c’est le seul qui soit soutenable à long terme. C’est la définition même du développement numérique durable.

Cette ambition est une condition indispensable pour aborder sereinement le passage à la Civilisation 5.0, cette évolution sociétale où le numérique, la biologie et l’organisation sociale convergent vers de nouveaux modèles. Nous sommes, qu’on le veuille ou non, engagés dans un basculement civilisationnel. La question n’est plus de savoir si ce basculement aura lieu, mais de savoir s’il se fera dans le chaos ou dans la lucidité. L’IA, bien utilisée, peut être un formidable levier pour cette transition. Mal utilisée, elle ne fera qu’accélérer les déséquilibres.

Le choix nous appartient, à condition de ne pas le laisser aux machines…


Questions / Réponses

L’IA générative peut-elle vraiment penser ou raisonner comme un humain ?

Non. Un modèle de langage, aussi puissant soit-il, ne comprend pas : il calcule des probabilités sur des séquences de fragments de mots (les tokens). C’est un outil probabiliste extraordinairement performant, mais ce n’est pas une conscience. C’est précisément cette absence de conscience qui le rend utile : il peut traiter de grands volumes d’information et identifier des schémas récurrents sans fatigue ni biais émotionnel.

Pourquoi les robots humanoïdes posent-ils problème s’ils peuvent nous aider au quotidien ?

Les robots spécialisés (aspirateurs autonomes, appareils de cuisson programmables…) existent déjà et fonctionnent très bien depuis de nombreuses années. Leur force est justement de ne pas chercher à ressembler à des humains, mais d’accomplir des tâches précises avec efficacité. Les robots humanoïdes actuels, souvent télé-opérés par des humains, entretiennent une confusion sur le véritable état d’avancement de la technologie et détournent l’attention de solutions plus pragmatiques.

Quelle est la meilleure façon d’utiliser l’IA dans son travail ?

L’approche la plus pertinente consiste à exploiter la capacité différentielle de l’IA : lui demander de décomposer un problème complexe, d’évaluer des hypothèses ou de proposer des angles d’analyse inédits. Il ne s’agit pas de lui déléguer la production de contenu ou de réflexions (capacité substitutive), mais de s’en servir comme d’un tremplin vers une réflexion de plus haut niveau.

Existe-t-il des preuves concrètes que l’IA améliore la productivité en entreprise ?

Plus ou moins. Une étude récente menée auprès de consultants du BCG montre que ceux ayant utilisé l’IA générative pour des tâches d’analyse ou de créativité ont augmenté leur taux de complétion de 12 %, réduit le temps nécessaire de 25 %, avec un gain significatif en qualité. En revanche, les consultants séniors qui l’ont utilisée pour gérer des problèmes managériaux (relationnels, organisationnels…) ont constaté une baisse de 19 % de la pertinence des solutions.

Par où commencer pour encadrer l’usage de l’IA dans son organisation ?

La priorité est de formaliser deux documents de gouvernance : un manifeste IA (qui exprime la vision et les principes directeurs de l’organisation vis-à-vis de l’IA) et une charte IA (qui définit les règles d’utilisation concrètes, les cas d’usage autorisés ou interdits et les mécanismes de contrôle). Ce travail de cadrage permet d’aligner l’ensemble des parties prenantes et d’éviter que l’adoption ne se fasse de manière anarchique.



Source link