course au progrès ou fuite en avant ? – FredCavazza.net


Depuis le lancement de ChatGPT en 2023, startups et géants numériques s’affrontent pour mettre au point les modèles génératifs les plus puissants ou les plus efficaces. Une course à l’innovation qui devient un enjeu géopolitique avec l’implication des grands nations et une rivalité toujours plus forte entre les différents blocs (USA, Chine, Europe…). À mesure que les capacités des intelligences artificielles progressent, notamment grâce à l’auto-apprentissage, l’urgence de donner du sens à cette course au progrès se fait ressentir, car les contours de la nouvelle civilisation qui se profile sont pour le moment très flous.

#IA #GenAI #TransfoNum


En synthèse :

  • Les modèles génératifs sont une technologie à usages généraux dont il est particulièrement difficile de comprendre le potentiel ou d’anticiper l’impact ;
  • Au-delà de ChatGPT ou de l’IA générative, les enjeux de la transformation numérique vont bien au-delà, car ils s’inscrivent dans la quatrième révolution industrielle ;
  • Les changements trop violents ou trop rapides induits par l’avènement de l’IA générative font peser le risque d’un effondrement systémique ;
  • Les bénéfices potentiellement offerts par les modèles génératifs sont nombreux sur le papier, mais se heurtent à la capacité d’évolution des organisations ;
  • De nouvelles méthodes dotent les modèles génératifs de facultés d’auto-apprentissage, une nouvelle phase dans la course à la puissance des IA, mais une quête dont nous avons perdu le sens et le contrôle.

Saviez-vous que la première utilisation des chatbots concerne maintenant des activités de soutien psychologique ? C’est le principal enseignement que je retiens de l’étude How People Are Really Using Gen AI in 2025 publiée sur le Harvard Business Review.

Nous retrouvons ainsi dans les trois premiers usages des chatbots : les compagnons virtuels, les conseils de vie courante et l’aide à la réflexion (trouver un but dans sa vie). Surprenant ? Oui et non, car il faut bien reconnaitre que nous entretenons des relations toujours plus ambigües avec les chatbots : People Are Losing Loved Ones to AI-Fueled Spiritual Fantasies.

Quelle va être l’évolution des usages ? Personne ne peut le dire précisément, même si nous avons une vision d’ensemble (Les scénarios d’adoption de l’IA générative pour 2025 et après). Ce qui est certain, c’est qu’il va y avoir beaucoup de changements pour beaucoup de monde, mais dans la mesure où il est très compliqué de dire précisément quoi, pour qui et quand, le message est difficile à entendre.

Si tout le monde s’accorde sur les incroyables capacités des modèles génératifs, dans la mesure où c’est une technologie à usages généraux, nous n’avons pas réellement d’éléments de comparaison, si ce n’est le web ou l’email. Ce qui explique la difficulté à faire comprendre le potentiel ou à anticiper l’impact : Il n’y aura pas d’IA généraliste, mais des IA pour des usages généraux.

De plus, avec les capacités sans cesse plus poussées des modèles génératifs, il est difficile d’anticiper les prochains usages, de même que le niveau d’exposition au risque de remplacement de telle activité ou modèle économique. Pour vous en convaincre, il suffit de regarder les niveaux atteints par les modèles les plus récents sur les tests de QI : Tracking AI.

À une époque pas si lointaine, on nous expliquait que les logiciels dévoraient le monde, avec les IA, ce sentiment de submersion intellectuel est encore plus fort : The great software rewiring: AI isn’t just eating everything; it is everything.

This is not an evolution; it is a coup. GenAI is not just another technology layer; it has the potential to eat the entire software industry from the inside out. The old software model was built on scarcity. Control distribution, limit access, charge premiums. AI obliterates this. The new model is fluid, frictionless, and infinitely scalable.

The platforms and businesses that fail to adapt may well be relegated to the history books, joining the ranks of those who dismissed the internet, mobile and cloud before it. AI is not just the next software wave; it is the wave that breaks everything before it. The only question left is: Who rides it and who gets drowned?

L’humanité est-elle réellement au bord du précipice intellectuelle ? Tout dépend de quelle humanité on parle, et surtout de l’échelle de temps, car plus on se projette loin dans l’avenir, et plus les prédictions se substituent aux prévisions. Il est donc important de ne pas paniquer face à ces discours alarmistes. D’autant plus que l’automatisation est un phénomène naturel : nous ne faisons que rendre aux automates les emplois qu’ils étaient censés occuper (IA et emploi : pourquoi je ne crois pas au « grand remplacement » de l’Homme par la machine)

On a conçu des emplois pour des robots, mais comme on n’avait pas de robots on les a donnés à des humains. Maintenant qu’on a les robots, autant libérer des humains de ces emplois qu’ils n’aiment pas et dans lesquels ils ne s’épanouissent pas. Pour en faire quoi ? Leur donner des jobs plus porteurs de sens et épanouissants, qui leur permettent bien sûr de mieux exprimer les qualités qui les différencient des machines.

Encore une fois, il convient de faire preuve de réalisme et surtout d’un minimum de prise de hauteur pour bien apprécier la situation dans son ensemble et ne pas aborder le changement par le prisme des modèles génératifs.

Avec la frénésie ambiante et un rythme d’innovation très élevé (de nouveaux modèles sortent tous les jours), nous avons du mal à prendre du recul et à replacer l’avènement de l’intelligence artificielle dans le contexte de la 4e révolution industrielle, celle que je décrivais déjà en 2018 : De l’apport de l’intelligence artificielle pour la quatrième révolution industrielle.

L’expression « révolution industrielle » désigne le processus de changement rapide de l’industrie qui a modifié en profondeur l’agriculture, l’économie et la société. La révolution industrielle marque ainsi le passage d’un système de production artisanale, manuelle et répartie dans une multitude de lieux dispersés à une production à grande échelle, utilisant des machines et centralisée.

Dans le contexte du 21e siècle où les secteurs tertiaires et quaternaires sont dominants en Occident, le « système de production manuelle » fait référence à toutes les manipulations que nous réalisons avec les outils informatiques ou numériques (fichiers, emails…), tandis que les machines centralisées désignent les ressources informatiques dans le cloud (applications en ligne, modèles statistiques et génératifs…). Selon cette optique, on comprend mieux l’ampleur des changements à venir, car un quotidien professionnel reposant sur les fichiers et emails est un mode de fonctionnement qui a largement montré ses limites et qu’il nous faut impérativement abandonner au plus vite : L’IA pour restructurer les informations et données.

Avec l’avènement des l’IA et des modèles génératifs, de grands bouleversements sont donc à prévoir, ça vous le saviez déjà. Ce qu’il est plus difficile d’appréhender est le risque que ces bouleversements soient précipités par l’IA et que les changements soient très (trop) violents, car très (trop) rapides. Certains anticipent ainsi une forme d’effondrement systémique des organisations actuelles lié à un manque de souplesse face à l’avènement des IA : Gradual disempowerment, systemic existential risks from incremental AI development.

Mais ce n’est pas tout, car il existe des scénarios encore plus alarmistes, notamment celui d’AI 2027 qui parle de militarisation de l’IA, avec des arguments plus ou moins pertinents, mais visiblement la volonté de nous faire peur : AI 2027, une bonne vieille daube.

Et pourtant, il y a bien une course à l’armement, mais figurée, pas littérale, avec des modèles toujours plus puissants offerts à des utilisateurs qui ne réalisent pas réellement le potentiel des services qu’ils ont entre les mains : Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA.

Voilà pourquoi nous entendons ou lisons régulièrement des discours contradictoires qui brouillent la compréhension du potentiel de l’IA générative et perturbent son adoption : «Nous sommes à la veille de la désillusion» : le père de l’assistant vocal Siri dénonce les mensonges et les mythes autour des IA génératives.

Je pense que ce sont les bêtises et mensonges autour de l’IA qui ont rendu son histoire aussi chaotique, et c’est ce qui nous pend au nez si nous réitérons les mêmes erreurs. Une fois de plus, on nous fait croire que cette technologie va finir par nous remplacer, un peu comme les IA fantasmées de Hollywood.

Nous sommes à la veille de la désillusion, et cela m’embête, car ce qui suit est ce qu’on appelle l’hiver de l’IA. Cela veut dire que les investisseurs se retirent de ce champ, et que les entreprises s’en détournent, car ils se rendent compte qu’on leur a promis n’importe quoi.

Et pourtant, nous n’en sommes qu’aux prémices de l’IA générative, car la compréhension et les usages sont balbutiants : La maitrise des prompts est une étape indispensable à l’adoption de l’IA générative. Pour vous la faire courte : tout reste à faire.

La publication de modèles génératifs open source offrant d’excellentes performances et les progrès rapides et variés ont généré un sentiment d’euphorie comme j’en ai rarement connu, si ce n’est à la grande époque du Web 2.0. Cette euphorie a favorisé des décisions précipitées comme les licenciements à grande échelle annoncés l’année dernière : Impact de l’IA et de l’automatisation sur la main-d’œuvre : suppressions d’emplois chez Klarna, UPS, Duolingo, Intuit et Cisco. Des décisions hâtives sur lesquelles certains sont déjà revenus avec les premières désillusions : Going « AI first » appears to be backfiring on Klarna and Duolingo.

Il ne vous aura ainsi pas échappé qu’il existe d’innombrables projets pilotes liés à l’IA générative, mais très peu de déploiement à grande échelle. Les raisons invoquées sont généralement que les modèles utilisés manquent de maturité, de même que les collaborateurs, de même que le système d’information que l’on essaye de faire évoluer. En gros : rien, ni personne n’est prêt à faire le big bang.

Nous nous retrouvons ainsi dans un début de scénario d’évolution lente, comme ça a été le cas pour le cloud computing, un paradigme informatique pour lequel il n’y avait pourtant que très peu d’arguments défavorables (ce qui n’est pas le cas de l’IA générative).

Ce que j’observe régulièrement chez mes clients, pour lesquels le déploiement est effectivement compliqué, est que les modèles génératifs bénéficient aux individus, mais pas forcément aux organisations : Power to the people: How LLMs flip the script on technology diffusion.

The future is already here, and it is shockingly distributed!

Des modèles plus puissants, c’est-à-dire capables d’obtenir de meilleurs scores aux tests de QI, vont-ils aider les salariés à être plus productifs ? Personne ne sait. Mais dans le doute, les éditeurs s’efforcent d’optimiser leurs modèles pour obtenir le meilleur score possible au test ARC-AGI, qui fait référence, avec une progression spectaculaire, mais contestable, car les ressources mobilisées sont conséquentes (il a fallu dépenser l’équivalent de plusieurs centaines de milliers de $ pour obtenir 88%), et les scores sont beaucoup plus bas avec la nouvelle version du test (Analyzing o3 and o4-mini with ARC-AGI).

La conclusion que nous pouvons en tirer est que nous avons quasiment atteint le plafond de l’intelligence computationnelle, sauf que, la nouvelle génération d’IA (les modèles de raisonnement) nous sont présentés comme la dernière étape avant l’IA générale (l’AGI), mais ne proposent pas réellement de raisonnement « fluide » comme le font les humains : The Man Out to Prove How Dumb AI Still Is.

De nouveaux types de tests ont ainsi été créés pour littéralement mettre les modèles génératifs en échec et leur laisser ainsi une marge de progression (ex : Humanity’s Last Exam). Pour le moment, c’est toujours le modèle o3 d’OpenAI qui domine, mais Google n’est pas très loin avec Gemini 2.5 Pro (cf. Performance Comparison).

Que se passera-t-il une fois que les modèles génératifs auront franchi ce cap et proposeront un score de 100% à ces tests ? Nous ne savons pas, et nous ne savons même pas si c’est possible, car je vous rappelle que tous les contenus disponibles ont déjà été utilisés pour entrainer les modèles (The AI revolution is running out of data. What can researchers do?). À défaut d’en améliorer la qualité, les éditeurs font maintenant tourner leurs modèles plus longtemps pour en améliorer les performances : AI Spending Boom Shifts From Training Models to Running them.

À partir de ce constat, doit-on abandonner l’idée de mettre au point l’IA générale ? Je ne sais pas, et ça ne m’intéresse pas de le savoir, car personne n’est d’accord sur la définition de ce qu’est l’IA générale. Cette notion étant clairement dévoyée, je préfère parler de super intelligence artificielle (SIA). À partir de quand une IA est-elle super-intelligente ? À partir du moment où elle peut apprendre toute seule. La clé réside donc toujours dans les données d’entrainement et dans le renforcement des modèles.

Comme nous venons de le voir, l’intelligence la puissance des modèles génératifs progresse moins rapidement du fait de l’épuisement des données d’entrainement. Nous sommes donc logiquement maintenant dans une logique de rationalisation des coûts d’entrainement (Alibaba’s New AI Training Method Cuts Search Costs by Nearly 90%) et d’inférence (Mistral claims its newest AI model delivers leading performance for the price), car il y a de grosses différences entre les modèles.

L’intérêt d’optimiser les coûts d’entrainement et d’inférence des modèles n’est pas qu’économique, car il y a une logique derrière cette pratique : prendre l’avantage une fois que les modèles seront capables d’apprendre par eux-mêmes. À partir de ce moment-là, ce ne sera plus qu’une question de temps et d’argent…

Ce point de bascule lié aux facultés d’auto-apprentissage des modèles est-il plausible ? On pourrait en douter, car cela fait des années que les éditeurs explorent la piste des données synthétiques pour entrainer les modèles. Ceci étant dit, les équipes de DeepMind explorent d’autres scénarios d’apprentissage, et notamment une nouvelle approche d’apprentissage par renforcement.

Jusqu’à présent, les contenus servant à entrainer les modèles (les connaissances) étaient générés par l’homme, sur la base de ses observations / réflexions. Des contenus qui peuvent être incomplets et biaisés. De même, l’affinage des modèles était réalisé par des humains (RLHF = « Reinforcement Learning from Human Feedback« ). Une première étape consiste à faire du renforcement par retours machine, du RLMF (« Reinforcement Learning from Machine Feedback« ), c’est ce qu’ils ont fait avec succès grâce à leur modèle AlphaProof qui a été capable de compléter l’entrainement du modèle AlphaZero pour pouvoir résoudre des problèmes mathématiques redoutablement complexes : AI achieves silver-medal standard solving International Mathematical Olympiad problems.

Ainsi, l’important n’est plus les données d’entrainement, mais la capacité d’apprentissage. D’autant plus si nous envisageons une seconde étape : laisser les machines faire leurs propres observations et mener leurs propres réflexions.

Selon cette approche, les modèles pourraient se faire eux-mêmes une représentation du monde qui les entoure pour pouvoir mieux l’appréhender et interagir avec. Là encore, nous pourrions croire à un scénario issu d’un mauvais film de science-fiction, sauf que nous disposons déjà de tous les capteurs possibles et de tous les modèles d’analyse (textuel, auditif, visuel…) nécessaires à une démarche d’auto-apprentissage des intelligences artificielles : Comment DeepMind s’affranchit de l’humain pour concevoir ses IA.

Ce qui est discuté ici n’est ni plus ni moins qu’un nouveau paradigme de l’intelligence artificielle, car nous passons de l’ère des données et contenus d’entrainement produits par l’homme à l’ère des expériences d’apprentissage : des IA capables d’observer et d’apprendre par elles-mêmes (Welcome to the Era of Experience).

C’est à ce stade de mes explications que vous êtes censé vous dire : « OK, mais donc l’IA générale (AGI) n’est peut-être pas si loin, non ?« . Et je vous réponds sans hésiter : Nous ne savons pas, et peu importe, car vous ne vous posez pas la bonne question.

Si je résume : les progrès des IA génératives sont manifestes, ces dernières vont entre dans une nouvelle phase où leurs progrès seront exponentiels, mais quels sont les bénéfices concrets pour les utilisateurs ou les salariés ?

Il est ainsi nécessaire de rouvrir le débat sur l’accelerationisme effectif (cf. Des dangers du dogmatisme technologique), car cette course à l’IA générale fait passer au second plan des problèmes bien réels auxquels personne ne peut se soustraire, même pas les IA qui consomment beaucoup d’énergie : Quand la course à l’innovation devient contre-productive.

Il est également important de rappeler que tous les pays n’ont pas la même vision du progrès. Ainsi, avant d’envoyer sur le terrain des machines auto-apprenantes, il convient dans un premier temps de se demander ce que l’on veut les laisser apprendre, et surtout de définir et prioriser les objectifs. Formulé autrement : quels sont les problèmes que l’on souhaite résoudre ?

Et encore une fois, tout le monde n’est pas d’accord, car des visions très différentes s’opposent entre les USA, la Chine, l’Inde, l’Europe, la Russie… Et le pire dans cette histoire, c’est qu’au sein d’un même pays, les visions divergent (exemple au hasard : La France).


Toutes ces réflexions sur l’évolution de l’IA et l’accélération de la progression des modèles génératifs sont aussi passionnantes que terrifiantes. Ne pensez pas que j’affabule, car nous avons tendance à sur-estimer les impacts à court terme et à sous-estimer les impacts à long terme. Quoi que là, nous parlons plutôt de moyen terme, puisque d’ici à 2 ou 3 ans l’IA va radicalement changer la nature du travail pour les cols blancs (ça sera l’objet de mon prochain article).

Quoi qu’il advienne, je souhaite sincèrement que chacun, hommes et machines, puisse contribuer de la façon la plus efficace possible à cette nouvelle civilisation qui est en train d’être façonnée par l’IA : Du Web4 à la Société 5.0. Je reste optimiste, mais je commence à me sentir un peu seul…


Questions / Réponses :

Pourquoi parle-t-on d’une « course à l’IA » et en quoi cela concerne aussi les États ?

Depuis le succès de ChatGPT, les grandes entreprises technologiques se livrent une compétition intense pour développer les intelligences artificielles génératives les plus performantes. Cette rivalité s’étend au plan géopolitique, avec des stratégies nationales divergentes (USA, Chine, Europe…) où l’IA devient un levier de puissance économique, technologique et militaire.

L’IA générative va-t-elle vraiment transformer tous les métiers ?

L’IA générative est une technologie à usage général, ce qui signifie qu’elle peut potentiellement intervenir dans une grande variété de domaines, sans se limiter à un secteur précis. Son impact sera progressif et différencié selon les métiers, mais les « cols blancs » (emplois intellectuels ou administratifs) sont les plus exposés à court et moyen terme.

Faut-il craindre que les IA deviennent un jour « super intelligentes » ?

Le concept de « super-intelligence » désigne une IA capable d’apprendre seule, de produire ses propres raisonnements et de se représenter le monde. Si ce scénario est techniquement exploré, il reste très hypothétique. Les progrès actuels sont réels, mais dépendent encore largement des données humaines et des processus d’apprentissage assistés.

Pourquoi parle-t-on d’un risque de désillusion autour de l’IA générative ?

Comme pour toute innovation, l’enthousiasme initial autour de l’IA générative peut mener à des attentes irréalistes. Beaucoup de projets pilotes peinent à se transformer en déploiements concrets. Le manque de maturité technologique, les limites des systèmes d’information et la complexité du changement expliquent ce décalage.

Quelles sont les vraies questions à se poser face à cette évolution technologique ?

Plutôt que de fantasmer sur l’IA générale, il est plus utile de s’interroger sur l’usage que nous voulons faire de ces technologies : à quels problèmes doivent-elles répondre, quels objectifs leur assigne-t-on, et dans quel cadre éthique ? Ces choix relèvent de décisions humaines, politiques et collectives bien plus que d’innovations techniques.



Source link