Aviez-vous également remarqué que l’innovation technologique tourne à plein régime depuis quelques années ? Nous avons ainsi droit toutes les semaines à de nouvelles innovations « de rupture ». Tout ceci est très amusant à regarder pour les passionnés de NTIC, mais s’apparente clairement à une fuite en avant pour tout ce qui touche au marché de l’IA générative, car il n’y a quasiment aucune chance de rentabiliser ces investissements colossaux réalisés par les startups et big techs. Dans ce contexte, il devient très difficile d’expliquer ou de justifier cette débauche de moyens, car on ne sait pas trop qui sont ou qui seront les gagnants de cette course.

En synthèse :
- Le secteur numérique a connu plusieurs vagues d’accélération de l’innovation (Web 2.0, Web3, métavers…), mais nous atteignons des sommets avec l’IA générative et ses incessantes nouveautés ;
- L’innovation est bien évidemment nécessaire pour améliorer ou optimiser, mais elle est superflue quand elle ne poursuit qu’une recherche de l’exploit technique ;
- Les grandes sociétés technologiques sont lancées dans une course à l’innovation pour mettre au point des modèles génératifs toujours plus puissants, mais toujours plus gourmands, repoussant ainsi l’éventualité d’un point d’équilibre (ROI) ;
- Il est plus que temps d’aborder le marché de l’IA générative avec une vision plus réaliste et surtout une approche plus responsable, mais cette posture austère ne fait rêver personne ;
- L’enjeu de cette course à l’innovation est de mettre au point de solutions d’IA génératives qui soient viables aussi bien d’un point de vue économique, que social et environnemental.
Cela fait plus de 20 ans que je rédige ce blog, deux décennies à essayer de décortiquer les nouveaux usages et technologies numériques. Dans ce travail de décryptage, l’innovation est un sujet de fond inhérent au secteur du numérique. Ceci explique que je me livre régulièrement à des prises de hauteur sur les bonnes façons d’innover, d’autant plus récemment dans un environnement incertain avec des ressources limitées :
Y a-t-il de mauvaises façons d’innover ? Oui bien évidemment, surtout quand la démarche d’innovation est motivée par la recherche d’un exploit technique et qu’elle n’est pas au service d’une amélioration concrète permettant d’améliorer ou d’optimiser l’existant. Il y a également de très bonnes innovations, mais qui ne fonctionnent pas, car elles ne parviennent pas à trouver leur public, faute d’une bonne compréhension des bénéfices.

Bref, tout ça pour dire qu’une bonne innovation est une innovation qui crée de la valeur, soit pour les utilisateurs (les clients), soit pour les fournisseurs de produits ou services. Le problème est que la valeur potentiellement créée est subjective : il faut adopter l’innovation pour valider la création de valeur. Sauf que, si le marché est saturé d’innovations plus ou moins pertinentes, il n’y a que très peu de chances pour que cela se traduise en progrès réels, car le doute germe dans la tête des utilisateurs ou clients potentiels, donc neutralise l’adoption.
Et c’est justement ce que l’on peut constater actuellement avec un rythme d’innovation beaucoup trop élevé. Rien que sur les deux dernières semaines :
Il ne se passe pas un jour sans que l’on nous annonce une innovation qui va révolutionner telle ou telle industrie. Sauf que… plus personne n’est en mesure de suivre ce rythme effréné, d’autant plus que la compréhension des technologies et usages numériques reste très faible : qui est capable d’expliquer simplement ce que sont les modèles de raisonnement, les processeurs quantiques ou les tokens de dernière génération ?
Qu’à cela ne tienne, les techno-prophètes usent et abusent d’un jargon devenu incompréhensible pour valoriser ces innovations, car personne ne leur demande de simplifier, et certainement pas les petits malins qui en profitent pour s’enrichir : Trump’s WLFI launches ’Macro Strategy’ fund for Bitcoin, Ether, altcoins et Argentina’s President Javier Milei Launches Solana Meme Coin.

Certains sont très enthousiastes comme le Futur Today Institue qui parle de « Technology Supercycle« . Car après tout, n’est-ce pas le propre des révolutions industrielles que de bénéficier d’un effet cumulatif des innovations (« A period of explosive technological advancement driven by the convergence of multiple emerging technologies« ) ? En théorie si, mais en pratique, je n’observe que très peu de bénéfices concrets de toutes ces innovations (soi-disant) disruptives.
Essayons de prendre du recul et de voir où tout ceci peut nous mener.
Après la permacrise, la perma-innovation ?
Les pays occidentaux traversent ces dernières années une période trouble, ça vous le saviez déjà. L’Europe est ainsi engluée dans une succession de crises dont elle ne parvient pas à se sortir (crise politique, crise économique, crise sociale, crie énergétique, crise climatique…). Face à un quotidien aussi triste et des perspectives aussi déprimantes, je ne peux m’empêcher de penser que l’accélération de l’innovation est une sorte de fuite en avant, un moyen nous faire oublier que nous faisons du sur-place sur les défis du XXIe siècle : environnement, géopolitique, démographie… cf. Les macro-tendances et grands enjeux qui vont façonner la civilisation numérique du 21e siècle.
Il y a comme une logique d’innovation permanente qui contraste fortement avec la permacrise, et qui semble complètement inappropriée face aux problèmes très concrets des populations : En quoi le mode « Extended Thinking » de Claude 3.7 aide les personnes qui sont toujours en train de lutter contre les incendies à Los Angeles ? Loin de moi l’idée de jouer les démagogues, mais peut être est-il déplacé de célébrer toutes ces innovations comme de grandes victoires alors qu’elles ne règlent aucun des problèmes auxquels personne ne peut se soustraire (From Baywatch to toxic waste – LA’s iconic beaches unrecognisable after fires).

Tout ceci me donne l’impression que la Silicon Valley est dans un univers parallèle où rien ne peut arrêter la marche du progrès (l’innovation) et où tout devient une révolution technologique. Même les changements mineurs nous sont présentés comme la « breaking news » de l’année : Apple plans to integrate modem into iPhone processor.
C’est bien simple, tous les ans on nous fait le coup des enzymes gloutons : une technologie miracle qui (quand elle fonctionnera) pourra résoudre tous nos problèmes. La dernière innovation miraculeuse en date est celle des agents intelligents, ceux qui sont censés faire tout ce que les chatbots ne peuvent pas faire, qui eux-mêmes étaient censés faire tout ce que les outils informatiques ou numériques traditionnels ne peuvent pas faire : The Next 10 Years Will Be About the AI Agent Economy. Pourtant, nous nous doutons tous que les choses ne sont pas si simples (Les agents intelligents sont-ils les nouveaux navigateurs web ?).

Qu’à cela ne tienne, les éditeurs et cabinets de consulting se donnent beaucoup de mal pour essayer de « pomper » la vague jusqu’au bout, mais ça commence à se voir…
Quand on est incapable d’expliquer le présent, parler du futur est la meilleure façon de faire diversion
Voilà presque 2 ans 1/2 que ChatGPT est sorti, et les modèles génératifs nous sont toujours présentés comme une innovation révolutionnaire capable d’authentiques prouesses… sauf quand les réponses sont inventées, mais ça n’est pas grave, car il suffit de faire du RAG (autre technologie de rupture que l’on ne prend pas la peine d’expliquer)… sauf quand les chatbots sont limités, mais là encore ce n’est pas grave, car il suffit d’utiliser des agents intelligents (qu’encore une fois, personne ne s’embête à définir tellement c’est une évidence).
Comme j’ai déjà eu l’occasion de vous l’expliquer à plusieurs reprises dans de précédents articles, il est essentiel de ne pas se laisser aveugler par ces paillettes technologiques, car les signaux d’alerte sont là : Groundbreaking BBC research shows issues with over half the answers from Artificial Intelligence.

De ce déluge d’innovations, l’IA est assurément le domaine où l’effort d’innovation est le plus intense, ce qui peut se comprendre, car il y a encore beaucoup à explorer et améliorer. Le problème est qu’il y a énormément de « bruit » autour de l’intelligence artificielle : beaucoup trop de personnes qui prennent la parole sur le sujet avec des propos plus ou moins pertinents et surtout plus ou moins techniques. Sachant que quelle que soit la nature de la conversation que vous pouvez avoir avec un « spécialiste » de l’IA, la discussion se termine invariablement par l’évocation de telle ou telle percée scientifique illustrée dans une publication récente.
Si je ne remets absolument pas en cause les avancées des chercheurs, je déplore que les publications soient invoquées en tant qu’arguments irréfutables de la viabilité de telle ou telle solution. Car dans les faits, ces publications décrivent des observations réalisées sur des technologies expérimentales, donc pas du tout exploitables dans votre quotidien. De plus, le but de ces publications est de faire valider les observations par la communauté, ce qui n’est pas toujours le cas…
Quand j’ai débuté ma carrière professionnelle, l’analyse d’un marché se faisait en analysant les produits de la concurrence (ex : en allant faire des relevés dans les rayons des hypermarchés). Puis elle se faisait en analysant les sites web des concurrents (aux débuts du commerce en ligne). Puis en analysant les services en beta (à l’époque du Web 2.0). Puis en analysant les projets en phase alpha (à l’époque du Web3). Et maintenant elle se fait en analysant les publications scientifiques des équipes de recherche de tel ou tel éditeur. Vous conviendrez que ce n’est pas une base d’analyse solide pour prendre des décisions éclairées…

Je ne sais pas quel est le regard que vous pouvez porter sur cette dérive, mais j’ai la conviction que rien de bien ne peut sortir de cette fuite en avant, car l’important n’est pas de réaliser des percées scientifiques, mais d’avoir des technologies et usages viables, à la fois d’un point de vue économique (il existe des dizaines de modèles, mais aucun des éditeurs n’est rentable), ainsi que d’un point de vue énergétique et social : The Dark Side of Generative AI.
Si nous étions dans une économie en croissance avec l’accès à des ressources abondantes, nous pourrions nous permettre de rechercher l’exploit technologique. Mais ce n’est plus le cas, depuis longtemps. En cette période trouble, l’urgence n’est certainement pas d’innover plus, mais d’innover mieux, car une innovation est censée apporter ou renforcer un avantage compétitif (The Missing Link Between Strategy and Innovation), ce qui est loin d’être le cas pour toutes les nouveautés tournant autour de l’IA générative. Mais c’est malheureusement un discours inaudible dans la cacophonie actuelle, car nous sommes dans une sorte de ruée vers l’Ouest (numérique).
L’IA générative sera rentable ou ne sera pas
Je répète ce que j’ai écrit plus haut pour être certain d’être bien compris : l’innovation est indispensable pour faire progresser les usages et les technologies, c’est indéniable. Néanmoins, je doute fortement que les moyens financiers, techniques et humains qui sont mobilisés dans la R&D soient un jour rentabilisés. Nous parlons de centaines de milliards de dollars qui sont engloutis pour inonder le marché avec des innovations que quasiment personne n’est capable d’apprécier à leur juste valeur.
Ce que je déplore est que cette course à l’innovation à un prix qu’il va falloir payer deux fois : une première fois pour rembourser les investissements (ex : licences chez Microsoft ou publicités chez Google et Meta), une deuxième fois avec le manque à gagner des usages actuels que l’on s’empresse de disrupter.

Ainsi, l’impact de l’adoption de nouveaux usages sur l’écosystème numérique (e-marketing, e-commerce) va être gigantesque, au moins égal à celui des smartphones, sauf que les smartphones et applications mobiles étaient rentables… Ainsi, je m’interroge sur l’intérêt de dépenser des centaines de milliards de $ pour promouvoir une technologie qui n’est pas viable et ne le sera sans doute jamais en l’état (coûts de développement initiaux, coûts d’acquisition du matériel, coûts d’inférences…).
Le marché de l’IA générative partage un certain nombre de caractéristiques avec le transport aérien : des investissements initiaux colossaux pour un marché à fort potentiel, mais une hyper-concurrence et une impossibilité de se différencier de façon durable, donc des marges minuscules et une dimension écologique que l’on peut difficilement oublier.
Peut-être est-il temps d’aborder le marché de l’IA générative sous un autre angle ? Heureusement, les choses ont changé avec la dernière version de DeekSeek qui nous fait relativiser la course au gigantisme des éditeurs américains (Vers un marché plus responsable de l’IA générative) et qui permet au marché de mieux apprécier le positionnement d’éditeurs alternatifs comme Mistral (ex : les petits modèles Phi-4 ou Small 3).

J’ai bien conscience que de parler d’IA viable et responsable est terriblement rébarbatif, car il est bien plus valorisant de se vanter de posséder des centaines de milliers de GPU pour pouvoir entrainer le prochain « frontier model« , mais il y aura forcément une facture à régler, et elle va être très salée. Voilà pourquoi je milite pour que la frontière que l’on cherche à repousser ne soit pas la puissance brute, mais le meilleur ratio performances / consommation énergétique.
Peut-être est-ce ça l’éthique que l’on a tant de mal à définir dès que l’on parle d’usages numériques responsables afin de mettre fin à cette fuite en avant auto-destructrice (Des dangers du dogmatisme technologique).
De l’urgence d’un débat sur l’innovation responsable
J’ai bien conscience de ne pouvoir apporter de solution concrète à la boulimie du marché de l’IA générative qui engloutit tout sur son passage : budgets, ressources naturelles (pour fabriquer les GPU et NPU), énergie (pour faire tourner les centres de données), attention (pour continuer à faire rêver et justifier les investissements)… Cet article n’est que ma modeste contribution à une vision plus responsable de l’innovation et plus éthique de l’IA. Quoi que, je serai bien incapable de vous dire très précisément quelle est la limite de la responsabilité et de l’éthique…

Il existe bien des explications sur les grands principes de l’IA éthique à lire sur les sites de l’UE, de l’UNESCO ou de l’INRIA, mais dans la mesure où il n’existe pas d’obligation formelle sur leur implémentation, chacun fait ce qu’il veut (pour le moment : Artificial Intelligence Act).
Adopter une approche responsable de l’IA, et de l’innovation en général, est une décision extrêmement courageuse à prendre en cette période où le solutionnisme technologique l’emporte sur le pragmatisme, du moins dans le débat public qui se cristallise autour d’un affrontement entre les trois grands blocs USA / Chine Europe.
Difficile dans ces conditions de faire évoluer les mentalités et surtout d’appeler les différents acteurs à plus de raison. Nous verrons bien quel sera le thème de la prochaine édition de Vivatech, mais je doute qu’ils choisissent la voie de la raison, car ils ont besoin de faire venir à maximum de monde (on attrape attire pas les mouches investisseurs potentiels avec du vinaigre des discours sur le numérique responsable).
Tout ceci ne nous rapproche assurément pas de la Société 5.0, mais nous en éloigne…