Non, l’IA générative n’est pas gratuite, alors qui va payer et pour quoi ? – FredCavazza.net


Tandis que les éditeurs de chatbots s’efforcent d’ajouter des fonctionnalités et que les géants numériques verrouillent petit à petit les utilisateurs pour leur imposer leur assistant numérique, la course à l’innovation se concentre sur les agents intelligents, la nouvelle merveille technologique censée résoudre tous nos problèmes. Mais le problème est que justement nous n’avons pas défini le problème que l’on cherche à résoudre. Et pendant ce temps-là, les considérations économiques, sociales ou environnementales sont consciencieusement ignorées par des techno-prophètes qui sont prêts à tout sacrifier pour prouver qu’ils sont plus malins que les autres. Peut-être est-il temps d’ouvrir les yeux et de se comporter comme des adultes responsables…

#GenAI #RNE


En synthèse :

  • Malgré des perspectives de croissance très encourageantes, mais théoriques, le marché de l’IA générative reste modeste en comparaison de sa couverture médiatique ;
  • Si les chabots perdent peu à peu de leur attrait, car victimes d’un phénomène de banalisation, les géants technologiques mobilisent toutes leurs ressources pour perfectionner leurs assistants numériques et en faire des leviers de fidélisation ;
  • Les derniers modèles génératifs offrent des performances toujours en hausse, mais nécessitent des ressources informatiques et énergétiques qui ne sont plus viables dans notre contexte actuel ;
  • L’entêtement d’OpenAI à vouloir proposer des modèles ultra-performants les expose à une concurrence chinoise redoutable qui s’appuie sur un meilleur équilibre entre performances et couts ;
  • Après plus de deux ans de sidérations face à des technologiques qui semblent magiques, il est plus que temps de focaliser les efforts sur la recherche de solutions pragmatiques et non sur les exploits techniques.

Le saviez-vous : cela fait 833 jours que ChatGPT est accessible au grand public. Et depuis cette date, il ne s’est pas passé une seule semaine sans que l’annonce d’une nouvelle IA vienne « changer la donne » ou « disrupter les disrupteurs ».

Quasiment 2 ans 1/2 d’une course folle au cours de laquelle les acteurs des NTIC ont mobilisé toutes leurs ressources pour tenter de s’imposer sur une niche à fort potentiel (Comment les Big Techs vont s’accaparer le marché de l’IA). Un potentiel théorique, et en devenir, car malgré toutes les projections et prédictions qui ont été formulées, le marché de l’IA générative reste modeste en comparaison du brouhaha médiatique qu’il génère (entre 15 et 25 MM$ pour 2024 en fonction des calculs).

La bonne nouvelle est néanmoins que nous y voyons aujourd’hui plus clair : le marché de l’IA générative se divise ainsi en différents types de services :

  • les chatbots (ex : ChatGPT, Claude…) ;
  • les outils de création (ex : Midjourney, Firefly…) ;
  • les agents intelligents (ex : les « Operators » de ChatGPT, les « Assistants » de Perplexity ou des équivalents open source comme OWL) ;
  • les assistants numériques (Copilot, Gemini…).

La distinction entre ces différentes catégories était encore floue l’année dernière, mais elle se précise à mesure que les services évoluent et que les usages se précisent. D’autant plus que les grandes sociétés technologiques ont maintenant toutes dévoilé leur jeu : Genèse et enjeux des assistants numériques. Il est donc grand temps de faire le point sur les offres disponibles et surtout d’en évaluer la viabilité.

10 ans après, les assistants numériques sont (presque) tous de retour

Il y a 10 ans, les GAFAM se livraient déjà une compétition acharnée pour essayer d’imposer leur assistant vocal (Chatbots et assistants personnels façonnent le web de demain). De cette période, il ne reste pas grand-chose, si ce n’est des centaines de millions d’enceintes connectées qui attendent impatiemment leur mise à jour (Les assistants personnels ne délivrent leur potentiel que pendant les micro-moments vocaux).

Nous sommes en 2025, et les assistants numériques sont de retour avec une nouvelle proposition de valeur : vous assister au quotidien grâce à la puissance de l’IA générative. Voici un rapide état des lieux des assistants numériques proposés par les big techs :

Si vous pensiez que la compétition se résumait à un nième match entre Apple et Google, vous êtes loin du compte, car les autres géants numériques ne comptent absolument pas se laisser coiffer au poteau.

Je ne m’étendrais pas sur le report du lancement de la nouvelle version de Siri, car il y a trop de paramètres que nous ne connaissons pas dans cette équation complexe. En revanche, nous savons maintenant tout ce qu’il y a à savoir sur le grand retour d’Alexa, et nous ne sommes pas déçus : 50 things to try with Alexa+.

Proposée par défaut aux abonnés Amazon Prime, Alexa+ sera également disponible via un site web indépendant, ainsi qu’à travers une application mobile pour 20$ / mois. Je doute fortement de l’intérêt de payer 20$ / mois pour utiliser Alexa+ sans être client Amazon alors qu’il existe de nombreux autres chabots… Ceci étant dit, l’intégration d’Alexa+ au portail marchand et à l’ensemble des appareils connectés commercialisés par Amazon est particulièrement intéressante pour proposer aux utilisateurs une aide au quotidien pour des tâches à faible valeur ajoutée (faire des courses, définir des rappels, programmer des événements…). Rien de très spectaculaire, ni angoissant à l’image du film AFRAID sorti l’année dernière.

Le positionnement d’Alexa+, sa valeur d’usage, est ainsi calqué sur celle d’Amazon : un service fiable pour s’occuper de tâches dont personne ne veut s’occuper car pas rentables, sauf avec une logistique ultra-optimisée. Et visiblement, ça fonctionne plus bien : Hands-on with Alexa Plus in the smart home.

Vous pourriez vous demander ce qu’il va advenir de Rufus, la première tentative d’assistant numérique intégré à la boutique Amazon, mais rassurez-vous, il sera probablement absorbé par la nouvelle Alexa qui va progressivement s’intégrer à d’autres services externes (l’équivalent des skills) et internes comme Amazon Fresh (Amazon Alexa+ can do your grocery shopping, too).

Trop sympa Amazon ? Non, ne vous y trompez pas, ce n’est pas un cadeau, car Amazon ne fait JAMAIS de cadeaux. C’est simplement pour eux un moyen de fidéliser les abonnés Prime et de renforcer leur main-mise sur leurs clients, donc de bénéficier d’un plus gros pouvoir de négociation sur les fournisseurs. Ce sont vraisemblablement eux qui paieront la facture d’Alexa+.

De façon plus générale, les assistants numériques mentionnés plus haut ne sont proposés « gratuitement » que parcequ’ils sont intégrés aux écosystèmes des géants numériques. Même s’il existe des versions payantes offrant plus de puissance ou de fonctionnalités, ces assistants sont toujours proposés en version gratuite en tant que produit d’appel, comme leviers de fidélisation pour les big tech, car ils sont financés par les revenus annexes (L’hégémonie des GAFA leur permet de majorer la taxe numérique).

Ce qui nous amène à parler de la rentabilité des derniers modèles ou services qui nous sont présentés comme la quintessence de l’IA, mais font l’impasse sur un certain nombre de considérations techniques, éthiques ou environnementales.

Des agents (soi-disant) intelligents avec des salaires de ministre

Utiliser un produit d’appel pour capter l’attention et gagner la confiance des clients est une tactique vieille comme le monde (du marketing). C’est sur cette tactique que repose la quasi-totalité des stratégies de croissance des startups : proposer un nouveau service en ligne gratuit, et petit à petit convertir les utilisateurs en abonnés payants pour arriver au point d’équilibre. C’est exactement ce qu’à fait OpenAI avec ChatGPT : proposer un chatbot gratuit servant de vitrine technologique pour recruter des utilisateurs et les appâter avec des fonctionnalités à valeur ajoutée pour leur faire payer un abonnement.

Problème : ils ne sont pas les seuls sur le coup, et de nombreux prétendants proposent maintenant des fonctionnalités similaires, mais dans des ordres de coûts moindres : Vers un marché plus responsable de l’IA générative. OpenAI, qui tente de s’imposer comme leader du marché, est donc dans l’obligation de proposer des modèles toujours plus puissants à des prix toujours plus compétitifs. C’était le cas jusqu’à récemment, mais cette stratégie semble avoir atteint ses limites avec la dernière version de leur modèle qui n’est pas forcément plus puissant que la concurrence (OpenAI unveils GPT-4.5 ‘Orion,’ its largest AI model yet), mais bien plus coûteux à faire tourner selon l’analyse de Artificial Analysis :

Ce début d’année 2025 marque donc un coup d’arrêt à la course à la puissance, et le début d’une réorientation des besoins vers des modèles offrant le meilleur compromis entre puissance et consommation (cf. le tout nouveau modèle de Google : Introducing Gemma 3, The most capable model you can run on a single GPU or TPU). Un positionnement qui n’est pas du tout aligné avec les efforts de R&D d’OpenAI qui s’obstine dans la recherche de l’exploit technologique et la quête d’une super intelligence artificielle. Il en résulte des solutions techniques toujours plus coûteuses à faire tourner et de nouvelles offres qui laissent sceptique. Ainsi, le patron d’OpenAI a très récemment dévoilé son intention de proposer des agents intelligents ultra-performants, mais uniquement accessibles à travers des abonnements à 2.000 $, 10.000 $ et même 20.000 $ / mois : OpenAI reportedly plans to charge up to $20,000 a month for specialized AI ‘agents’.

Entendons-nous bien : nous parlons ici d’agents intelligents de dernière génération, pas d’un chatbot amélioré (Les agents intelligents sont-ils les nouveaux navigateurs web ?). Ces agents seraient ainsi capables de compléter des tâches à forte valeur ajoutée, l’équivalent de ce que pourrait faire un cadre (« knowledge worker« ) ou un haut diplômé (« PhD-level« ). Vous conviendrez que les tarifs envisagés sont carrément prohibitifs, d’autant plus que le service rendu est encore perfectible (I tried Deep Research on ChatGPT, and it’s like a super smart but slightly absent-minded librarian), et que le salaire ainsi que les charges d’un diplômé ou d’un doctorant restent inférieurs au coût de l’abonnement.

OpenAI se retrouve logiquement dans une situation très inconfortable, car leur offre n’est plus viable : trop couteuse et pas assez performante, surtout par rapport à la concurrence qui propose des alternatives 10 fois moins chères, mais pas forcément 10 fois moins performantes. Très clairement, le principal avantage compétitif de ChatGPT s’évapore (un très bon service avec un abonnement très compétitif), mais a-t-il jamais existé ?

OpenAI rattrapé par la brigade (financière)

La sortie des dernières versions des modèles DeepSeek a fait beaucoup parler (V3 et R1), mais cela fait en réalité plus longtemps que la domination de OpenAI / ChatGPT est contestée par les autres acteurs du marché (notamment Anthropic avec Claude, Google avec Gemini, Alibaba avec Qwen ou xAI avec Grok), non pas sur la puissance brute, mais sur le ratio entre performances et coûts (liés principalement à la consommation d’énergie). Comme vous pouvez le constater dans le graphique ci-dessous, GPT-4.5 reste en tête sur l’axe des performances, mais les coûts d’inférence de ce modèle sont ridiculement élevés : 150$ par millions de tokens traités, contre 0,4$ par millions de token traités pour Gemini 2.0 Flash.

Autant vous dire qu’OpenAI subit une énorme pression de la part des géants numériques (Google, Alibaba, xAI…) et des startups (Anthropic, DeepSeek…). Pour maintenir sa suprématie, OpenAI est obligé d’investir des sommes colossales pour entrainer de nouveaux modèles et faire tourner les actuels tout en les proposant à des tarifs largement inférieur au point déquilibre. Il leur faut également sécuriser l’accès à du matériel de pointe, puisque je vous rappelle que le carnet de commandes de NVIDIA est plein à craquer. Ceci explique le mariage forcé avec Coreweave pour pouvoir exploiter leurs 32 centres de données qui sont équipés de plus de 250.000 puces NVIDIA (puisque le partenariat technologique avec Microsoft a pris fin au 31/12/2024).

Outre ces soucis de « logistique » (avoir accès aux meilleurs processeurs), OpenAI est également rattrapé par la réalité économique, car ils se sont brûlé les ailes en faisant croire au marché que l’IA générative est une ressource informatique bon marché, ce qu’elle n’est pas et n’a jamais été. Proposer un accès gratuit à ChatGPT est une tactique logique, c’est ce que font tous les autres éditeurs de logiciels en ligne, mais ces derniers n’ont pas à assumer des coûts de R&D et des coûts matériels qui se chiffrent en milliards de $.

Certes, il y a de nombreuses améliorations possibles, notamment pour diminuer les coûts d’entrainement (en utilisant par exemple la technique de la distillation) ou les coûts d’inférence (en utilisant des modèles compacts et du matériel dédié), mais ce n’est pas du tout l’orientation prise par OpenAI qui s’entête à vouloir rester sur la première place du podium (avec l’argent des autres qui sert principalement à enrichir les actionnaires de Nvidia), tandis que le marché est en train de se reconfigurer autour d’unités de traitement neuronales, les NPUs qui sont spécifiquement optimisées pour l’inférence et non l’entrainement des modèles (How ‘inference’ is driving competition to Nvidia’s AI chip dominance).

Certains vont même plus loin en explorant carrément d’autres architectures de processeur, à l’image de Meta qui est en train de finaliser une nouvelle génération de NPU : Meta is reportedly testing its first RISC-V based AI chip for AI training.

Pour le moment, OpenAI n’a pas réellement de comptes à rendre, car la croissance est financée par des investisseurs privés. Mais ils ne tarderont pas à devoir réfléchir à un modèle économique offrant de meilleures chances d’un retour à l’équilibre, d’où l’annonce récente d’abonnements à 20.000 $ / mois.

Mais ce n’est pas le seul défi qui attend OpenAI, car ils devront également rendre des comptes à la Planète, ou plutôt aux écologistes (cf. How much energy does ChatGPT use?), car l’électricité qui alimente les centres de données aux États-Unis est pour le moment majoritairement produite à partir d’énergie fossile (gaz et charbon qui représentent 60% de la production).

Si nous étions dans un marché haussier où l’optimisme domine, ces considérations économico-environnementales passeraient au second plan, mais vous conviendrez que la période n’est pas propice à une course éternelle à l’innovation, quel qu’en soit le coût. Mais ça, vous vous en doutiez, non ?

Le début de la fin d’un marché qui n’a jamais existé

Tout ceci me fait dire que nous sommes proches de l’explosion de la bulle spéculative qui enfle depuis des années sous l’action d’OpenAI qui déstabilise l’équilibre du marché avec une offre très clairement subventionnée par des investisseurs qui n’ont pas les mêmes objectifs, ni les mêmes contraintes que les big techs qui doivent rendre des comptes aux actionnaires, à la fois sur la rentabilité, mais également la viabilité sociale et environnementale des opérations.

Si l’on met de côté le phénomène de fascination pour une technologie qui est mal comprise, et que l’on adopte le point de vue d’un adulte responsable, on se rend compte que le marché de l’IA générative tel qu’il est configuré est un château de sable qui ne repose que sur la crédulité des médias et la capacité des éditeurs à nous faire de belles promesses (lire à ce sujet Mythes et réalités des IA génératives publié il y a deux ans déjà).

Je ne suis pas un expert scientifique de l’IA, mais je sais compter, et personne n’arrivera à me faire croire qu’il est normal et acceptable qu’une société comme OpenAI génère plusieurs milliards de $ de pertes tous les ans. Cette situation n’existe dans aucune réalité économique, encore moins dans un contexte de raréfaction des ressources et de l’énergie. J’ai l’intime conviction que les seuls vainqueurs de la course à l’IA générative ne seront pas ceux qui proposeront le modèle le plus performant, mais les sociétés qui parviendront à trouver le bon équilibre entre souplesse, puissance et coûts.

Pour avoir une idée assez précise de l’évolution du marché de l’IA générative, il suffit d’observer ce qui s’est passé avec le cloud computing. Peu importe les innovations ou les promesses, il n’y a qu’un seul indicateur qui compte : le prix que sont prêts à payer les clients, celui-ci étant lié à la valeur perçue. Une valeur perçue des modèles génératifs qui s’est effondrée récemment avec la sortie de modèles alternatifs comme DeepSeek.

Vous pourriez me dire que c’est justement la force d’OpenAI, d’être dans l’innovation permanente et de proposer régulièrement de nouvelles offres comme les « Operators » (des agents intelligents). Mais là encore, il existe des alternatives comme celle proposée par la startup chinoise Butterfly Effect : China’s AI agent Manus gains traction amid growing demand for autonomous AI.

Quoi que pas tout à fait, car comme DeepSeek, ils s’appuient des les technologies open source des autres : Chinese AI agent Manus uses Claude Sonnet and open-source technology. Du coup, cela permet de relativiser l’impact de cette nouvelle offre : Manus probably isn’t China’s second ‘DeepSeek moment’.

J’avais déjà attiré votre attention l’année dernière sur le fait que les agents intelligents sont le nouvel enzyme glouton, une innovation « disruptive » censée couvrir tous les besoins que les chatbots ne savent pas couvrir (Web agentique : quand l’industrie de l’IA cherche sa nouvelle ‘Next Big Thing’). Et je persiste à penser que les réalités économiques et environnementales citées plus haut risquent de limiter la portée des promesses qui sont régulièrement renouvelées par les uns et les autres (startups, éditeurs ou cabinets conseil).

Formulé autrement : les progrès réalisés par les modèles génératifs ne sont viables que s’ils permettent d’atteindre un point d’équilibre entre gains (de performances) et coûts (économique, social et environnemental).


Tout ça pour dire que malgré les perspectives de croissance et les possibilités offertes par les modèles génératifs, le marché de l’IA générative est pour le moment beaucoup trop embryonnaire pour être viable. Selon cet angle de vue, OpenAI a toutes les chances d’exploser en vol tant la concurrence est féroce, d’autant plus qu’ils s’entêtent à vouloir proposer une solution à un problème qui n’a jamais été réellement défini (l’AI généraliste), donc de proposer des offres pour lesquelles les utilisateurs ne sont pas forcément prêts à payer (ex : un abonnement à 20.000 $ / mois).

Peut-être devraient-ils se concentrer sur des solutions plus pragmatiques permettant de résoudre des problèmes moins ambitieux, mais qui polluent notre quotidien (ex : une gestion plus efficace des emails et des RDV, cf. Google adds a Gemini panel to Calendar to help you manage your schedule).

Comme toujours quand il est question d’innovation technologique, les startupeurs à l’ambition l’égo démesuré oublient la première règle : se demander quel est le problème que l’on cherche à résoudre. Espérons que le marché revienne rapidement à la raison et que l’on puisse aborder la généralisation des IA génératives dans un contexte plus serein et surtout plus viable.



Source link