Depuis la sortie de ChatGPT à la fin de l’année 2023, les internautes découvrent petit à petit les innombrables possibilités des IA génératives et profitent de services aussi puissants que couteux sans trop se soucier de leur viabilité. De même, les médias s’évertuent à propager le mythe de la startup disruptive qui fait trembler les géants numériques, mais font abstraction des frais de fonctionnement astronomiques qui sont inhérents aux modèles génératifs. Il est plus que temps de s’intéresser aux différents modèles économiques des éditeurs de services reposant sur l’IA générative pour comprendre la dynamique du marché et surtout son évolution.

En synthèse :
- Les startups privilégient la croissance à la rentabilité, ce qui leur permet d’être beaucoup plus agressives dans le recrutement de nouveaux utilisateurs ;
- Les coûts exorbitants liés à l’entrainement et à l’exploitation des modèles génératifs utilisés par les chatbots grand public en font des activités à jamais déficitaires ;
- Le chatbots verticaux exploitant des connaissances beaucoup plus restreintes et s’adressant à des utilisateurs professionnels sont en revanche des activités extrêmement rentables et pérennes ;
- La facturation à l’utilisation semble être le modèle économique le plus viable pour monétiser un modèle génératif, à condition de se différencier des solutions open source ;
- Les nouveaux entrants sont confrontés à la concurrence asymétrique des grandes sociétés technologiques qui sont en mesure de proposer des services gratuits financés indirectement par des revenus annexes.
Nombreux sont ceux qui se demandent si l’éditeur de ChatGPT sera le prochain Google (OpenAI As The Next Google 20 Years After Its Landmark IPO). Quand on m’interroge à ce sujet, j’ai à chaque fois la même réponse : Aucune chance ! L’explication est toute simple : il est impossible d’assurer la survie d’une société qui perd plusieurs milliards de $ par an (OpenAI lost $5 billion in 2024, and its losses are increasing).
Vous pourriez me dire que ce cas de figure s’est déjà présenté, et je vous répondrai que OK, donc OpenAI est au mieux le nouveau Uber (un service innovant, acclamé par tous, mais fortement subventionné, donc pas viable) et au pire le prochain WeWork ! De plus, si je suis bien incapable de prédire l’avenir du marché de l’IA, je suis en revanche certain qu’après une période de flottement, les géants numériques sont à nouveau passés à l’offensive (Inside Google’s Two-Year Frenzy to Catch Up With OpenAI), ce qui limite encore plus les chances de survie d’OpenAI, une petite startup qui vient de perdre son principal partenaire industriel (Microsoft).
Tout ceci mérite des explications plus détaillées et c’est justement ce que je vous propose avec cet article : faire le point sur les modèles économiques des différents services d’IA générative pour y voir plus clair sur la pérennité des différents acteurs et anticiper l’évolution du marché.
Rappel : une startup n’est pas viable, car elle se focalise sur la croissance
L’erreur que font les journalistes et les nouveaux prophètes de l’IA est de penser qu’une startup est une réussite si elle est en croissance (à l’image d’OpenAI avec ChatGPT). Ce n’est pas le cas, car les startups ne sont pas régies par les mêmes règles que les sociétés traditionnelles : leur seul objectif est la croissance rapide, pas la rentabilité. De ce fait, la croissance n’est pas un indicateur de réussite, mais un impératif. L’important n’est pas de croitre, mais de croitre plus vite que les autres.
Ainsi, le plan de développement de toutes les startups est le même :
- Recruter un maximum d’utilisateurs (à perte) ;
- transformer une petite part des utilisateurs en clients (abonnés payants) ;
- Se faire racheter ou tenter l’introduction en bourse.

Ceci explique pourquoi le taux d’échec des startups est si élevé, car la prise de risque est maximale dans la mesure où la rentabilité est tout simplement ignorée. La motivation des investisseurs est purement spéculative : ils parient sur une « sortie » (revente ou introduction en bourse) leur permettant de récupérer leur mise initiale avec un multiplicateur qui est fonction de la valorisation de la société sur la base des hypothétiques revenus futurs.
Ce schéma n’est pas réellement problématique avec les logiciels en ligne, car l’investissement de départ est limité, et car les frais d’exploitation sont très faibles (guerre des prix entre les grands acteurs du cloud computing). Cette équation économique très favorable explique le dynamisme du secteur depuis le début des années 2000 avec une offre qui semble quasi illimitée.

Mais ce qui est valable pour l’informatique traditionnelle ne s’applique pas aux IA génératives, les choses sont donc différentes pour les services exploitant les modèles génératifs, car les investissements initiaux et frais de fonctionnement ne sont pas du tout les mêmes.
Les chatbots généralistes ne sont pas et ne seront jamais rentables
La différence entre une startup qui édite un logiciel en ligne et une startup qui édite un chatbot ou un outil de génération reposant sur les modèles génératifs est que l’investissement initial se chiffre en dizaines voir centaines de millions de $ pour pouvoir créer le modèle, et que les frais de fonctionnement sont très élevés et surtout proportionnels au nombre d’utilisateurs (il n’y a pas d’économie d’échelle possible).
Lancer un chatbot ou un outil de génération implique nécessairement de séduire de nouveaux utilisateurs, donc de proposer ce service à perte, donc de dépenser d’énormes sommes d’argent, tellement énormes que l’on ne sait pas bien comment ils vont pouvoir atteindre l’équilibre, et encore moins comment ils vont rembourser la dette (Non, l’IA générative n’est pas gratuite, alors qui va payer et pour quoi ?).

ChatGPT est très certainement la plus belle illustration de cette recherche d’hyper-croissance. Le chatbot d’OpenAI approche peut-être du milliard d’utilisateurs (ChatGPT Hits 1 Billion Users? ‘Doubled In Just Weeks’ Says OpenAI CEO), ses clients se voient refuser l’accès à leurs services car « les puces fondent » (OpenAI says ‘our GPUs are melting’ as it limits ChatGPT image generation requests). En quoi est-ce mon problème ? Dois-je me contenter de ces explications et continuer à payer 20$ / mois pour bénéficier d’un service dégradé ?
C’est selon moi l’erreur qui va précipiter la chute d’OpenAI : privilégier la conquête (offrir toujours plus de fonctionnalités gratuites aux utilisateurs) par rapport à la satisfaction ou la fidélisation (limiter l’accès aux fonctionnalités avancées pour les clients). Une hérésie pour les entreprises traditionnelles (celles qui sont amenées à durer), mais malheureusement la norme dans le monde des startups, encouragées par des capitaux risqueurs avides de plus-values rapides.
Mais revenons à nos moutons : À priori cette stratégie de développement reposant uniquement sur la conquête ne pose pas de problème, ou du moins n’en posait pas jusque là pour les innombrables startups qui l’ont mise en application, car après tout c’est l’argent des investisseurs, ils font ce qu’ils veulent avec. Là où ça devient problématique, c’est quand les montants investis (= dépensés) dépassent les dizaines de milliards de $, à tel point qu’ils déstabilisent l’économie mondiale (sur-performance de Nvidia et des autres acteurs de la chaine de valeur). Mais le plus dangereux, c’est qu’ils sont acclamés et considérés comme un modèle de réussite entrepreneuriale : OpenAI Is A Systemic Risk To The Tech Industry.
Il a y très clairement un phénomène d’aveuglement vis-à-vis de la stratégie d’OpenAI, une forme de fascination pour des montants qui dépassent notre imagination (il était question l’année dernière d’un investissement de plusieurs billiards de $ par le fonds souverain des Émirats Arabes Unis) et qui fait littéralement perdre la raison à de nombreux journalistes et observateurs.

Pourtant, la réalité n’est pas si compliquée à comprendre : les chatbots généralistes comme ChatGPT ne sont pas rentables et ils ne le seront jamais, car le ticket d’entrée et les frais de fonctionnement ne pourront jamais être couverts par les revenus (les abonnements qu’une toute petite part des utilisateurs acceptent de payer). D’autant plus que l’IA est un sujet qui fait toujours débat (Consumer trust and data sharing in the age of Generative AI).
L’IA générative est-elle une impasse économique ? Heureusement non, car les choses sont différentes avec les chabots verticaux, TRÈS différentes.
Les chatbots spécialisés sont d’authentiques vaches à lait
La principale difficulté que rencontrent les chatbots généralistes et qu’ils s’efforcent de répondre à toutes les questions. Ceci implique des coûts d’entrainement gigantesque (car il faut entrainer le modèle avec tous les contenus disponibles), et des coûts d’inférence très élevés (car il faut consulter une gigantesque base de connaissances pour pouvoir générer une réponse). De plus, comme ces chatbots sont censés avoir la réponse à tout, les utilisateurs ont paradoxalement du mal à trouver des questions à lui poser, donc ne sont pas forcément prêts à payer un abonnement plus de 20 ou 25$ : mois. C’est donc un gouffre financier, du moins dans une configuration où un éditeur cherche à en faire un produit grand public comme ChatGPT ou Perplexity.

Pour les chatbots verticaux, c’est l’inverse : les éditeurs peuvent utiliser des modèles pré-entrainés (ex : Llama, Mistral…) qu’ils vont renforcer à l’aide de contenus privés et optimiser en fonction d’un domaine d’application en particulier, puis le commercialiser auprès d’un nombre restreint de professionnels. Nous avons donc une base de connaissance qui est bien moins couteuse à créer, beaucoup plus petite, donc moins chère à faire tourner, qui s’adresse à moins d’utilisateurs, avec une très forte valeur d’usage.
Les éditions Lefebvre Dalloz proposent ainsi un chatbot juridique (GenAI-L) qui exploite leur base documentaire, sur laquelle ils ont l’exclusivité, avec une offre dédiée aux cabinets d’avocats ou aux professionnels du juridique. C’est le rêve de tout éditeur : un service exclusif, avec des revenus récurrents et un coût marginal très faible.

Je cite toujours l’exemple des éditions Lefebvre Dalloz, car c’est pour moi la configuration idéale, une offre verticale très rentable qu’il est, en théorie, possible de reproduire dans tous les domaines d’activité où il existe des connaissances privées (qui ne soient pas rendues publiques). Nous avons ains d’autres exemples comme ExpertChat, le chatbot des experts comptables.

Outre le cas de figure des chatbots verticaux, il est également possible de monétiser des modèles génératifs en fonction de leur utilisation au sein d’autres applications.
Des modèles facturés à l’utilisation via des APIs ou des offres hébergées
Comme nous venons de le voir, les chatbots généralistes sont clairement désavantagés par rapport aux chatbots verticaux, car ils doivent répondre à plus de questions (en fait à TOUTES les questions possibles), mais leur potentiel de revenus est moindre (faible valeur perçue par le grand public), tandis que les frais d’exploitation sont colossaux.
Ce n’est pas tant le montant des frais d’exploitation qui est un problème, mais le fait que le prix des abonnements est fixe quel que soit l’utilisation qui est faite du chatbot (plus ou moins intensive). La solution est donc logiquement de facturer à l’usage, c’est d’ailleurs ce que proposent les grands acteurs du cloud (Amazon, Microsoft, Google, Oracle, IBM…). Bien évidemment, vous vous doutez qu’héberger soi-même son application d’IA générative implique d’empiler un certain nombre de briques technologiques, que nous ne détaillerons pas dans cet article, car ce n’est pas l’objet.

Dans cette pile technique, la couche qui nous intéresse à celle des modèles. Vous pourriez penser que c’est potentiellement un créneau intéressant, car les éditeurs de modèles peuvent en dégager des revenus récurrents. Le problème est que la concurrence est non seulement très forte, mais qu’en plus, certains éditeurs proposent des modèles libres de droits (ex : Meta, Alibaba, Mistral…). Ceci complique considérablement la monétisation des modèles, d’autant plus depuis le début d’année avec la sortie des modèles open source de Deep Seek qui offrent des performances sensiblement équivalentes à celles des modèles privés.
Éditer un modèle génératif dans le but de le monétiser via une facturation à l’utilisation n’est donc pas rentable, surtout quand vous devez affronter des concurrents qui tirent leurs revenus d’autres sources comme Alibaba ou Meta. Quoi que dernièrement, ce dernier commence à réclamer une participation : Meta Asked Amazon, Microsoft to Help Fund Llama.
N’allez pas non plus penser que fournir une prestation d’hébergement de modèles génératifs est rentable, car là aussi, la concurrence est très rude. D’où la volonté des grands acteurs du cloud de proposer leurs propres modèles, ceux qui sont optimisés pour minimiser les frais d’exploitation tout en offrant de très bonnes performances : Amazon announces Nova, a new family of multimodal AI models.
Bref, tout ça pour dire que le marché des modèles génératifs facturés à l’utilisation est ultra-compétitif. Pour faire simple, il n’y a de la place que pour un seul prétendant, celui qui propose le meilleur modèle, en l’occurence Claude qui est disponible pour le grand public, mais dont l’éditeur tire ses revenus principaux de son API, qui est maintenant proposée en version « premium » : Anthropic rolls out a $200-per-month Claude subscription.

Quand est-il de ChatGPT ? Face à la concurrence, ils se sont alignés et proposent maintenant une facturation dynamique de l’API en fonction des usages : OpenAI launches Flex processing for cheaper, slower AI tasks. C’est une très bonne chose, mais ça ne règlera pas le problème des chatbots généralistes dont le modèle freemium est voué à l’échec, car comme nous venons de le voir, les frais d’exploitation sont bien trop élevés pour pouvoir les rentabiliser avec de l’abonnement à prix fixe.
Mais le pire dans cette configuration de marché est que les chatbots doivent en plus subir la concurrence asymétrique des big techs.
Les chatbots comme levier de fidélité pour les big techs
Le marché de l’IA générative est actuellement largement dominé par ChatGPT, la coqueluche des aficionados, mais on oublie trop souvent que les géants numériques proposent également leur propre chatbot en libre accès. Microsoft et Google éditent ainsi une version web de leur assistant numérique en libre d’accès, respectivement Copilot et Gemini, mais dont les fonctionnalités avancées sont réservées aux abonnés payants.

À priori, il n’y a pas de raisons pour que les versions web des assistants de Microsoft et Google coûtent moins cher à exploiter que les chatbots indépendants, et il n’y a pas non plus de raison de penser que les versions payantes couvrent les frais d’exploitation. La justification de l’existence des chatbots de Microsoft et Google en version indépendante (accessible via une URL) est de s’en servir comme un levier de fidélité afin de sécuriser les revenus issus d’activités annexes. Dans les faits, ce sont plutôt ces chatbots et assistants qui sont des activités annexes aux sources de revenus principales de Microsoft et Google (licences, publicités…), mais vous avez compris l’idée.
La mise à disposition de ces chatbots ne répond à aucune logique financière, c’est simplement une mesure défensive pour couper l’herbe sous les pieds de ChatGPT ou Perplexity et d’attendre que les investisseurs jettent l’éponge. Cette stratégie d’usure est parfaitement illustrée par les accès gratuits qui sont proposés aux étudiants : OpenAI just made ChatGPT Plus free for millions of college students et Google One AI Premium is free for college students until Spring 2026.
On retrouve cette stratégie de fidélisation chez Twitter qui intègre son chatbot Grok dans l’abonnement payant, mais qui le propose également en libre accès sur Grok.com pour démontrer le savoir-faire de la maison-mère (xAI), mais également pour que les internautes puissent tester l’intérêt d’un chatbot qui a accès à une source quasi-illimitée d’actualités (via les tweets publiés par les journaux) : xAI adds real-time vision, multilingual audio and real-time search to Grok.

Les observateurs avertis auront noté que l’intégration des chatbots et assistants à des services existants est une forme de vente forcée, et ils ont bien raison !
Une adoption forcée auprès d’une clientèle captive pour les acteurs historiques
Depuis le lancement de ChatGPT et la découverte par le grand public des capacités des modèles génératifs, nous avons vu éclore tout une série de services en ligne indépendants proposant l’accès à des outils de création d’images, voix ou vidéos comme Midjourney, ElevenLabs, Runaway…

Comme vous devez sûrement vous en douter, le modèle économique derrière ces outils de création est encore plus précaire que pour les chatbots, car les modèles génératifs d’images, voix, musiques ou vidéos coûtent encore plus cher à exploiter. Donc, même si les abonnements sont plus élevés (dans les 30$), le seuil de rentabilité est absolument impossible à atteindre, d’autant plus qu’il faut intégrer aux dépenses de ces éditeurs les frais d’acquisition des nouveaux utilisateurs.
Des frais d’acquisition que les éditeurs historiques n’ont pas à supporter, car ils peuvent s’appuyer sur leur base historique de clients qu’il leur suffit de convertir avec des offres incitative ou en leur forçant la main. Il ne vous aura pas échappé qu’après avoir proposé Copilot en option à 30$/mois, Microsoft a pris la décision de l’inclure à son offre Microsoft 365 moyennant une augmentation de l’abonnement : Microsoft bundles Office AI features into Microsoft 365 and raises prices.
Nous sommes ici tout à fait dans une configuration de marché où les acteurs historiques bénéficient d’un avantage considérable (ex : Microsoft avec Office, Adobe avec Photoshop…) pour pouvoir imposer les nouvelles fonctionnalités aux utilisateurs captifs. On ne leur en voudra pas, c’est de bonne guerre, d’autant plus s’ils proposent leurs modèles ou outils génératifs en libre accès pour les autres, et c’est justement le cas de Microsoft et d’Adobe (à travers le portail Firefly qui, comme Copilot ou Gemini, propose une version payante).

Et puisque l’on parle du « First-mover advantage », il me faut impérativement citer le cas de Salesforce qui a un modèle économique tout à fait intéressant : ils ne proposent ni un abonnement, ni une tarification à l’utilisation, mais un système de facturation à la tâche pour leur offre d’agents intelligents : Salesforce’s Bold New Pricing Strategy.

Le principe est redoutable : plutôt que de faire supporter le prix de conception des agents aux entreprises clientes (qui ne sont sans doute pas encore persuadées du ROI de ces nouveaux outils), Salesforce propose des agents prêts-à-l’emploi qui sont facturés une somme modique pour chaque tâche automatisée. Ce principe d’Agent-as-a-Service est un excellent moyen de faire découvrir de nouveaux usages et de convaincre des clients potentiels en minimisant les frais d’entrée tout en s’assurant des revenus récurrents : Les agents intelligents nous font rentrer dans l’ère de la GenAI-as-a-Service.
Et le pire, c’est que les agents proposés ne sont pas forcément développés par Salesforce, car ils distribuent également les agents d’éditeurs tiers à travers une place de marché (Salesforce launches AI agent skills marketplace with 200+ initial partners).

L’exemple de Salesforce avec sa AgentExchange me permet de faire la transition vers la notion de plateforme, car oui, c’est bien de cela dont il est question.
Les assistants sont les nouvelles plateformes de mise en relation
Nous sommes en 2025, à l’aube de ce qui est considéré comme le plus grand bouleversement depuis l’arrivée d’internet. Et pourtant, la révolution de l’IA risque bien de se résumer à des commissions perçues par des sociétés qui existaient déjà au XXe siècle (Comment les Big Techs vont s’accaparer le marché de l’IA).
Au final, peu importent les capacités des modèles ou le prix des abonnements, le facteur le plus important dans cette course à l’adoption de l’IA générative est la mainmise des acteurs historiques sur leurs utilisateurs, c’est-à-dire leur capacité à imposer leur assistant numérique en tant qu’intermédiaire. Selon cette optique, ChatGPT n’est qu’un service en ligne auquel on accède via un navigateur qui est contrôlé soit Google, Apple ou Microsoft ; ou une application qui est installée sur un ordinateur ou un smartphone dont le système d’exploitation est également contrôlé par Microsoft, Apple ou Google.

Quel que soit le moyen d’accès, les chatbots ou agents intelligents seront toujours soumis aux contraintes du système d’exploitation sur lequel ils sont exécutés. Que ce soit chez Microsoft, Apple ou Google, tous ces environnements d’exécution intègrent un assistant numérique dans les couches basses du système qui lui permet d’intercepter les demandes des utilisateurs : Genèse et enjeux des assistants numériques.
Certes, le régulateur pourrait exiger des géants numériques qu’ils ouvrent leur système d’exploitation et proposent aux utilisateurs de choisir l’assistant numérique qu’ils veulent utiliser, mais Microsoft, Apple et Google s’empresseraient de dégainer l’arDepgument de la sécurité et de la garantie d’une expérience utilisateur optimale. Autant vous dire que ce n’est pas demain la veille, et qu’il va falloir vous faire à l’idée d’utiliser Copilot sur Windows, Siri sur Mac ou iPhone, et Gemini sur Android.
La finalité pour les big techs est de maintenir leurs utilisateurs dans leur écosystème afin de préserver un modèle d’intermédiation forcée pour pouvoir prélever une taxe numérique sur toutes les transactions ou publicités. Les ressources considérables qui ont été mobilisées par Microsoft, Google et Apple ne leur servent qu’à maintenir un oligopole qui garantie leur enrichissement mutuel (cf. L’hégémonie des GAFA leur permet de majorer la taxe numérique publié en 2018 et Les plateformes numériques digèrent le monde publié en 2019).
Moralité : vous pouvez passer des heures à discuter de la viabilité du modèle économique de chatGPT ou de Perplexity, je suis absolument convaincu qu’au final, il ne restera que les acteurs historiques déjà bien implantés (Microsoft, Apple, Google, Amazon, Meta, Adobe, Salesforce…). Toute cette période n’aura été qu’une distraction bien coûteuse…
Questions / Réponses :
Pourquoi les chatbots gratuits comme ChatGPT ne sont-ils pas viables à long terme ?
Les chatbots gratuits reposent sur des modèles coûteux à entraîner et à faire fonctionner, nécessitant d’énormes ressources informatiques et énergétiques. Ces coûts ne peuvent être couverts par des abonnements à bas prix, rendant ce modèle économique non durable sans revenus supplémentaires ou une spécialisation.
Pourquoi les grandes entreprises technologiques ont-elles un avantage dans le développement de l’IA générative ?
Les grandes entreprises disposent de ressources considérables : infrastructures techniques, bases de données massives, équipes spécialisées et budgets conséquents. Elles peuvent ainsi développer, entraîner et déployer des modèles d’IA à grande échelle, tout en les intégrant efficacement dans leurs écosystèmes de produits et services, ce qui leur confère un avantage concurrentiel significatif.
Les performances techniques des modèles d’IA sont-elles le principal facteur de succès ?
Bien que les performances techniques soient importantes, elles ne sont pas le seul critère déterminant. La capacité à distribuer largement le produit, à fidéliser les utilisateurs et à s’adapter aux besoins du marché est tout aussi cruciale. Une IA légèrement moins performante mais bien intégrée et accessible peut surpasser une IA techniquement supérieure mais mal diffusée.
Quels sont les défis économiques liés à l’IA générative pour les startups ?
Les startups font face à plusieurs défis : coûts élevés de développement et d’entraînement des modèles, difficulté à accéder à des infrastructures puissantes, et nécessité de se démarquer dans un marché dominé par des acteurs majeurs. De plus, elles doivent rapidement trouver des modèles de monétisation viables pour assurer leur pérennité.
Comment évaluer la viabilité du modèle économique d’un service d’IA générative ?
L’évaluation doit aller au-delà des performances techniques. Il est essentiel de considérer la stabilité financière de l’entreprise, sa capacité à innover, la qualité de son support client, la conformité aux régulations en vigueur et l’adéquation du produit aux besoins spécifiques du marché cible.