Nous n’avons pas besoin de meilleurs modèles, mais de meilleurs produits – FredCavazza.net


Alors que les sorties de nouveaux modèles génératifs s’enchaînent et que les batailles de benchmarks font rage entre géants technologiques, une question fondamentale reste sans réponse : où est la killer app de l’IA générative ? Deux ans et demi après l’arrivée de ChatGPT, le marché croule sous les chatbots généralistes et des modèles toujours plus puissants, mais peine à proposer des services simples et utiles capables de séduire le grand public. Cette course effrénée aux performances techniques masque mal un problème plus profond : le décalage entre les promesses de productivité et la réalité du terrain. Face à une dette numérique persistante et à la barrière du prompting, les éditeurs d’IA génératives doivent repenser leur stratégie.

#GenAI


En synthèse :

  • Une course technologique déconnectée des usages : Les progrès en IA générative sont constants, mais se concentrent sur la puissance des modèles au détriment d’une véritable utilité pour les utilisateurs finaux.
  • Un manque criant de maturité numérique : La majorité des utilisateurs n’ont pas les bases nécessaires pour adopter l’IA générative, notamment à cause de la complexité du prompting, frein majeur à l’appropriation.
  • L’absence d’une killer app : Malgré la profusion de chatbots et d’outils, aucun service simple, efficace et réellement adopté par le grand public n’a encore émergé, faute d’intégration naturelle dans les usages quotidiens.
  • Des usages émergents non anticipés : Les applications les plus populaires de l’IA sont souvent détournées de leur but initial (compagnons virtuels, stylistes…), révélant une inadéquation entre offre industrielle et attentes réelles.
  • L’argument de la productivité ne suffit plus : Présentée comme un levier majeur d’adoption, la productivité séduit les décideurs, mais peine à convaincre les salariés, freinés par la peur du remplacement et l’absence de bénéfices concrets.

J’ai comme une terrible impression de me répéter, et pourtant l’actualité me donne raison : il ne se passe pas une semaine sans que l’on nous annonce la sortie d’un nouveau modèle d’IA. Cette semaine, la Chine est à l’honneur :

Et pendant ce temps-là, les équipes de Google et OpenAI joue à l’École des Fans des mathématiques (un concours où tous les participants sont désignés gagnants) :

Tout ceci est très intéressant, mais en quoi est-ce utile pour vous et moi ? Il y a bien des rumeurs persistantes sur le lancement très prochain de GPT-5, dont l’ambition est de reprendre la tête du classement à Grok 4 (cf. les classements de LMarena et ArtificialAnalysis).

À moins que l’ on prenne en compte l’impact écologique total, et là, le classement est très différent : Our contribution to a global environmental standard for AI. Où peut-être bien qu’il nous faut un autre mode de calcul pour nous rendre compte que tous ces modèles ultra-performants ne sont pas si intelligents que ça (New ARC-AGI-3 benchmark shows that humans still outperform LLMs at pretty basic thinking)…

Comme vous pouvez vous en rendre compte, la course à l’IA se résume aujourd’hui à une bataille de chiffres et une querelle d’experts. Mais ça n’empêche pas les grandes sociétés technologiques comme els startups d’investir des centaines de milliards de $ pour concevoir des modèles génératifs toujours plus puissants, toujours moins gourmands.

Mais force est de constater que si les progrès se font dans deux directions différentes, il n’y a pas de réelle avancée pour les utilisateurs qui observent de loin. En gros : Qui en profite réellement ?

Vous n’avez pas les bases

J’ai déjà eu de nombreuses occasions de pointer du doigt l’immense décalage entre les chiffres avancés dans les sondages (3/4 des utilisateurs utilisent régulièrement l’IA) et ce que j’observe au quotidien dans mes missions de conseils, conférences ou formations : 1 adulte sur 2 a déjà essayé de faire une recherche Google dans ChatGPT, mais a renoncé car les résultats étaient décevants.

La dure réalité que personne ne veut admettre est qu’il faudra de nombreuses années pour que l’ensemble des utilisateurs comprenne l’intérêt et soit à l’aide avec l’IA générative. Car je vous rappelle qu’une bonne part des utilisateurs ne sait toujours pas correctement gérer ses e-mails ou ses fichiers dans le cloud. Et vous pensez qu’en quelques mois ils vont se mettre à produire des raisonnements synthétiques reposant sur des chains of thought ?

Il y a certes un problème de fracture numérique, mais également une offre qui n’est pas adaptée, notamment à cause de la barrière du prompting :

Mais cette complication ne semble pas entamer l’enthousiasme des startups et grandes sociétés technologiques qui se sont trouvé un nouveau porte-étendard avec les agents : Les agents intelligents nous font rentrer dans l’ère de la GenAI-as-a-Service et L’agentisation du web va-t-elle asservir les éditeurs et annonceurs ?

Et comme c’est presque toujours le cas, personne ne se soucie du fait que ces outils sont beaucoup trop complexes pour un utilisateur lambda.

(merci à Emmanuel Vivier pour la vidéo)

Bref, on ne sait pas où l’on va, mais on y va à fond !

Où est la killer app de l’IA générative ?

Deux ans et demi après la sortie de ChatGPT, nous nous retrouvons avec un marché de l’IA générative complètement saturé de chatbots généralistes, de modèles de toutes tailles et de toutes spécialisations, mais pas réellement de service simple, utile et attractif en mesure de séduire le grand public sans pour autant lui donner des sueurs froides (peur de remplacement) où de l’obliger à changer ses habitudes (prompter au lieu de cliquer).

Il existe pourtant des services qui sont sous le radar, mais apportent pourtant une aide précieuse au quotidien (ex : Grammarly) ou tentent de résoudre des problématiques bien réelles (ex : la gestion des emails comme chez Superhuman). Voilà pourquoi je suis particulièrement intriguer d’apprendre le rapprochement des deux (Grammarly to acquire email startup Superhuman in AI platform push), avant de me souvenir à quel point il est compliqué de faire adopter un service à la place d’un autre. surtout quand il est question des sacro-saint emails…

Sinon dans la série « Simple et efficace (et gratuit, mais seulement en partie) », il y a bien NotebookLM qui pourrait prétendre à être la première killer app de l’IA générative, mais malgré tous les progrès apportés à ce service, l’adoption est terriblement lente (NotebookLM adds featured notebooks from The Economist, The Atlantic, and others).

Le classement des applications grand public de l’IA générative édité par A16Z ou l’étude des applications les plus populaires publiée par Harvard sont à ce sujet très intéressantes, car elles démontrent que les schémas d’adoption sont très différents de ceux envisagés par les grands cabinets-conseil :

Des usages empiriques et détournés qui sont confirmés par d’autres sources :

Je ne me risquerais pas à aire une analyse sociologique ou un commentaire sur ces comportements, car nous manquons clairement de recul. Tout ceci nous confirme en revanche que rendre accessible une technologie immature et puissante que l’IA est un réel défi, car il y a une grande différence entre mettre en ligne un démonstrateur technique et faire adopter un service par le grand public dans de bonnes conditions (viabilité, sécurité, confidentialité…).

Les grandes sociétés technologiques sont en théorie les mieux placées pour parvenir à identifier, concevoir, déployer et imposer la prochaine killer app (Comment les Big Techs vont s’accaparer le marché de l’IA), mais ce n’est visiblement pas si simple :

  • Google et Microsoft y investissent toutes leurs ressources, avec des résultats très lents ;
  • Apple s’enlise, car le « fake it until you make it » a ses limites (tout le monde se souvient du fiasco d’Apple Maps) ;
  • Peut-être Meta s’en sortira mieux que les autres ;
  • Idem pour Twitter avec Grok qui est largement sous-coté (quoi que ils y travaillent : Elon Musk’s AI Grok Offers Sexualized Anime Bot).

En réalité, ce qui ralentit l’adoption de l’IA générative est que très peu d’utilisateurs ont réellement compris la nature des modèles génératifs et leur fonctionnement. Par conséquent ils ont du mal à se projeter dans de nouveaux usages, ou même à transposer leurs usages existants (ex : tout le monde se plaint de la pauvreté des résultats de Google, mais personne ne fait l’effort de rédiger des équations de recherche un tant soit peu soignées).

Il y a donc un problème de motivation : pourquoi changer ?

La productivité comme levier d’adoption

Depuis 2 ans, la principale promesse que l’on nous faire miroiter pour nous inciter à adopter l’IA générative est l’amélioration de la productivité. Un argument massue pour les patrons ou indépendants, mais qui ne fonctionne pas réellement sur des salariés qui ont peur de se faire remplacer. Des sentiments ambivalents qui sont particulièrement palpables en France où 2/3 des sondés utilisent l’IA, mais seulement 1/3 déclarent lui faire confiance (cf. l’étude de KPMG : Fait-on confiance à l’IA en France ?).

Faut-il quand même s’entêter et croire en un avenir (synthétique) meilleur grâce à l’IA générative ? Personnellement, je suis convaincu que oui, mais ce n’est pas moi qu’il faut convaincre.

Le problème est toujours le même : l’acculturation. Pour pouvoir espérer une adoption généralisée de l’IA, il faut dans un premier temps combler la dette numérique et apprendre aux utilisateurs potentiels à correctement utiliser leur ordinateur ou leur smartphone. Puis, dans un second temps, il faudra leur démontrer les bienfaits de l’IA générative sur la productivité et les emplois.

Croyez-le ou non, mais c’est à cette lourde tâche que le leader du segment commencer à s’atteler avec une vaste étude socio-économique entamée par l’éditeur de ChatGPT : OpenAI’s new economic analysis. Très bien, mais le grand public va-t-il faire confiance à OpenAI qui est juge et partie ?

Si les dirigeants et middle managers s’évertuent nous venter les mérites de l’IA générative, les salariés restent sceptiques, car le spectre des hallucinations hante l’esprit des réfractaires… (cf. L’adoption de l’AI générative ne passera ni par les politiques, ni par les cas d’usage).

Dans sa dernière newsletter, Benedict Evans résume très bien la situation :

“In some scenarios, the model is doing something very boring that would take humans a very long time, but it’s very quick and easy for humans to verify the answer. […] For anything involving images or video, it might take a person hours or days to make that shot, but our mammal brains can spot a problem instantly.

Conversely, there are other tasks where checking the results might take just as long as doing the work. If you ask a model to find and compile data within a 500 pages PDF, then checking whether it’s used the correct data might take almost as long as doing it yourself.“

La clé serait de laisser les salariés trouver eux-mêmes des usages pertinents et de les expérimenter, mais ils manquent cruellement de curiosité et d’ambition. La faute revient très certainement à des pratiques d’encadrement qui n’encourage pas l’innovation et récompense la répétition, le fameux modèle « Command & Control » qui force les humains à se comporter comme des robots.

De ce fait, l’adoption de l’IA générative est lente et pour le moment concentrée sur certains métiers (ex : IT et marketing / communication).

Une révolution en cours dans les DSI

Je pense ne rien vous apprendre en écrivant que l’IA générative et le code font très bon ménage. D’ailleurs, la saison du mercato est quasiment terminée : OpenAI’s Windsurf deal is off and Windsurf’s CEO is going to Google et Cognition to Acquire Windsurf and Remaining Employees.

Si le petit (mais tant que ça) monde de l’informatique s’enflamme pour les solutions de co-rédaction de code, c’est parce que ce domaine d’application est le seul qui puisse autoriser les gains d’efficacité promis aux tout débuts de l’IA générative. Ceci explique la ferveur du marché (cf. AI startup Anysphere in talks for close to $10 billion valuation).

J’ai déjà eu l’occasion dans mes précédents articles de vous expliquer que le prompting s’apparente à de la programmation en langage naturel, et que l’apprentissage du code est essentiel pour pouvoir rentrer dans une logique applicative et correctement définir son besoin. Un préalable indispensable à la création d’un système d’IA reposant sur des agents intelligents. Je vous laisse d’ailleurs apprécier le paradoxe : apprendre à coder pour ne plus avoir à coder (How Do You Teach Computer Science in the A.I. Era?).

C’est dans cette optique que j’ai repris mes études l’année dernière, avec notamment l’obtention de certificats professionnels à l’université de Harvard (CS50: Computer Science Courses). Les cursus « Programming with Python » et « Machine learning with Python » m’ont permis de valider mon hypothèse (prompter = programmer), mais également de me rendre compte que les choses ne sont malheureusement pas aussi simples.

Pour résumer une longue explication : L’IA générative appliquée au domaine de l’informatique est parfaite pour faire du prototypage rapide (explorer, matérialiser une idée, valider des intuitions…), mais il faut des développeurs expérimentés pour passer en production (robustesse, sécurité, performances…).

Ceci étant dit, rien que ce champ d’application (prototypage rapide) ouvre d’immenses opportunités : AI and Programming, The Beginning of a New Era. Je suis ainsi convaincu que les modèles génératifs de code vont rendre le domaine informatique / numérique beaucoup plus accessible, car je vous rappelle que quasiment tous les outils que nous utilisons au quotidien sont à revoir (ex : outils bureautique, ERP, applications métier…).

Rassurez-vous, je ne suis pas en train de vous expliquer que nous n’avons plus besoin des développeurs (une belle ineptie), mais que l’avènement de l’IA générative va permettre d’accélérer le refactoring de veilles applications ainsi que le « Go to Cloud »… à condition de savoir ce que l’on veut et comment on veut que ça soit fait : I Shipped a macOS App Built Entirely by Claude Code.

Oubliez donc cette funeste histoire de « Vibe Coding » et concentrez-vous plutôt sur votre capacité à formuler une vision cohérente pour ce que vous souhaitez développer ainsi que rédiger (ou faire rédiger) des specifications qui tiennent la route : Creating Design Specs for Development.

Voilà pourquoi j’ai repris mes études : non pas pour apprendre le code en lui-même (la syntaxe), mais pour maitriser la logique informatique. Car je suis persuadé que n’en sommes qu’aux prémices de ce que les agents de code peuvent nous apporter. Ainsi, les solutions proposées aux développeurs, ou plutôt aux concepteurs d’applications sont de plus en plus souples et de mieux en mieux intégrées : OpenAI launches Codex, an AI coding agent.

Les agents sont très prometteurs, mais tout ceci n’est envisageable que s’ils sont correctement appréhendés et assimilés par les salariés. Nous en revenons donc malheureusement à ce problème de dette numérique, car il y a manifestement un écart entre ce que les éditeurs savent / veulent proposer et ce que les salariés attendent / sont prêts à accepter : Future of Work with AI Agents.

Attendez-vous donc à un déploiement par étape, car l’automation est une pratique qui génère encore beaucoup (trop) d’incompréhension et d’angoisses.

Tout ça pour dire que… on n’y est pas encore !

Quelle est la prochaine étape ?

J’ai très certainement dû vous perdre avec mes histoires de code et d’agents intelligents. Aussi, je m’efforce de revenir à la réflexion initiale de cet article : le fait que l’offre d’IA générative se concentre sur les modèles (les couches basses des systèmes d’IA) et non sur les produits ou services (ce que nous utilisons).

La question de savoir quelle sera la première potentielle killer app de l’IA générative pour le grand public reste donc entière. Pourtant, les domaines en souffrance ne manquent pas : santé, éducation, divertissement…

Vraisemblablement, l’adoption à grande échelle de l’IA passera par les smartphones, à moins qu’on leur trouve un successeur. Une quête qui ne date pas d’hier (cf. Les IA génératives (re)lancent le segment des accessoires connectés publié en 2013), mais dont l’intérêt est relancé par OpenAI qui affiche une très forte ambition en la matière : OpenAI Buys Jony Ive’s AI Startup to ‘Completely Reimagine What It Means to Use a Computer’. Dans le doute, certains dégainent des mesures défensives par anticipation : Amazon buys Bee AI wearable that listens to everything you say.

Est-il raisonnable de penser que l’avenir de l’IA générative se situe dans des petits appareils connectés que nous porterons pour qu’ils puissent nous écouter / observer en permanence pour comprendre et combler nos besoins ? J’ai du mal à le croire…

Dans ce cas l’avenir est-il à chercher du coté de modèles encore plus sophistiqués (cf. Les LLMs ne sont qu’une étape du plan d’ensemble de Google (et de Meta) et Bientôt un “Work Model” universel sur votre PC ?) ? Certainement, du moins à court terme.

Pour ce qui est du moyen et du long terme, il va falloir vous habituer à entendre parler de super-intelligence, car c’est la nouvelle marotte des Big Techs : De l’IA générale aux super-intelligences : course au progrès ou fuite en avant ?

Au final, nous ne sommes pas plus avancés qu’avant pour essayer d’anticiper l’évolution du marché de l’IA générative. La seule vérité absolue semble être que nous n’avons fait qu’explorer la pointe de la partie visible de l’iceberg. Comme au lancement de l’iPhone qu’on nous avait pourtant présenté comme l’innovation ultime dès la première version !


Questions / Réponses

Pourquoi parle-t-on autant de l’IA générative alors que je n’en vois pas vraiment l’utilité dans mon quotidien ?

Parce que la majorité des innovations actuelles sont centrées sur la puissance des modèles, pas sur leur utilité concrète pour les utilisateurs. En réalité, très peu de services accessibles ont été conçus pour répondre à des besoins simples et réels.

Est-ce que tout le monde utilise vraiment l’IA générative comme le disent les sondages ?

Non, il existe un immense décalage entre les chiffres annoncés et la réalité de terrain. La plupart des gens l’ont testée une fois, souvent mal utilisée (comme chercher sur Google dans ChatGPT), puis ont abandonné faute de résultats convaincants.

Pourquoi est-ce si compliqué d’utiliser les outils d’IA générative ?

Parce qu’ils reposent sur des principes nouveaux, notamment le prompting, qui nécessite de formuler des demandes précises. Cette barrière technique freine massivement l’adoption par le grand public, peu familiarisé avec ce type d’interaction.

Existe-t-il déjà des outils vraiment utiles et simples basés sur l’IA ?

Oui, mais ils sont rares et souvent méconnus. Des outils comme Grammarly ou Superhuman s’intègrent bien dans les usages quotidiens, mais peinent encore à s’imposer. NotebookLM, par exemple, pourrait devenir une application phare, mais son adoption reste lente.

Pourquoi dit-on que l’IA générative va améliorer la productivité, alors que beaucoup de gens s’en méfient ?

Parce que cette promesse séduit surtout les employeurs. En revanche, les salariés redoutent souvent d’être remplacés ou de devoir changer leurs habitudes de travail. L’IA peut effectivement aider, mais à condition d’être bien intégrée et comprise.



Source link