Le marché de l’IA générative est en ébullition, avec comme nouvel objectif non pas la création de modèles de langage (LLMs) toujours plus puissants, mais des ambitions bien plus élevées. Tandis que Google développe son « World Model » et que Meta se lance dans la course à la superintelligence, nous assistons à l’émergence d’un nouveau paradigme technologique qui dépasse largement le cadre des chatbots actuels. Les Big Techs dépensent ainsi des dizaines de milliards de $ pour développer les couches basses d’un système d’exploitation décentralisé reposant par l’IA, redéfinissant ainsi les rapports de force dans l’écosystème numérique. Face à ces enjeux de souveraineté technologique, la question pour les entreprises françaises et européennes n’est plus de savoir s’il faut adopter l’IA, mais comment éviter de manquer le train de la quatrième révolution industrielle.

En synthèse :
- Nous passons d’un web passif où les utilisateurs consultent des contenus et exploitent des services en ligne à un web proactif où les agents intelligents consultent et exploitent les ressources en ligne pour eux, un bouleversement majeur qui s’apparente à un changement de paradigme ;
- Les LLMs ne sont qu’un point de départ, l’ambition des géants numériques dépasse la génération de texte : construire une couche universelle d’exploitation de l’IA, intégrant perception, raisonnement, action et capacité à modéliser le monde réel ;
- Google cherche à créer un modèle omnimodal, une couche sémantique universelle capable de comprendre, simuler et interagir avec l’environnement. Il repose sur une convergence entre ses graphes sémantiques, ses infrastructures, ses plateformes et ses capacités en matière d’IA ;
- Les Big Tech, dont Meta, Microsoft et xAI, visent désormais le développement de superintelligences, au-delà des modèles génératifs actuels, avec comme ambition de concevoir et maîtriser les couches basses de futurs systèmes d’exploitation universels reposant sur l’IA ;
- Face à l’avance des géants américains, la France et l’Europe risquent d’être reléguées à un rôle de colonies numériques. Le plan « Osez l’IA » cherche à mobiliser entreprises et institutions, mais l’écart reste considérable.
Cette semaine, la Ministre Déléguée chargée de l’Intelligence Artificielle et du Numérique a présenté le grand plan du Gouvernement pour accélérer l’adoption de l’intelligence artificielle dans les entreprises françaises : Osez l’IA : un plan pour diffuser l’IA dans toutes les entreprises.

Ce plan est doté d’un budget de 200M€, dont 100 M€ issu du plan France 2030, qui vont se répartir en 4 axes de travail :
- Sensibiliser, avec la création d’un réseau de 300 ambassadeurs de l’IA qui seront coordonnés par les CCI, BPI France et la French Tech pour organiser des évènements et des rendez-vous d’affaires tous les mois dans toute la France ;
- Former, avec la création d’une académie de l’IA qui sera lancée à la fin de l’année et proposera des formations, outils et tutoriels sur l’IA adaptés à chaque type d’entreprise (TPE, PME, grands groupes…) ;
- Accompagner, avec la possibilité de faire intervenir un expert de l’IA pendant 10 jours pour faire un état des lieux et identifier des cas d’usage pertinents (prise en charge par BPI France à hauteur de 40%) ;
- Financer, le Gouvernement veut encourager la création de solutions d’IA souveraines avec des prêts qui pourront s’élever jusqu’à plusieurs centaines de milliers d’euros.
Pourquoi un tel plan et autant de ramdam ? Car l’IA générative va changer beaucoup de choses, des bouleversements profonds pour les entreprises, les organisations et les citoyens (Les agents intelligents nous font rentrer dans l’ère de la GenAI-as-a-Service). D’où l’importance de ne pas prendre de retard, car l’innovation avance à marché forcée et que se profile un nouveau paradigme pour les usages numériques.
Un rythme d’innovation frénétique alimenté par de nombreuses start-ups, mais aussi par les géants numériques qui sont maintenant en ordre de bataille (Comment les Big Techs vont s’accaparer le marché de l’IA), même si certain moins que d’autres (Apple Could Use ChatGPT or Claude to Power Siri).
La question que tout le monde se pose est de savoir quelles vont être les prochaines étapes.
Du web sémantique au web agentique
Si vous lisez ce blog régulièrement, alors vous savez que l’évolution des usages et technologies numériques est un sujet central dans mes écrits, et que je me livre parfois à des réflexions de haut niveau : Les différents stades d’évolution du web : 1.0, 2.0, 3.0… et Du Web4 à la Société 5.0.
Sommes-nous réellement à l’aube du Web4 ? Il est trop tôt pour le dire, mais ce qui est certain, c’est que l’agentisation du web est en marche et que nous allons très prochainement franchir un nouveau palier de maturité : Les agents intelligents sont-ils les nouveaux navigateurs web ?

Il y a presque 20 ans, avec l’avènement de Google, j’avais théorisé le fait que n’importe quel information était à un seul clic des internautes (cf. Vers la règle du clic unique ? publié en 2006). Nous sommes maintenant en 2025 et grâce aux agents intelligents nous pourrons très prochainement formuler la règle du zéro clic : il n’y aura plus besoin de cliquer pour obtenir une information, il suffira de demander à un assistant numérique pour avoir une réponse. Ainsi, depuis le déploiement des « AI Overviews » sur les pages de résultats de Google, la part des recherches concernant l’actualité n’aboutissant à aucun clic est passée de 56% à 69% en un an : ChatGPT referrals to news sites are growing, but not enough to offset search declines.
C’est en ce sens que les agents intelligents changent la donnent : ils autorisent un nouveau paradigme des usages numériques. Après plus de 25 ans à chercher des choses sur le web (hégémonie des moteurs de recherche), à se connecter à des services en ligne (hégémonie du SaaS) et à consulter des flux de messages (hégémonie des médias sociaux), nous entrons dans l’ère du web pro-actif. L’article Web 4.0: The Agentic Web nous offre des explications sur l’agentisation des contenus et services en ligne avec un schéma intéressant, même si discutable sur certains points (la blockchain ne vous garantit en rien la propriété d’actifs physiques ou numériques) :

Selon le paradigme des agents intelligents, les sites web passent de ressources actives (contenus et services directement exploités par les utilisateurs) à des ressources passives (des sources d’informations et données ainsi que des APIs exploitables par des agents). Une volonté portée par les grands acteurs de l’IA dont Microsoft et surtout Google (L’agentisation du web va-t-elle asservir les éditeurs et annonceurs ?).
Cet agentisation annonce bien évidemment beaucoup de changements, notamment dans les rapports de force. Plus je réfléchis à la question, et plus je suis persuadé qu’un acteur émerge naturellement du lot, Google, car ils sont une sacrée longueur d’avance. Pour vous en convaincre, il vous suffit de lire ce compte-rendu de leur dernière conférence annuelle : Google I/O 2025, Google Reloaded.

Une longueur d’avance qui a un coût (Google undercounts its carbon emissions, report finds), certes, mais qui va potentiellement nous faire rentrer dans une nouvelle ère des usages numériques. Et le pire dans cette histoire, est qu’en creusant un peu, on se rend compte que Gemini ou le web agentique ne sont que des étapes dans un plus d’ensemble plus vaste qu’est en train de façonner Google.
L’émergence d’un World Model chez Google
Comme expliqué plus haut, l’agentisation du web est un nouveau paradigme des usages numériques, car nous passons d’une utilisation passive des contenus et services numériques (il faut aller les consulter ou les utiliser soi-même) à une utilisation active (les agents intelligents vont les exploiter pour vous). Ceci est rendu possible grâce à l’IA et notamment aux différents types de modèle génératif qui existent aujourd’hui : modèles de langage, modèle de vision, modèles de recherche, modèles de raisonnement, modèles d’action… Mais tous ces nouveaux usages reposent sur l’utilisation de terminaux numériques (ordinateurs, smartphones et tablettes) dont nous commençons à voir les limites. Le prochain palier d’évolution des usages numériques ne sera atteint que si l’on fait abstraction de l’existant : des contenus et services accessibles via des pages web grâce à des terminaux avec un affichage sur un écran en 2D et un clavier (physique ou tactile).
Le co-fondateur de Google, Sergey Brin, a récemment donné une interview où il expose sa vision de ce prochain palier d’évolution, ainsi qu’une ambition qui va bien au-delà de la mission originelle de Google (organiser toutes les connaissances du monde) : Google’s Founder Reveals How AI Is Reshaping Everything.
“While many focus on AI creating content, the real competitive advantage comes from consuming and synthesizing information at previously impossible scales”
Pour bien comprendre la position privilégiée de Google dans la course à la domination des usages numériques, je vous propose de récapituler leurs atouts majeurs :
- Des modèles génératifs extrêmement performants (avec des performances qui les placent en haut du classement, mais également un des meilleurs ratios puissance /consommation grâce aux TPU « maison » Ironwood) ;
- Une des plus grosses infrastructures techniques (Google Cloud) ;
- Des ressources financières et humaines colossales (plus de 180.000 employés et près de 100 MM$ de cash) ;
- 3 plateformes de distribution qui dépassent les 2 milliards d’utilisateurs (Google search, Android et YouTube) ;
- 3 couches sémantiques constituées sur les 20 dernières années (le Knowledge Graph de Google Search, le Shopping Graph de Google Shopping et Local Graph de Google Maps).
Ce sont très certainement ces trois couches sémantiques qui caractérisent le plus la puissance de Google, et surtout sa différenciation vis-à-vis de concurrents qui disposent également d’atouts majeurs, mais pas de cette précision sémantique.
Depuis quelques semaines, nous en savons un peu plus sur l’ambition de Google en matière d’intelligence artificielle et surtout leur volonté de mettre au point un modèle universel, une base de connaissances globale qui s’appuierait sur toutes les informations et données dont dispose Google. Ce modèle serait l’aboutissement de tout ce qu’ils ont livré sur les deux dernières années et leur permettrait de consolider leur position de leader : Google’s ‘world-model’ bet: building the AI operating layer before Microsoft captures the UI.

L’objectif n’est pas nécessairement de se rapprocher de l’intelligence artificielle générale, un concept dévoyé, mais d’un modèle généraliste capable de traiter tous types de contenus et surtout de pouvoir comprendre et reproduire des environnements complets de façon très réaliste : Genie 2: A large-scale foundation world model. Ce modèle omnimodale peut être considéré comme une couche sémantique universelle.

N’allez pas croire que la mise au point d’un « World Model » nécessite de plus gros ordinateurs, car le goulot d’étranglement des éditeurs de modèles génératifs n’est pas la puissance de calcul, mais la disponibilité des contenus et données, un domaine dans lequel Google excelle depuis 25 ans.
Et c’est là où la mission originelle de Google trouve tout son sens : rassembler sur une seule infrastructure toutes les connaissances et données disponibles. Une tâche titanesque et un chantier de longue haleine dont on ne perçoit la finalité que quand il est achevé, à l’image de Google Earth qui vient de fêter ses 20 ans : un service très ludique, mais qui cache de nombreuses applications dont Google a maintenant le monopole (cf. Make the world your platform), et qui bénéficient de la puissance de leur assistant numérique (Make faster, more informed planning decisions with Gemini capabilities in Google Earth).
Vous pourriez vous demander en quoi cette couche sémantique universelle pourrait changer la donne dans la mesure où vous avez déjà accès à toutes les informations, données et services numériques grâce à votre ordinateur ou votre smartphone. Elle pourrait précisément servir à développer de nouveaux usages quand vous n’avez pas accès à un ordinateur ou un smartphone, par exemple avec des lunettes de réalité augmentée (en combinant le Project Astra et Android XR).

Non seulement toutes connaissances, données et capacités peuvent bénéficier aux utilisateurs humains, mais elles peuvent également être exploitées par des robots (Google rolls out new Gemini model that can run on robots locally) ou par des véhicules (au hasard, les taxis autonomes de chez Waymo).

Avec les « World Models« , Google nous propulse dans l’ère des super-intelligences.
Superintelligence is the new agent
Certes, Google bénéficie sur le papier d’une longueur d’avance, mais d’autres géants numériques affichent également une très forte ambition et bénéficient de moyens considérables. J’ai déjà eu l’occasion de vous expliquer les efforts qui sont réalisés par les géants numériques et grands éditeurs pour agentiser leur offre, avec en premier lieu SalesForce, Microsoft ou Adobe. Il semblerait néanmoins que la nouvelle tendance est de préparer l’étape d’après pour pouvoir s’accaparer, ou du moins disposer de bases de connaissances encore plus vastes que les LLMs. Le but de la manoeuvre étant de pouvoir monétiser les couches basses d’un vaste système d’exploitation décentralisé bénéficiant de la puissance de l’IA.

Cette ambition est notamment assumée par Elon Musk qui en fusionnant Twitter et xAI déclare vouloir réécrire les connaissances du monde grâce à l’IA pour rééquilibrer les points de vue : Elon Musk wants to rewrite « the entire corpus of human knowledge » with Grok. Ce blog n’est clairement pas l’endroit pour débattre des opinions politiques d’Elon Musk, mais je tiens à vous rappeler que nous détenons la preuve que les chatbots penchent très nettement à gauche de par les contenus d’actualité avec lesquels ils ont été entrainés (cf. le AI Political Compass qui est rafraîchi tous les jours).

La volonté d’Elon Musk est donc de redresser ce déséquilibre non pas en agissant sur les sources (les articles publiés par la presse), mais sur la base de connaissance qui a ingéré et digéré toutes ces sources, à savoir Grok (un nom qui désigne à la fois le chatbot et le modèle). Et pour être certain que les tweets ne soient pas pollués, il a récemment dévoilé un approche mixte, mais systématique de la modération : X is piloting a program that lets AI chatbots generate Community Notes.

On retrouve une ambition similaire chez Meta où Yann LeCun, le breton qui pilote la recherche scientifique chez eux, a récemment admis que nous approchons déjà de la limite de ce que nous pouvons faire avec les modèles de langage (les « Large Language Models« ) : Yann LeCun, Pioneer of AI, Thinks Today’s LLM’s Are Nearly Obsolete. Son point de vue est tout à fait défendable et parfaitement pragmatique : dans la mesure où nous avons déjà utilisé tous les contenus à notre disposition pour entrainer les modèles actuels, et où il y a peu de chance pour nous développions de nouvelles capacités de production à très grande échelle de contenus neufs, les progrès des modèles de langage seront à la marge. La recherche s’oriente maintenant logiquement vers de nouveaux types de modèles génératifs capables d’avoir une meilleure compréhension du monde et surtout d’apprendre par eux-mêmes.
Meta a ainsi présenté le mois dernier V-JEPA 2, un « World Model » doté de capacités avancées de reconnaissance visuelle, de raisonnement / compréhension et de simulation d’un environnement physique qui est censé être exploité à la fois par des agents intelligents, mais aussi par des robots : Our New Model Helps AI Think Before it Acts. Ça ne vous rappelle rien ?

Et comme si ça ne suffisait pas, le patron de Meta s’est lancé dans une vaste campagne de recrutement pour constituer une « dream team » capable de mettre au point une superintelligence avant les autres : Meta is reportedly making a $15 billion bet on AGI et Zuckerberg Leads AI Recruitment Blitz Armed With $100 Million Pay Packages.
Vous noterez que le champ lexical des grands acteurs du numérique n’est plus le même, car ils ne parlent plus d’AGI ou d’agents intelligents, mais de la fameuse superintelligence, un terme moins anxiogène pour désigner un but bien plus raisonnable, et atteignable à moyen terme. Exemple avec cette annonce récente des équipes de recherche médicales de Microsoft : The Path to Medical Superintelligence.
Je récapitule : si vous ne voulez pas passer pour le pire des ringards dans vos dîners en ville, ne mentionnez plus les LLMs, les chatbots, les agents intelligents ou l’AGI, mais parlez plutôt de superintelligence.
Blague mise à part, j’espère qu’avec ces explications, vous mesurez mieux l’ambition que portent les géants du numérique et l’aggravation potentielle de la dette numérique de votre entreprise ou organisation si elle ne revoit pas rapidement ses outils ou façons de travailler.
Faut-il encore chercher à lutter ?
Entre la vague d’agentisation en cours et la course à la superintelligence, sommes-nous en train d’assister au début de la fin du web ouvert et décentralisé ? Oui bien évidemment, mais ça, vous le saviez déjà, non ? Il y a en effet bien longtemps que les internautes ont fait le choix de la praticité en concentrant leurs usages sur quelques plateformes et places de marché (cf. Les plateformes numériques digèrent le monde publié il y a plus de 5 ans).
Face aux moyens considérables qui sont déployés par les géants numériques américains et chinois, la France et l’Europe sont-elles condamnées à devenir des colonies numériques des IA des Big Techs ? Oui bien évidemment, mais ça, vous vous en doutiez, non ? Je suis le premier à défendre le savoir faire d’acteurs français, qu’ils soient institutionnels (ex : INRIA, CNRS…) ou privés (ex : Mistral, LightOn…), mais il faut bien reconnaitre qu’il y a deux poids deux mesures.

Certes, les différents gouvernements européens font de gros efforts pour stimuler leur marché intérieur, mais il savoir faire preuve de réalisme et reconnaitre que le compte n’y est pas. Il y a bien des initiatives très intéressantes comme ChatEurope, mais elles se font à la marge : Un chatbot aux infos vérifiées conçu par des médias européens.
Soit, si la France ou l’Europe ne parviennent pas à créer les conditions de l’émergence de champions de l’IA, au moins pouvons-nous conserver la maitrise de nos contenus et données, c’est déjà ça. Et pour ce qui est de la dépendance aux modèles ou aux services d’IA générative américains ou chinois, une dépendance de plus ou de moins ne changera pas la donne. Dans l’absolu, l’important n’est pas de fabriquer son propre wagon, mais de ne pas rater le train.
// Message de service //
Oui je sais, cette métaphore est très douteuse, mais au moins, elle a été pensée et rédigée à la main par un humain !
// Fin du message de service //
Tout ça pour dire qu’il vaut mieux ne pas trop prendre de retard, d’où l’intérêt du plan présenté par le Gouvernement la semaine dernière, toutes les initiatives sont les bienvenues quand il est question de sensibiliser et d’inciter à l’adoption de nouvelles technologies et usages numériques, car il y a fort à faire.
Questions / Réponses
Qu’est-ce qu’un « World Model » et en quoi est-ce différent d’un LLM ?
Un « World Model“ est un modèle génératif conçu pour comprendre et simuler des environnements complexes, en s’appuyant sur une diversité de contenus (texte, image, vidéo, capteurs…). Contrairement aux modèles de langage (LLMs), qui se concentrent sur la génération de texte, les « World Models » sont multimodaux et visent une représentation plus complète et réaliste du monde.
Pourquoi parle-t-on de “web agentique” et comment cela change-t-il nos usages ?
Le web agentique désigne un nouveau paradigme dans lequel des agents intelligents interagissent avec les contenus et services numériques à la place des utilisateurs. Au lieu de cliquer ou chercher soi-même, il suffira de formuler une demande à un assistant numérique. Cette évolution transforme les sites web en sources d’information exploitables par des IA.
Quelle est la stratégie de Google dans ce nouveau paysage technologique ?
Google vise à construire une couche sémantique universelle à travers un « World Model » intégré à ses services. Grâce à ses modèles génératifs, ses graphes de connaissance, ses plateformes (Search, Android, YouTube) et ses ressources techniques, Google cherche à structurer une forme de système d’exploitation décentralisé reposant sur l’IA, redéfinissant ainsi les usages numériques.
En quoi le plan « Osez l’IA » du gouvernement français est-il important ?
Ce plan vise à éviter que les entreprises françaises ne ratent la quatrième révolution industrielle. Il propose de sensibiliser, former, accompagner et financer l’adoption de l’IA, avec un budget de 200 M€, afin de soutenir l’écosystème local face à la domination des géants technologiques américains et chinois.
L’Europe peut-elle encore jouer un rôle face aux géants de l’IA ?
Malgré des initiatives notables (comme ChatEurope) ou des acteurs talentueux comme Mistral et l’INRIA, entre autres, l’Europe reste en retrait en termes de puissance technologique et financière. Si elle ne peut rivaliser sur les modèles eux-mêmes, elle peut au moins chercher à conserver la maîtrise de ses contenus et données.