Si l’IA s’impose comme un nouvel intermédiaire dans les décisions d’achat, une récente étude menée par Rand Fishkin révèle un constat troublant : les recommandations de marques sont profondément incohérentes.
Derrière cette variabilité apparente se cache un fonctionnement structurel des modèles de langage, et pour les entreprises, la question dépasse largement la simple mesure de visibilité…
Moins de 1% de listes identiques : la fin du mythe du « classement » dans l’IA ?
Avec près de 3 000 réponses collectées sur douze requêtes différentes, l’étude montre que deux listes strictement identiques apparaissent dans moins de 1% des cas. Quant à l’ordre des marques, la probabilité chute sous les 0,1%.
Autrement dit, parler de « position » dans une IA n’a pas de sens. Ces modèles ne classent pas des résultats comme un moteur de recherche traditionnel, mais ils génèrent une réponse à partir d’une distribution probabiliste, influencée par la température, les paramètres d’échantillonnage et, parfois, des sources récupérées en temps réel.
Toutefois, ce fonctionnement n’a rien d’un bug, et il est même inhérent à l’architecture des grands modèles de langage. Ainsi, chaque réponse est, par nature, une nouvelle combinaison plausible.
L’étude valide toutefois un indicateur cher aux défenseurs du GEO : le taux de visibilité. En effet, certaines marques apparaissent dans 80% à 90% des réponses pour une requête donnée, quand d’autres ne sont citées qu’épisodiquement.
L’IA n’évalue pas la popularité, mais la confiance
L’étude montre également que les IA ne sont pas des moteurs de recommandation au sens classique, mais des moteurs de probabilité. Plus un modèle « estime » qu’une entité est fiable et pertinente pour une requête, plus elle aura un poids élevé dans la distribution de sortie.
À l’inverse, une marque citée dans 5 à 10% des cas évolue dans une zone d’incertitude. Dans ce cas, Rand Fishkin estime que l’IA « hésite« , faute de signaux convergents suffisamment solides…
Plusieurs dimensions à considérer pour les marques…
Avant même qu’une IA ne formule une recommandation, le contenu passe par plusieurs étapes, allant de la découverte, au crawl, à l’indexation, l’annotation, puis l’intégration dans différentes représentations de connaissance.
On peut alors distinguer trois niveaux avec le graphe d’entités, connu sous le nom de « Knowledge graph« , le graphe documentaire qui correspond à l’index des moteurs, et le graphe conceptuel issu de l’entraînement du modèle.
Selon l’étude, une marque solidement implantée dans ces trois dimensions bénéficie d’un effet cumulatif. À l’inverse, une présence limitée à quelques articles ou communiqués de presse ne suffit pas à construire une confiance durable.
C’est d’ailleurs ce qu’a démontré une étude d’Authoritas fin 2025, où de faux experts, pourtant mentionnés dans plus de 600 articles, n’ont jamais été recommandés par les IA. De quoi prouver que le volume n’est pas synonyme de crédibilité algorithmique…