pourquoi et comment ? (2e partie) – La Réclame


Session de rattrapage #4, tome 2 !

(2ᵉ partie)


Dans l’univers du marketing digital, les innovations ne manquent pas. Pourtant, derrière cette effervescence, parfois jargonneuse, se cache des bouleversements profonds qu’il est important pour tout professionnel de maîtriser.

C’est là qu’intervient la session de rattrapage. Cette rubrique de la Réclame .mark&tech s’attaque à chaque sujet complexe adtech / média dans une forme à la fois experte et pédagogique. Sur le pupitre, pour mener ce grand travail d’enquête et de restitution : Vincent Balusseau, professeur de marketing à Audencia Business School, et Guilhem Bodin, partner chez Converteo.


La data first-party, nouvelle panacée des marketeurs confrontés à la raréfaction des cookies tiers ?

La nouvelle « silver bullet » d’une publicité digitale plus respectueuse de la vie privée des utilisateurs ?

Voici les questions que nous posions en introduction de la première partie de cette session de rattrapage consacrée à la data 1P – cette donnée appartenant aux annonceurs, et qui peut être aujourd’hui utilisée de multiples manières par ces derniers, en publicité digitale. 

La première partie s’intéressait au sujet du ciblage, donc à la construction d’audiences activables en média, à partir des données de l’annonceur.

Restait à aborder un point important avant de basculer sur les sujets « mesure » et «  connaissance client » : Quid de l’adaptation des messages (et des créations publicitaires) aux multiples segments (audiences) construits par l’annonceur ? Il y a en effet assez peu d’intérêt à construire des audiences différentes – par exemple des clients versus des prospects – pour, ensuite, les adresser, en média avec des messages similaires. Si la problématique d’adaptation des messages à différents segments dépasse le cadre des seules audiences 1P, elle mérite un petit développement. 

Des audiences aux messages

Les équipes CRM ont l’habitude d’adapter les sujets, les contenus, les produits à mettre en avant dans les emails envoyés aux différents segments, et ce en utilisant des outils le plus souvent à leur main, comme ces emails builders intégrés aux outils de routage. 

La déclinaison créative pose davantage de difficultés aux équipes digitales. Certes, comme nous le fait remarquer Jean Allary, co-fondateur d’Artefact 3000, l’adaptation des messages bas de funnel est assez immédiate quand elle implique des flux (ou catalogues) produits, pour des retailers notamment, sur Google shopping ou en Retail Media plus largement. Idem pour les Dynamic (product) ads version retargeting chez Meta, par exemple, qui vont ainsi automatiquement mettre en avant les produits consultés par les visiteurs du site de l’annonceur (ou des produits complémentaires), dans un template établi en amont. Là, les possibilités de personnalisation sont infinies, et nécessitent peu ou pas de travail supplémentaire de la part des équipes (et/ou de leurs agences).

Les choses se compliquent quand la création à afficher ne dépend plus d’un flux produit, et qu’on souhaite remonter le funnel pour proposer, en Display ou vidéo, des messages adaptées aux caractéristiques et attentes des multiples audiences paramétrées dans une plateforme publicitaire. Les coûts générés par la multiplication des assets créatifs , et la fabrication, « en dur », des actifs publicitaires, viennent alors s’ajouter aux coûts médias, qui, comme on l’a vu dans la première partie tendent à augmenter sur des cibles de taille restreinte. Mais « la grande évolution, c’est que l’adaptation dynamique des messages est désormais possible sur toutes les étapes du funnel », nous dit Jean Allary.

Les outils d’automatisation créative comme les fonctionnalités intégrées des grandes plateformes (de TikTok Symphony à Amazon Creative Studio) permettent de produire des actifs de toute nature (vidéos, reels animations…), avec ou sans Gen AI. Elles représentent une vraie avancée, aussi bien pour :

– la déclinaison d’un « master asset » sur de multiples formats (p.ex. pour différents formats de bannières, ou, en vidéo, la création de multiples vidéos courtes à partir d’un spot plus long),

– l’enrichissement d’assets existants (p.ex. via la création automatique de backgrounds à des visuels produits) ou la création de nouveaux assets permettant d’adapter les messages et les créations à différentes audiences (p.ex, en avant un visuel produit pour telle audience et un visuel lifestyle pour telle autre ), 

– la traduction des textes ou des VO.

Comme le confirme David Nedzela, CMO de SNCF Connect, ces solutions (en l’occurence Adobe Firefly et les outils associés chez SNCF Connect) « ont fait gagner un temps colossal aux équipes de production ». Mais « elles ont aussi permis de faire aboutir des idées et des activations 1P qui n’auraient pas pu voir le jour sans l’IA générative ». De multiples possibilités, donc, à explorer plus avant dans cette série de papiers proposés par la Réclame, autour de l’impact de l’IA (generative) en agences.

La data 1P au service de la mesure de la publicité digitale

Avec le ciblage d’audiences, la mesure de l’impact de la publicité digitale, à l’ère de la data privacy, représente le deuxième grand chantier amenant à mobiliser les données 1P de l’annonceur – ici, et comme on va le voir, les données issues d’une base de données CRM (p.ex. des données de vente). Le partage de ces données avec les plateformes et les régies pourrait permettre d’accéder à une vision plus fiable de la performance des investissements publicitaires réalisés auprès d’elles.

a. Le virage privacy et son impact sur la mesure

Pour mettre en évidence l’impact des investissements des annonceurs sur les ventes, ou sur tout autre objectif paramétré par l’annonceur (on s’en tiendra ici à des objectifs de bas de tunnel), les régies et les plateformes publicitaires des GAFA doivent pouvoir tracker, et faire remonter dans leurs outils, les conversions effectuées sur les sites ou applications des annonceurs. Et elles vont ensuite attribuer, suivant différentes modalités, ces conversions aux publicités diffusées au sein de leurs environnements. On ne rentrera pas ici dans le détail des modèles d’attribution, ni des fenêtres d’attribution en post-clic ou en post-view, qui sort du cadre de cet article. Mais rappelons qu’avec l’attribution, les régies s’octroient le crédit des conversions effectuées par des individus ayant cliqué sur, ou ayant été exposé à leur publicité, et s’attribuent donc, à la fois, des conversions en post-clic, et des conversions en post-view, suite à une simple exposition d’un individu à une publicité.

Dans un environnement web (desktop et mobile), la remontée des conversions vers les plateformes d’achat de publicité digitale, et le rattachement de ces conversions à des publicités diffusées sur ces mêmes plateformes, a impliqué, et continue à impliquer le navigateur de l’internaute, et les cookies – des identifiants anonymes déposés par ce même navigateur. Imaginons qu’un utilisateur Facebook soit exposé, sur son ordinateur, à une publicité pour Nike. Meta va déposer un cookie sur le navigateur de cet utilisateur, incluant un identifiant anonyme, et attacher à ce cookie des informations relatives à la publicité à laquelle il a été exposé. Si ce même individu se rend sur le site de Nike dans les 24 heures suivantes, le pixel (ou bout de code) Meta installé sur le site de Nike permet à Meta de reconnaître cet individu : Meta pourra en effet lire le cookie précédemment déposé dans le navigateur de l’internaute. Il accédera à l’identifiant anonyme, et aux informations qui lui sont rattachées – dont celles relatives à la publicité Nike à laquelle il a été exposé la veille. Si cet individu convertit, toujours dans ces 24 heures, Meta s’attribuera cette conversion en « post-view » (Meta considéra que l’exposition à cette publicité doit être crédité pour cette conversion sur le site de Nike). 

Dans l’univers applicatif, dans lequel les navigateurs ne jouent aucun rôle, le tracking des individus et l’attribution des conversions repose sur un autre type d’identifiant, à savoir le Device id (un numéro propre à chaque téléphone), récupéré par les différentes applications sur lesquels se rendent les utilisateurs.

Or la capacité des plateformes à tracker ces individus via ces identifiants, et à s’approprier des conversions sur le web mais aussi dans l’univers applicatif, s’est vue largement réduite, sous l’effet conjugué :

– des réglementations privacy (instaurant une obligation de recueil du consentement des utilisateurs pour le tracking de ces derniers),

– des choix effectués par un certain nombre d’acteurs de la tech (dont Apple avec son navigateur Safari, assez peu « cookie-friendly », ou son ATT – App Tracking Transparency – sur iOS),

– des comportements des utilisateurs (qu’ils utilisent des navigateurs comme Safari ou des ad-blockers venant perturber le dépôt des cookies tiers, mais aussi, et en partie, des cookie first régulièrement utilisés par les grandes solutions publicitaires, cf. l’exemple Méta évoqué à l’instant ). 

b. La 1P au secours de la mesure

Les acteurs de la publicité digitale – Meta et Google en premier lieu – ont rapidement déployé une batterie d’innovations, ou de solutions de contournement, pour « récupérer de la donnée » (une partie de ces conversions qu’elles n’étaient plus en mesure de tracker), en vue de maintenir la performance de leurs produits publicitaire – ou, du moins, en vue de maintenir le niveau apparent de performance de leurs produits publicitaires -. Précisons que ces innovations, ou solutions de contournement, ne dispensent pas les acteurs impliqués de l’obtention du consentement des utilisateurs, qui reste requis. 

Parmi ces solutions figure le partage des données 1P de l’annonceur, en l’occurence ses données CRM, aux plateformes et régies  – et notamment des achats effectués par ses clients, online et offline -. 

Quand l’annonceur transmet ses données CRM aux plateformes- et donc les données de conversion attachées à un identifiant email – ces dernières sont capables de retrouver une partie des conversions qui leur ont échappé, et de se les attribuer (pour peu que les clients de l’annonceur aient été exposés à des publicités sur les plateformes ou qu’ils aient cliqué sur ces publicités). Le « matching des identifiants » – des emails, le plus souvent – au sein des bases de données (celle des utilisateurs de la plateforme d’un côté, des embasés CRM de l’annonceur de l’autre) intervient ici à nouveau, comme dans les cas d’usage liés au ciblage d’audiences 1P : il faut bien qu’un Google puisse retrouver, au sein de ces utilisateurs, les clients de l’annonceur… ce qui suppose que ces clients aient bien un compte chez Google, et qu’ils aient utilisé le même email pour se créer un compte chez cet annonceur et chez Google). 

Le partage des ventes effectuées dans les points de vente physiques de l’annonceur (via ses clients encartés), ou des contrats obtenus par son call-center, toujours reliés à des identifiants de type email, permet également aux plateformes d’avancer dans la mesure omnicanale de la publicité digitale. Il devient par exemple possible d’évaluer l’impact des investissements sur YouTube sur des ventes en magasin.

Le partage d’identifiants des convertisseurs offre enfin la possibilité aux plateformes de retracer l’ensemble des expositions publicitaires des individus sur des périodes étendues (de type 30 jours), et, ce faisant, de mettre en évidence l’impact d’expositions antérieures sur des conversions (dans leurs reporting standard de leurs outils d’achat, les plateformes tendent à limiter les fenêtres d’attribution « post-view » à 24 heures, ce qui signifie qu’elles s’attribuent une conversion si un individu qui convertit a été exposé dans les 24 heures précédant la conversion. Avec le partage des données CRM, la plateforme peut remonter dans le temps, et retracer des expositions dans les 30 jours précédant (quitte à exagérer un peu plus son influence dans les parcours de conversion… Ceci renvoie à d’autres sujets, dont ceux de la confiance qu’il convient d’accorder, ou pas, aux résultats transmis par les solutions publicitaires – que ces résultats soient basés sur l’attribution ou sur des test d’incrémentalité réalisés par celles-ci). 

c. L’envoi des données 1P en « server to server »

Différentes solutions techniques sont à disposition des annonceurs souhaitant partager leurs données CRM avec les grandes plateformes et les régies (on rappellera que les bonnes pratiques en matière de sécurité veulent que les données soient encryptées avant d’être partagées, et qu’il convient d’impliquer les DPO avant de partager de la donnée avec d’autres acteurs…).

Les connexions dites « serveur à serveur » représentent une première option, disponible chez les grandes plateformes (Meta avec « Capi », Google avec « Enhanced conversions », entre autres). Ces connexions créent un lien direct entre le serveur de l’annonceur et celui de la plateforme, et donnent à l’annonceur la possibilité d’envoyer automatiquement les données qu’il souhaite transmettre à la plateforme. Les données de conversion (et l’email des convertisseurs) peuvent ainsi être envoyées du serveur de l’annonceur au serveur de la plateforme en temps réel. L’information ne transite plus par le navigateur de l’internaute (et par les cookies, dont nous avons précédemment évoqué les limites). Davantage de conversions vont par conséquent remonter dans les dashboards des outils d’achat publicitaires (comme Meta ads ou Google ads, DV 360).

À la clé, une lecture des performances un peu plus complète, qui doit permettre d’optimiser les campagnes, et les décisions d’investissement au sein d’une même plateforme.

Autre bénéfice, et non des moindres : en « récupérant » davantage de conversions, on aide les algorithmes de Machine Learning de ces grandes plateformes à apprendre. Comme le précise Xavier Meunier, Global Media Director chez L’Oréal, à propos des connexions server to server mises en place avec Meta et Google notamment « ces nouveaux ponts nous permettent de ré-alimenter les plateformes avec la data 1P de L’Oréal… ce qui permet à ces plateformes de mieux comprendre le profil des clients, et ce qui permet de prospecter mieux qu’avant. La data 1P va alors alimenter/informer les algorithmes pour du retargeting mais aussi pour de la prospection. La prospection de L’Oréal sera alors mieux informée que celle des concurrents ».

d. Le partage des données 1P via les Data Clean Rooms

Les Data Clean Rooms constituent la deuxième grande option à disposition des annonceurs souhaitant partager leurs données CRM à des fins de mesure (et/ou de connaissance client, nous y reviendrons). Ces environnements cloud sécurisés permettent à différents acteurs (p.ex. une régie et un annonceur, ou encore une régie, un retailer et un annonceur) de déverser leurs propres jeux de données CRM, chiffrées et anonymisées, dans un même réceptacle, en vue de les faire correspondre (de les « matcher »), et d’en tirer des enseignements. Une régie peut par exemple partager les données relatives aux expositions publicitaires des visiteurs de ses plateformes digitales (attachées à des emails utilisateurs collectés par exemple lors du log-in), tandis qu’un annonceur partagera lui ses données de visites en magasin, ou ses données de ventes attachées à des emails clients. Le recours à ces solutions s’inscrit dans le cadre d’une « data collaboration » au long cours ou ponctuelle entre différents acteurs (prenant par exemple la forme d’une étude ad hoc commanditée par l’annonceur, facturée ou offerte à celui-ci par la régie et réalisée après une campagne).

Ce type d’étude permet de « faire le lien entre une exposition publicitaire et un impact sur des ventes online ou offline – ou une autre action associée à une clé de réconciliation -, au travers d’approches attributives, mais aussi, idéalement, via des approches incrémentales. On aboutit à une vision très précise de la performance – qu’on peut décomposer par ciblage, contexte de diffusion, moment de la journée… – pour pouvoir ensuite l’optimiser dans une approche itérative », souligne Thomas Allemand, VP AdTech & Emerging channels chez Jellyfish. 

Prenons le cas d’Amazon et de sa Data Clean Room Amazon Marketing Cloud. Avec AMC, Amazon offre aux annonceurs la possibilité d’obtenir une vision plus exhaustive, très granulaire, de la performance des campagnes menées via les deux solutions publicitaires Amazon (pour rappel, l’Amazon Advertising Console permet d’acheter les publicités de type Sponsored Product, Sponsored Display et Sponsored Brand, alors que la DSP d’Amazon permet d’acheter de la publicité sur l’Open web, en utilisant les données d’Amazon). Bien sûr, les équipes média de l’annonceur ont accès nativement à la performance des campagnes menées sur l’une ou l’autre plateforme, via les outils de reporting de celles-ci. Mais avec une étude dédiée, et en partageant ses données CRM dans la Data Clean Room, un annonceur vendant à la fois chez Amazon, mais également dans des boutiques physiques, pourra évaluer l’impact de ses investissements publicitaires Amazon sur ses ventes Amazon mais également sur ses ventes Offline (avec les limites abordées plus haut, liées notamment au taux de matching). Il pourra aussi, avec AMC, faire le lien entre, d’un côté, des expositions publicitaires et des niveaux de répétition générés par la publicité diffusée sur le site d’Amazon ET celle diffusée sur l’Open web, et, de l’autre, ses conversions. L’annonceur peut donc aller plus loin qu’avec les seules informations disponibles dans les outils d’achat publicitaire d’Amazon, en obtenant une vision plus complète, et décloisonnée de la performance des investissements publicitaires réalisés auprès d’Amazon. Chez Jellyfish, précise Thomas Allemand, « nous utilisons quotidiennement Amazon Marketing Cloud pour proposer des études ad hoc à nos clients. Ces études leur permettent, entre autres,  de comprendre dans quelle mesure les campagnes branding viennent nourrir la performance des campagnes lower funnel, notamment avec des études de Multi Touch Attribution. Nous avons par exemple constaté des taux de conversion jusqu’à 2 fois plus élevés lorsque l’usager a été exposé à des formats publicitaires Amazon & Prime Video Ads vs. sans Prime Video Ads ».

La Data Clean Room de Google (Ads Data Hub) offre des promesses équivalentes, et notamment sur la capacité à accéder à une lecture désilotée de la performance. Avec Ads Data Hub, les conversions online et offline de l’annonceur peuvent-être mises en regard des impressions (et des niveaux de répétition) acquises via l’ensemble des solutions publicitaires de Google : Google ads et DV 360, en particulier. 

Les régies des grands éditeurs de l’Open web, des broadcasteurs et des retailers (hors Amazon) recourent elles à des Data Clean Rooms indépendantes (comme celles de LiveRamp, Habu, Mediarithmics…) pour proposer aux annonceurs des études offrant des insights de même nature. 

La 1P et la connaissance client 

Le troisième grand cas d’usage impliquant les données 1P de l’annonceur, après le ciblage d’audiences et la mesure de la performance de la publicité digitale, tient à l’amélioration de la connaissance client. Celle-ci passe encore par ces « data collaborations », permises par les Data Clean Rooms. Là, un annonceur va partager ses données, par exemple avec un retailer, pour mieux caractériser, et mieux comprendre, les caractéristiques et comportements de ses propres clients et prospects. Comme l’explique Laure Gery, Global SVP of Digital Media chez Numberly, Numberly a un « tenant » – une « chambre » – dans la Data Clean Room » de Carrefour, qu’ils ouvrent à leurs clients CPG souhaitant collaborer avec l’enseigne. Une marque de grande consommation va y partager son fichier client, tandis que Carrefour, précise Laure Gery, « met à disposition les données relatives à ses encartés, incluant les données socio-démographiques mais aussi les données de comportement d’achat sur l’ensemble des produits vendus par Carrefour ». En faisant « matcher » ces bases de données, il devient possible de scorer la base de données clients de l’annonceur sur des segments socio-démographiques, mais aussi sur des segments propriétaires Carrefour, de type « familles bio », « chercheurs de bons plans », etc. (un « score » est ici un indicateur qui permet d’évaluer le niveau de représentation des « femmes 35/50 ans » ou des « familles bio » – par exemple – au sein de la base de données clients de l’annonceur). Autre application possible évoquée par Laure Gery : la capacité à calculer la CLV (ou Customer Lifetime Value) des acheteurs d’une marque donnée au sein d’un retailer. Un industriel peut ainsi évaluer des montants moyens dépensés auprès de telle ou telle de ses marques une fois que ceux-ci l’achètent une première fois chez Carrefour, catégoriser ses acheteurs chez Carrefour entre petits, moyens, et gros acheteurs, connaître les cycles de ré-achat de ses acheteurs, voire même prédire le churn…

Ces data collaborations à visée d’amélioration de la connaissance client ne se limitent évidemment pas au seul domaine de la grande distribution. On peut par exemple imaginer qu’un assureur et un acteur des petites annonces immobilières comme SeLoger partagent leurs données 1P dans une Data Clean Room, afin d’aider le premier à identifier les moments de vie de ses clients – en l’occurence, des futurs déménagements, cause première de churn chez les assureurs : il suffit de matcher la base de données des clients de l’assureur avec celle des utilisateurs SeLoger ayant effectué des demandes de mise en relation avec des vendeurs de biens immobiliers… (la connaissance client constitue ici le préalable à une activation dédiée sur cette audience, avec une offre spécifique). 

Les équipes média et la donnée CRM

La donnée CRM, au coeur des data 1P, a été historiquement placée entre les mains des équipes dédiées au marketing relationnel, dont une des fonctions, en schématisant, était d’envoyer des emails (plus ou moins) personnalisés à différents segments. Mais les équipes médias sont maintenant elles-aussi amenées, comme on l’a vu dans la première partie de cet article, à adresser des « audiences » construites, entre autres, via les données CRM. Il convient donc d’assurer de la cohérence entre les audiences activées, les messages envoyés, et les parcours clients proposés (p.ex. pages d’atterrissage sur un site web) par les équipes Marketing relationnel d’un côté, et les équipes médias de l’autre – pour éviter, par exemple, de relayer par email une offre promotionnelle dédiée à un segment 1P, tout en exposant les individus faisant partie de ce même segment à une autre offre sur Meta -. 

Ces équipes doivent donc collaborer, pour définir a minima des enjeux et des stratégies communes.         Un pont entre ces deux équipes, et entre ces deux cultures, peut être créé par la technologie. Et, en l’espèce, par les CDP (pour Customer Data Platform). 

Celles-ci regroupent l’ensemble des données relatives aux prospects et aux clients de l’entreprise : Les informations contenues dans les différentes bases de données CRM de l’entreprise, les données comportementales capturées par les traceurs posés sur ses assets digitaux, et, dans certaines CDP, les données d’exposition et d’engagement avec les publicités digitales de l’annonceur. Ces données sont centralisées dans un même réceptacle, et réconciliées à l’échelle de l’individu, autour d’un identifiant unique. La CDP fait alors office de Référentiel Client Unique (RCU) qui permet, à chaque membre des équipes médias ou marketing relationnel, d’accéder à une vision mise à jour en temps réel de l’ensemble de ses prospects, clients ou utilisateurs de ses assets digitaux.

La CDP fluidifie également les processus de création d’audiences, et leurs envois vers les solutions de marketing relationnel ainsi que vers les solutions publicitaires (de Google ads à Meta aux DSP), via des intégrations natives avec ces solutions . Le partage automatique des données CRM incluses dans la CDP, vers les solutions publicitaires vient aussi faciliter les cas d’usage orientés Mesure décrits dans cet article. Et les données issues des plateformes média, comme les données d’engagement avec la publicité, viennent, en retour, enrichir les profils inclus dans la CDP, et donc améliorer la connaissance client.



Source link