Solutions

Produits

Ressources

Société

Type : Article

Quelle stratégie data quand les budgets médias sont en berne ?

Depuis l’été 2022 et pour le premier semestre 2023 au moins, les budgets média, y compris sur le digital, sont à l’image de l’économie : moroses. Comment continuer à travailler la donnée dans ce contexte ? Sur quels piliers s’appuyer pour tirer toute la valeur des interactions avec les audiences ? Tour d’horizon.

Une marée basse qui tarde à remonter. C’est l’image qui se dégage des prévisions relatives à l’évolution du marché de la publicité digitale. Oui, le digital affiche une meilleure santé que le marché publicitaire global, mais le reflux est bien là. En France, les acteurs (éditeurs, trading desks) consultés par le JDNet fin 2022 confirment une baisse du programmatique depuis l’été 2022 et anticipent un premier semestre 2023 bien morne.

Dans le monde, les estimations de croissance de la publicité sont revues à la baisse : GroupM prévoit ainsi une augmentation de 5,3% des investissements publicitaires globaux en 2023 (l’estimation était de 6,4% six mois auparavant). Si l’on jette un coup d’œil au marché américain, et plus particulièrement aux dépenses publicitaires sur les réseaux sociaux, là aussi un vent froid souffle sur les prévisions. Pour Insider Intelligence, près de 10 milliards de dollars ont disparu entre les estimations de décembre 2022 et celles publiées en mars 2022. Au fil des analyses, un consensus se dégage : le ralentissement devrait se poursuivre durant le premier semestre 2023. Au moins.

 

L’achat média digital en petite forme

 

Cette petite forme de l’investissement média digital s’explique. Dans un contexte global très incertain, les marques anticipent une baisse de la consommation et modulent leurs investissements en conséquence. « Et quand on doit réduire la voilure, l’achat média digital  se désactive/réactive aisément, contrairement à des investissements dans le contenu ou le SEO. Là, couper les budgets peut se solder par des régressions », estime le responsable stratégie digitale d’un grand acteur industriel. Dans ce contexte, avec des investissements médias moindres, comment continuer à étoffer ses données ?

 

Cap sur les leviers organiques

 

Sans surprise, les efforts se focalisent sur les leviers organiques, pour l’acquisition comme la rétention. Côté acquisition, ceux qui ont déjà constitué une « rente SEO » (comprendre : un travail de référencement qui garantit un trafic régulier), vont veiller a minima à l’entretenir, voire à la développer en soutenant leur production de contenus. Un trafic surtout intéressant s’il est bien généré par des contenus qui quadrillent les différents types d’intentions de recherche (informationnelle, navigationnelle, commerciale, transactionnelle). Les visites générées par ce biais représentent donc un trafic qualifié qui pourra être travaillé au moins en partie, gestion des consentements oblige.

 

Autre canal qui est l’objet de toutes les attentions durant ces temps de disette média, l’emailing. Sous toutes ces formes : du « cold email d’acquisition » à la newsletter régulière qui entend soigner durablement la relation avec une audience. Ces emails sont des supports précieux pour étoffer la donnée : au-delà des classiques taux de clics et d’ouverture, d’autres indicateurs tels que le niveau de fidélité, la typologie des contenus consommés permettent d’affiner la connaissance de son audience pour mieux l’activer ensuite.

 

Plus que jamais, raisonner omnicanal

 

Tirer le meilleur parti du trafic gagné par ce type de leviers suppose d’optimiser les « playbooks ». Pour développer considération et conversion, ces séquences d’automatisation combinent souvent des emails, mais les marques ont tout intérêt à les penser à une échelle omnicanale. Par exemple, pour les déclencher sur la base d’une action en magasin (achat, délivrance d’une carte de fidélité) ou pour les développer en intégrant dans le scénario une interaction avec le call center (pour apporter un conseil et confirmer un intérêt).

 

Quels que soient les leviers organiques privilégiés, ils ont tous un point commun : contrairement à l’achat média, il ne s’agit pas ici de “surpresser une audience” mais de l’adresser avec des messages adaptés, un rythme mesuré et en toute conformité. Un équilibre délicat qui, pour être tenu, suppose de s’appuyer sur 3 piliers :

 

Pilier #1 : la gestion des consentements

 

Désormais pièce incontournable de la stack martech, la CMP (Consent Management Platform) doit aider à identifier la formule qui garantit un taux de consentement cohérent avec les benchmarks de votre secteur d’activité. Une formule à « ABtester » en faisant varier des éléments de design mais aussi le langage utilisé, qui doit être un heureux compromis entre tonalité de marque, pédagogie et impératifs juridiques.

 

Pilier #2 : la résolution des identités

 

Toute aussi importante, la capacité à réconcilier les interactions autour d’un ID unique pour chaque utilisateur. Sans cette résolution d’identité, il s’avèrera difficile de ne pas sur-solliciter les audiences et, encore plus, de leur adresser des contenus adaptés à leurs attentes. Si des prérequis techniques, notamment dans les emails (lire à ce sujet notre livre blanc « un monde sans cookie ») s’imposent, il importe également de penser des campagnes pour multiplier les occasions d’associer emails et cookies.

 

Pilier #3 : la segmentation des audiences

 

Enfin, pour capitaliser pleinement sur les leviers organiques et sur la data first-party, la capacité à segmenter les audiences détient les clés d’une activation performante. Objectif : capter un maximum de signaux afin de créer des segments plus ou moins complexes et tendre vers une personnalisation des messages. Et, là encore, en raisonnant à une échelle omnicanale, donc en captant les signaux de tous horizons et à grande échelle, afin de donner aux équipes matière à enrichir les dimensions de ces segments.

 

Adossées à ces trois piliers, les équipes en charge de l’acquisition comme de la fidélisation seront en mesure d’améliorer la connaissance client. Et de gagner en précision dans l’allocation des budgets médias pour lesquels, mécaniquement, les marques vous attendre un rendement accru.

Améliorer la qualité des données, un enjeu primordial pour les entreprises

Dans un monde où les données sont de plus en plus précieuses pour les entreprises, il est essentiel de s’assurer de leur qualité pour garantir l’efficacité des campagnes et donc maximiser les investissements marketing. C’est là que notre plateforme entre en jeu.

Pourquoi la qualité des données est-elle si importante pour les entreprises ?

La qualité des données est cruciale pour les entreprises car elle a un impact direct sur leur capacité à prendre des décisions éclairées, à analyser les données de manière précise et à atteindre leurs objectifs commerciaux.Lorsque les données sont de mauvaise qualité, cela peut entraîner des erreurs dans l’analyse et la prise de décision, ce qui peut avoir des conséquences néfastes sur le ROI des campagnes marketing, sur l’analyse des données et sur l’analyse des campagnes.Par exemple, si une entreprise utilise des données de mauvaise qualité pour cibler ses campagnes publicitaires, elle peut finir par atteindre des personnes qui ne sont pas intéressées par ses produits ou services, ce qui peut entraîner un gaspillage de budget et une baisse de la performance de la campagne. De même, si une entreprise utilise des données de mauvaise qualité pour analyser ses performances, elle risque de prendre des décisions qui ne sont pas fondées sur des données précises, ce qui peut nuire à la croissance et au succès de l’entreprise à long terme.
En résumé, la qualité des données est cruciale pour les entreprises car elle est la base de toute prise de décision éclairée et de toute analyse précise.

Qu’est-ce que la Data Quality ou Data Integrity ?

L’intégrité de données se réfère à l’exactitude et la consistance des données tout au long de leur cycle de vie, de la collecte et du stockage à l’analyse et la diffusion. Sans intégrité de données, les entreprises risquent de prendre des décisions basées sur des informations inexactes, qui peut être source de perte de revenus, d’une réputation écornée, voir même de problèmes juridiques. Assurer l’intégrité de données est un processus complexe et difficile, surtout pour les entreprises qui traitent de grandes quantités de données provenant de multiples sources. Il nécessite la mise en œuvre d’une série de contrôles et de processus, y compris le contrôle de qualité, la validation, la suppression des doublons, le contrôle de la livraison intégrée, les alertes en temps réel, la préservation et la sauvegarde, la cybersécurité et les contrôles d’accès avancés. Ces mesures permettent de s’assurer que les données sont précises, complètes et cohérentes, et que toutes les menaces liées à l’intégrité des données sont identifiées et rapidement prises en compte.

Améliorer la qualité des données grâce à notre plateforme

Notre plateforme a pour objectif de donner aux entreprises la confiance nécessaire dans leurs données et ce de façon très simple. Nous offrons une interface de datalayer normalisée qui permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation qui alimentent leur workflow de qualité de données.
En outre, notre fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements en temps réel de manière simple et intuitive, grâce à notre approche no-code. Cependant, les plus techniques d’entre nous ne sont pas oubliés puisque nous proposons également un module low-code (voir code tout court pour les plus téméraires).

Gérer les erreurs de données avec notre plateforme

Nous avons plusieurs fonctionnalités pour gérer les erreurs de données. Tout d’abord, nous avons un tableau de bord de qualité de données qui permet aux utilisateurs de voir les violations de spécification en un coup d’œil et de les corriger rapidement à la source ou en temps réel avec la fonction de Data Cleansing.
Nous offrons également des alertes en temps réel pour que les utilisateurs puissent réagir rapidement aux erreurs de données. Ces alertes peuvent être envoyées par emails, messagerie (Slack, Teams, …), webhook ou via des notifications dans l’interface. Une alerte se configure en 3 clics, avec une réglette pour choisir le seuil de déclenchement et le canal de communication.

Comment notre produit aide à travailler avec les mêmes données dans toute l’entreprise

Notre interface de datalayer normalisée permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation pour s’assurer que toutes les données sont conformes à ce schéma. De cette façon, toutes les équipes peuvent travailler avec les mêmes données et s’assurer que celles-ci sont de qualité. De plus, nous avons un dictionnaire de données unique qui permet aux utilisateurs de définir et de partager les définitions de leurs données avec l’ensemble de l’entreprise.

Qu’est-ce que la fonction de Data Cleansing et comment fonctionne-t-elle ?

La fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements avant de les envoyer à leurs destinations. Nous avons plusieurs types de transformations disponibles, tels que le renommage d’événements, la dérivation d’événements, la modification de propriétés et le filtrage d’événements, qui peuvent être créés de manière simple et intuitive grâce à notre approche no-code basée sur des formules et des opérateurs de base, très similaire à ce que l’on trouve dans un tableur comme Excel. Pour ceux qui préfèrent un approche low-code, il est également possible d’ajouter du code JavaScript personnalisé pour créer des transformations sur mesure. La fonction de Data Cleansing est particulièrement utile pour s’assurer que les données envoyées à des destinations sont de qualité et conformes aux spécifications requises.

Qu’en est-il de la qualité des données transmises aux destinations ?

Nous avons une interface de suivi de la délivrabilité des événements qui permet aux utilisateurs de vérifier si les données atteignent leur destination ou s’il y a eu des problèmes d’envoi. Cette interface inclut des métriques simples et rapide à lire, comme le pourcentage d’évènements non envoyés, une visualisation de l’évolution des événements correctement envoyés et ceux en échec sur une période donnée, et un tableau récapitulatif des erreurs. Ce dernier donnant un aperçu des différents types d’erreurs rencontrées et comment les résoudre. En cas de problème d’envoi, nous offrons également un système d’alertes pour notifier les utilisateurs immédiatement.

Comment notre plateforme simplifie les erreurs techniques complexes lors de l’envoi de données aux partenaires

En premier lieu les erreurs ne sont pas toujours techniques, il s’agit souvent de donnée manquante ou mal formatée et notre plateforme génère des explications en langage naturel très simple à lire. Et quant aux erreurs techniques, qu’elles proviennent d’un retour de l’API du partenaire ou d’une indisponibilité de ses serveurs, là encore il était important pour nous que chaque erreur soit très simple à comprendre. Nous utilisons un synthétiseur de langage naturel (NLG) pour transformer ces erreurs illisibles en explication parfaitement compréhensible par un profil non technique avec des pistes de résolutions. C’est la magie de l’IA 🙂

Infographie Soldes 2023 – Bonnes pratiques pour augmenter l’engagement de vos clients pendant les soldes

Dans un contexte où 48% des Français se disent inquiets concernant leur pouvoir d’achat et 75% souhaitent faire évoluer leurs comportements d’achat (étude OpinionWay, « Du devoir d’achat au pouvoir d’achat : la relation des Français avec la consommation » 2022), les soldes représentent une période critique pour les annonceurs qui doivent déborder de créativité pour se distinguer parmi les milliers de signaux envoyés aux consommateurs.

Avec une Customer Data Platform, il vous est désormais possible d’augmenter votre connaissance client et d’adresser les bons messages en quelques clics dans l’optique d’augmenter leur engagement.

Pour ce faire, voici quelques bonnes pratiques à adopter pour tirer parti de la période des soldes.

En résumé, il est nécessaire d’avoir une vue centralisée sur l’ensemble du cycle de vie de la donnée utilisateur pour avoir un impact positif sur ses comportements d’achat. La segmentation devient donc le moyen le plus efficace pour créer vos groupes d’audience et adapter les stratégies omnicanales. Une Customer Data Platform s’avère donc être un formidable outil pour augmenter l’engagement des clients.

Cette infographie vous a plu et vous souhaitez en savoir plus sur l’engagement de vos clients et l’analyse des résultats ?

Découvrez en plus grâce à notre livre blanc “Comment se préparer au Cookieless” et augmentez l’engagement de vos clients.

Checklist 2022 – Affinez votre tracking avant le Black Friday

Comme chaque année, le Black Friday promet d’attirer les foules, ce qui devrait engendrer beaucoup de données à traiter par les équipes data. Vérifiez que votre tracking soit prêt pour cet évènement en lisant nos bonnes pratiques.

 

 

Cette checklist vous a plu et vous souhaitez en savoir plus sur vos tracking ?

Découvrez-en plus sur le Live Report Builder de Commanders Act et optimisez le parcours client de vos consommateurs.

Gestion des consentements en Espagne : 5 raisons d’accélérer

Si l’Espagne a adopté le RGPD (Règlement Général sur la Protection des Données) comme bon nombre d’autres pays de l’Union européenne, son application sur le terrain reste contrastée. Comme la CNIL en France, l’AEPD (Agence Espagnole pour la Protection des Données) a émis des directives et publié des guides pour épauler les entreprises et faciliter leur mise en conformité avec le RGPD, et notamment en ce qui concerne la gestion des cookies et des consentements associés. « Les directives de l’AEPD sont très proches de celles de la Cnil mais, dans la pratique, on ne ressent pas une forte pression officielle pour que l’ensemble des acteurs s’emparent vite et globalement du sujet », estime Juan Vasquez, directeur pour la région Ibérie de Commanders Act.

Ce sentiment se lit aussi dans les chiffres. Oui, l’Espagne figure dans le haut du classement si l’on regarde le nombre d’amendes infligées, mais se situe plutôt en bas si l’on s’en tient au montant moyen : 131 564 euros contre 10,79 millions d’euros en France. Dans ce contexte, l’expérience française peut-elle inspirer le marché espagnol ? Quelles leçons en retenir ? La synthèse en 5 enseignements.

 

Enseignement #1 : Ne pas croire que cela ne concerne que les autres

En Espagne, l’AEPD montre une attention toute particulière pour les Telcos tels que Vodafone, pour les banques telles que Caixabank et BBVA, ou encore pour les compagnies aériennes comme Iberia et Vueling. Une pression qui a fortement encouragé les entreprises de ces secteurs à s’emparer du sujet. « Je pense qu’il existe des différences notables dans le niveau de conformité en fonction du secteur d’activité, les acteurs du secteur des télécommunications ou du secteur financier dont l’activité est directement liée au traitement des données personnelles, étant clairement au-dessus de la moyenne »analyse Santiago Vázquez-Graña, DPO de Capgemini Espagne.

Les autres secteurs et les acteurs de plus petites tailles doivent-ils se sentir immunisés ? Sans doute pas. L’expérience française l’a montré, même si la Cnil n’a pas forcément les moyens d’investiguer tous les secteurs en même temps, les campagnes se succèdent pour passer en revue les différents pans de l’économie. On voit ainsi mal, les acteurs du tourisme, secteur qui pèse plus de 10% du PIB, échapper aux investigations de l’AEPD. En résumé, grande entreprise ou PME, tous les acteurs, et notamment ceux dont l’activité est exposée d’une manière ou d’une autre, peuvent apparaître sur le radar des autorités.

 

Enseignement #2 : Ne pas attendre la pénurie de compétences

Le RGPD et les directives émises par les autorités nationales forment un ensemble complexe à interpréter. Au-delà des modalités de la gestion des consentements, des sujets tels que la durée de conservation peuvent demander de s’appuyer sur des experts. De même pour opérer la mise en œuvre technique. Autrement dit, mieux vaut ne pas attendre un mouvement d’adoption général du marché pour se lancer – sauf à vouloir payer au prix fort des compétences pénuriques.

En France, où les entreprises ont souvent attendu le dernier moment pour s’investir sur le sujet, les cabinets d’avocats spécialisés ont vite manqué à l’appel…

 

Enseignement #3 : Ne pas croire avoir réglé le problème avec le server-side

La fin annoncée des cookies a conduit des entreprises à lancer des migrations vers le server-side. Autrement dit, la collecte des informations n’est plus traitée côté navigateur, mais côté serveur (lire à ce sujet notre livre blanc « Comment vous préparer au cookieless ? » ). Des migrations qui parfois s’accompagnent d’une question : puisque la collecte s’effectue « cookieless », plus besoin de consentement ?

Au regard des efforts fournis pour basculer en server-side, le raccourci est tentant, mais… non. Le server-side n’est qu’une modalité technique de collecte sans impact aucun sur les exigences en matière de gestion des consentements. Voilà pourquoi la CMP de Commanders Act a d’emblée été conçue pour propager le signal de consentement en mode server-side.

 

Enseignement #4 : Penser gestion des préférences globales de l’utilisateur

Comment gérer le consentement ? Au cas par cas, site par site, canal par canal ? Donc, s’occuper du site, puis de l’app et plus tard encore du chatbot ? Les retours d’expérience le montrent, les entreprises qui comme l’Armée de Terre et Floa Bank optent pour une approche globale du sujet profitent d’un meilleur retour sur investissement.

En traitant de manière globale le consentement à travers un centre de gestion des préférences de l’utilisateur, l’entreprise rationalise ses efforts et minimise grandement les risques de non-conformité. « À défaut d’une telle approche, beaucoup de chatbots en Espagne ne sont pas attachés à une CMP », observe Juan Vasquez.

 

Enseignement #5 : Considérer cette gestion des préférences comme un investissement

Corollaire de l’enseignement précédent, passer un cap en matière de gestion des consentements consiste à considérer le sujet non plus comme un coût, mais comme un investissement, voire comme un avantage concurrentiel dont l’entreprise peut se prévaloir. En Espagne, « les coûts associés à la mise en conformité (…) et la vision générale de cette mise en conformité comme une entrave à l’activité plutôt que comme une source de valeur ajoutée à la relation avec le client, expliquent que de nombreuses entreprises n’investissent pas les ressources nécessaires pour s’adapter à la nouvelle réalité réglementaire », estime le cabinet Legal Army dans une interview à Silicon.es.

La situation semble toutefois évoluer peu à peu. Gageons que, comme en France, un nombre croissant d’entreprises feront de la gestion des consentements un argument d’attractivité à part entière.

4 étapes pour se préparer au server-side

Avec l’avènement de mises à jour de l’Intelligent Tracking Prevention (ITP) par Apple et l’annonce par Google de la suppression des cookies tiers, la gestion des tags côté serveur (aussi appelée tag management “server-side”) est montée en puissance. La plupart des navigateurs, des appareils et des canaux ont désormais arrêté d’utiliser des cookies tiers, de sorte que les tags côté client sont voués à l’obsolescence prochaine. Vous trouverez ici 4 mesures pour préparer la gestion des tags avec le server-side.

Pour rappel : avec les tags client-side, le navigateur de l’utilisateur interagit directement avec le fournisseur (tel que Google Analytics ou Facebook) via un conteneur de tags. Pour tous les tags configurés, une requête HTTP est envoyée à chaque interaction au point de terminaison correspondant du fournisseur de tags. La requête côté client est déjà structurée dans le format de données approprié.

La gestion des tags server-side permet quant à elle de créer un point de terminaison de données distinct dans un environnement serveur auquel les données sont envoyées, au lieu qu’elles soient directement (et toutes) envoyées aux fournisseurs. Cela signifie que toutes les interactions en cours sur le site web sont envoyées sous forme de flux de données groupées, depuis un client intégré au navigateur vers le serveur de la solution de gestion des tags. Ce n’est qu’ici que se trouvent les différents tags des prestataires de services et qu’ils structurent les données souhaitées dans le format requis. En outre, les données peuvent être traitées, enrichies et anonymisées avant d’être envoyées aux prestataires de marketing digital.

De nombreuses entreprises passent donc d’une gestion des tags côté client à une gestion des tags côté serveur. Cette transition prend toutefois du temps. Cela n’a rien d’étonnant s’agissant d’un processus qui doit impliquer tous les acteurs du monde digital. Cependant, le risque d’une attitude attentiste se pose. Si vous attendez que le concept soit totalement mûr pour mettre en place une stratégie server-side, non seulement vous renoncez à une courbe d’apprentissage essentielle, mais en outre vous passez à côté d’avantages concurrentiels importants.

 

Quelle est donc la meilleure façon de gérer cette transition ? Quelle doit être la stratégie d’une implémentation server-side ? Notre check-list vous donne des pistes.

 

1. Impliquez le Délégué à la Protection des Données dans la transition (DPO)

Une bonne partie des défis auxquels est confronté l’écosystème digital trouvent leur origine dans des questions liées à la protection des données. Même si une implémentation server-side est qualifiée de “projet technique”, il s’avère indispensable d’y associer au plus tôt le délégué à la protection des données (DPO). Son avis joue un rôle décisif à chaque étape du processus, qu’il s’agisse de sélectionner les solutions à basculer côté serveur ou des nouveaux traitements qui facilitent la centralisation des données sur une solution server-side.

 

2. Inventoriez les partenaires

Selon les besoins de l’entreprise, ce sont plusieurs dizaines de tags qui sont aujourd’hui déclenchés depuis l’infrastructure digitale, et autant ou presque de partenaires activés.

Parmi eux, quels sont ceux qui :

… sont déjà opérationnels en server-side ?

ont prévu de l’être à l’avenir ?

… vont fonctionner en mode hybride ?

n’ont prévu aucun changement à moyen terme ?

 

Pour les fournisseurs de solutions, la complexité de la transition est directement liée à la nature des tâches. Celles-ci sont essentiellement de trois types : identification, collecte et interaction.

Pour l’identification, il est quasiment impossible d’échapper au tag en client-side ; pour la collecte, le changement semble possible, tandis que cela s’annonce beaucoup plus délicat pour l’interaction (par exemple, la personnalisation). De plus, il est fort probable que, pour un même partenaire, la collecte s’effectue en client-side et la suite du traitement en server-side.

Pour élaborer votre propre stratégie, il vous faut donc également connaître celle de vos partenaires. Comme il s’agit d’un enjeu essentiel, tous les acteurs communiquent aujourd’hui sur ce sujet, ce qui facilite la tâche.

 

3. Commencez avec les bons candidats

Même si elle s’appuie sur une CDP (Customer Data Platform) conçue pour le server-side, la transition va s’effectuer sur plusieurs mois et prendre la forme d’une cohabitation entre client-side et server-side. Dans ce contexte, il importe de choisir les bons candidats afin que chacun (de l’informatique au marketing en passant par le DPO) puisse se familiariser avec la logique server-side.

La probabilité est grande qu’une loi de Pareto émerge, avec 20 % des tags qui représentent 80 % des difficultés. Un bon candidat correspond à une solution qui a déjà fait ses preuves dans la transition vers une solution server-side et pour laquelle les avantages sont clairement identifiables.

L’évaluation des fournisseurs de solutions en fonction de la résilience d’une conversion et de sa difficulté technique peut aider à planifier l’effort.

 

4. Communiquez et sensibilisez

La mise en œuvre du server-side ne concerne pas seulement les équipes informatiques, l’équipe marketing ou le DPO. Chacun, à son niveau, doit se familiariser avec les enjeux et les exigences de la technologie server-side. Les clichés du type “il faut casser les silos” ne sont d’aucune aide en la matière. Les entreprises doivent plutôt opter pour une communication appropriée afin de discuter ensemble de la stratégie, des moments clés et des retours d’expérience.

 

Conclusion

Nous ne pouvons pas prédire exactement à quoi ressemblera le monde digital sans cookies. Cependant, plusieurs développements suggèrent que l’avenir sera placé sous le signe des technologies server-side. Certes, la bascule vers des concepts server-side prendra du temps et les deux modèles (client-side et server-side) devront encore cohabiter pendant un certain temps. Mais la centralisation des données sur une solution server-side offre trop d’avantages pour s’en passer encore plus longtemps.

Les salariés étant souvent déjà accaparés par leurs activités quotidiennes, il est presque impossible de se passer d’experts externes à même d’aider l’entreprise dans cette transition. Mieux vaut là aussi ne pas attendre trop longtemps. Étant donné l’enjeu, il est fort probable que les meilleures ressources soient rapidement mobilisées. Avec ces 4 mesures pour préparer la gestion des tags avec le server-side, vous etes paré pour un avenir avec moins de cookies.

 

_____________________________________________

En savoir plus sur le sujet:

White Paper: Comment vous préparez-vous à un avenir où les cookies seront moins nombreux?

Comment choisir sa CDP ?

Les Customer Data Platform ont la côte. Mais parmi tous les systèmes existants, comment faire pour choisir la bonne CDP ?

Toutes les CDP peuvent composer des profils unifiés sur les clients. Cependant, les fonctionnalités varient encore beau­coup d’un système à l’autre, aussi bien en ce qui concerne les fonctionnalités fondamentales qui permettent d’établir les profils des clients que les fonctionnalités complémen­taires qui réalisent d’autres fonctions. La sélection de la CDP appropriée pour votre entreprise nécessite d’examiner attentivement ce que chaque système propose par rapport à vos besoins.

Commençons par les fonctionnalités fondamentales. N’ou­bliez pas que des systèmes qui ne sont pas des CDP offrent un certain nombre de fonctionnalités qui se recoupent avec celles d’une CDP. Un entrepôt de données peut collecter des données à partir de systèmes sources, de sorte que les fonctionnalités de collecte de données d’une CDP sont moins importantes. Un système de Master Data Manage­ment peut tenir à jour les identités des clients que votre CDP peut importer. Une plateforme d’intégration peut être en mesure de transférer les données de la CDP dans les systèmes qui en ont besoin. Même si vous disposez de ces types de systèmes, rien ne garantit qu’ils répondent vrai­ment à vos besoins. Vous devez néanmoins le vérifier.

Pour l’heure, supposons que vous avez besoin d’une CDP pour obtenir l’intégralité des fonctionnalités. Voici quelques points à vérifier.

Collecte de données

  • Le système peut-il traiter toutes vos sources de données existantes, y compris les données en ligne et hors ligne ?
  • Le fournisseur propose-t-il des connecteurs préétablis pour vos sources de données existantes ou devrez-vous créer les vôtres ?
  • Qu’est-ce qui est requis pour élaborer un nouveau connecteur ?
  • Si vous avez des sources de données diffusées en continu, le système peut-il les prendre en charge ?
  • Pouvez-vous définir et réagir à des événements au sein des données diffusées en continu ?
  • Le système peut-il accepter des entrées inconnues ou inattendues sans perdre les données ?
  • Le système peut-il prendre en charge vos volumes de données, en termes de temps de chargement, de capacité de stockage et de vitesse d’accès ?
  • Que faudra-t-il pour organiser les données afin qu’elles correspondent au modèle de données de votre entreprise ?

Création de profils

  • Le système peut-il créer des profils avec un identificateur persistant qui ne change pas quelles que soient les modifications apportées à un identificateur personnel ?
    • Le système peut-il mettre en correspondance les identificateurs personnels en utilisant les méthodes dont vous avez besoin ? Déterministe : les correspondances sont basées sur les liens connus entre deux identificateurs, tels qu’un numéro de téléphone et une adresse postale sur le même enregistrement de compte.
    • Par similitudes : les correspondances reposent sur des formes alternatives de la même information, comme les variantes orthographiques du nom d’une rue.
    • Probabilistes : les correspondances sont basées sur les corrélations entre deux éléments, tels qu’un téléphone et un ordinateur qui sont fréquemment utilisés aux mêmes moments et aux mêmes endroits.

Le système peut-il créer une vue unifiée en combinant toutes les données associées à un même individu ?

  • Le système peut-il créer des agrégats, des scores et d’autres valeurs dérivées sur la base d’événements et de transactions associés à un même individu ?
  • Le système peut-il établir des profils au niveau de l’entreprise ou d’un foyer qui combinent des informations sur plusieurs individus ?
  • À quelle vitesse le système peut-il recalculer les valeurs dérivées lorsqu’un nouvel identificateur personnel est mis en correspondance avec un identificateur de client existant (sans réévaluer les correspondances existantes) ?
  • À quelle vitesse le système peut-il réévaluer toutes les correspondances existantes lorsque de nouveaux identificateurs personnels sont ajoutés ?
  • Avec quelle rapidité les données ingérées sont-elles incorporées dans les profils des clients, en incluant la mise à jour des calculs utilisant ces données ?

Partage de données

  • Quelles méthodes d’accès sont prévues pour récupérer les données de la CDP ?
  • Quelles étapes, le cas échéant, sont nécessaires pour exposer de nouveaux éléments de données en vue de leur partage ?
  • À quelle vitesse les profils individuels peuvent-ils être renvoyés via un appel d’API ?
  • Le système peut-il effectuer des calculs tels qu’un score de modèle prédictif en temps réel sur la base d’un appel d’API ?

De nombreuses CDP offrent des fonctionnalités complé­mentaires à la création de profils.

Les principales catégo­ries sont répertoriées ci-dessous. Elles peuvent par ailleurs être fournies par un système spécialisé. Les entreprises qui ont mis en place des solutions spécialisées adéquates ne voudront généralement pas les remplacer par la version CDP. En revanche, les entreprises qui ne disposent pas d’une solution adéquate pourront évaluer si une CDP est susceptible de leur convenir, sachant qu’elles minimiseront ainsi le nombre de systèmes distincts à acheter, intégrer et planifier dans la formation des employés.

Traitement analytique : génération de rapports, analyses exploratoires et descriptives, visualisation des données, modélisation prédictive, identification de la meilleure action suivante, recommandations de produits, optimisation du moment de l’envoi, attribution des résultats marketing.

Campagnes : sélection de l’audience ou du segment, flux de campagne à plusieurs étapes, interactions en temps réel, sélection du contenu au niveau du segment, fraction­nement des tests.

Personnalisation : sélection des offres et des messages au niveau des individus, extraction de données, exécution de contenu dynamique.

Orchestration : sélection des messages entre de multiples campagnes, sélection des canaux au niveau des individus, formatage spécifique du canal, connecteurs aux systèmes de diffusion des canaux.

  • Diffusion : canaux pris en charge, fonctionnalités de personnalisation, création et gestion de contenu, volumes pris en charge.
  • Opérations : traitement des commandes, expédition, livraison des produits, facturation, ventes, support, etc.

Les systèmes dédiés à la diffusion et aux opérations, en particulier, sont des produits majeurs à part entière. La plu­part des entreprises commencent par sélectionner les sys­tèmes qui répondent à leurs besoins essentiels en matière de diffusion et d’opérations, puis évaluent si la CDP intégrée est suffisante ou si une CDP distincte est nécessaire.

Découvrez notre White Paper « Customer Data Platform, il est temps d’investir » co-écrit avec le CDP Institute.

Les bénéfices du Server-Side

Il existe 2 manières de collecter les signaux clients envoyés au cours de l’usage d’un site web ou d’une application mobile. La première méthode consiste à faire travailler le navigateur qui en chargeant la page exécutera de petits morceaux de code (« tags »).

Ce sont ces tags qui collectent et envoient les données (origine, contenu, profil,..) vers les partenaires que le client a autorisés. Dans ce premier cas, tout repose sur le navigateur. La seconde méthode consiste à envoyer la donnée sur le serveur qui va se charger au travers de règles d’alimenter directement les différents partenaires sur leurs serveurs. Dans ce second cas, la collecte, la transformation et le partage s’affranchissent du navigateur pour s’effectuer de serveur à serveur.

Le server-side est devenu le sujet principal discuté à la machine à café au sein des équipes digitales. À raison ? Voyons les opportunités qu’il représente.

  • Qualité de la donnée collectée : l’approche server-side collecte les données de manière centralisée sur un serveur plutôt que de manière distribuée par chaque navigateur. Au passage sur le serveur, une bonne plateforme server-side permet de contrôler la qualité de la donnée, d’identifier des erreurs et de les corriger sur place plutôt que d’attendre un patch correctif de l’équipe technique. Toutes les équipes Data apprécient ce point car le nettoyage de la donnée est un enjeu majeur. Faire la même chose dans une approche tag est possible mais alourdit le conteneur au point parfois de dégrader l’expérience client et ne permet pas de procéder si facilement aux correctifs. Qualité de la donnée collectée signifie qualité de la donnée transmise et garantit le bon fonctionnement des solutions alimentées. Au chapitre de la fiabilité, ajoutons que le traitement « server-side » est aussi un moyen de réduire les écarts parfois observés (du fait des contraintes des navigateurs) entre les données analytiques et transactionnelles.

 

  • Agilité des équipes : Vous connaissez tous ce qu’on appelle les périodes de « code freeze », ces moments où rien ne peut être modifié sur le site afin de ne pas prendre de risque dans une période critique. Dans une approche server-side, c’est toujours le même flux de données qui alimente le premier serveur. Quand ce flux doit être modifié, corrigé, transformé, ce n’est plus au sein du code source mais de manière asynchrone, au moment du passage via le serveur. Désormais, les correctifs peuvent avoir lieu à tout moment, la transmission de données supplémentaires aussi, la modification des données également. C’est un gain particulièrement utile.

 

  • Meilleur contrôle de la conformité du traitement des données : une seule requête envoyée sur le serveur qui va ensuite traiter, adapter et répartir les données aux différents partenaires. L’éditeur du site est donc en mesure de garantir à ses visiteurs une application réelle des règles affichées en matière de traitement des données. Les équipes en charge de la conformité y trouvent une sécurité complémentaire. Le piggy backing n’est plus possible.

 

  • Qualité opérationnelle du site : Ce sujet est un des plus importants dans l’univers digital puisque tous ces objets que sont les sites, les applications mobiles obéissent à des contraintes industrielles de scalabilité et de qualité. Rien de plus complexe à maitriser pour une équipe technique qu’un grand volume de « tags », plus ou moins compatibles, plus ou moins hétérogènes, et déployés parfois par des tiers sans toutes les précautions nécessaires. L’exemple le plus courant tourne autour du ralentissement des temps de chargements des pages, provoqués par des lourdeurs javascript, des conflits javascript ou encore d’alertes de sécurité dans des tunnels de conversion à cause d’un tag non sécurisé.

 

  • Meilleure performance du site web : Réduire le volume de scripts présents sur les sites web, limite le risque d’une dégradation de l’expérience client, accélère le temps de chargement des pages et permet à l’équipe technique de respecter ses standards internes et parfois ses objectifs. Or nous savons à quel point la performance est au cœur de l’expérience client. Une seconde de délai peut impacter vos conversions de 7% (Strangeloop).

 

  • S’affranchir des contraintes techniques liées aux navigateurs : les Ad-blockers, dont les listes noires bloquent les appels à certains services depuis le navigateur, ou tout simplement les mécanismes de filtrage des cookies, à l’instar de l’Intelligent Tracking Prevention (ITP) d’Apple. Avec le server-side, les appels sont effectués depuis le serveur, ils sont donc hors du champ d’action des Ad-blockers. Et comme le service invoqué côté serveur peut être hébergé sur un sous-domaine du site (et non sur un domaine tiers), il n’est pas intercepté par les mécanismes de type ITP. Attention, cela ne dispense nullement de se conformer aux règles de collecte des consentements et le server-side sait porter un signal de consentement, contrairement à ce qu’on peut entendre ici ou là.

 

  • Productivité des équipes : Parfois, les équipes qui découvrent le server-side ont l’impression d’être démunies car elles n’envisagent pas qu’une plateforme puisse les aider à prendre le contôle de ces flux de données. Au final une plateforme server-side facilitent un certain nombre d’opérations sur les données qui sont, sans le server-side, soit impossibles, soit très complexes à réaliser et nécessitent la coordination entre plusieurs équipes. Parmi ces fonctions très utiles qui font de vous l’aiguilleur du paysage digital : le contrôle qualité en temps réel combiné à de l’alerting, l’enrichissement des données en temps réel avec des scores (crm, prédictif,…), la maîtrise des sources comme des destinations

 

  • Dissociation Collecte/Partage : C’est sans doute la dimension la plus révolutionnaire. Désormais, si la collecte se fait toujours au niveau du device car c’est là que l’utilisateur interagit avec le site web, l’application mobile ou le device connecté, la transmission et la stratégie de partage et de circulation de la donnée se construit côté serveur. Le javascript présent au sein de la page web peut se limiter à l’essentiel, gagner en légèreté et moins mobiliser l’énergie du navigateur, lui permettant de délivrer le contenu plus rapidement. Dans beaucoup de cas, la période de « code freeze » n’a plus lieu d’être et les équipes peuvent continuer à optimiser leurs campagnes sans interagir avec le code source du site.

 

  • Sécurité et respect de la vie privée : la philosophie du server-side offre un niveau de sécurité et de confidentialité supérieur à vos utilisateurs en supprimant les risques d’interception des données. Le RGPD a introduit l’idée que les marques ne sont que « locataires » des données, et non propriétaires. Par ailleurs les risques encourus sont importants. Dans ce contexte, construire la confiance des utilisateurs est encore plus essentiel et toute technologie qui protège l’accès à cette donnée va dans le bon sens. Moins de Piggy backing, moins de fichiers javascript qui se reconfigurent à la volée, des éléments que le régulateur devrait apprécier.

Server-side : 10 mythes à déconstruire

Dans le sillage du cookieless, le « server-side », autrement dit la collecte des données côté serveur, s’impose peu à peu dans la feuille des routes des équipes en charge du marketing digital. Une nouveauté qui suscite des questions, des doutes, voire des craintes. Et contribue à construire quelques mythes…

 

Mythe #1 : « Avec le server-side, les tags sont morts, le tag management aussi »

Il est vrai que le server-side est aussi désigné comme un procédé « tagless », sans tag. Facile d’en déduire donc que le tag management est mort. Sauf que la réalité technique est plus complexe. Toutes les solutions ne sont pas éligibles au server-side. Si le server-side est déjà possible pour l’analytics ou la gestion des consentements, il s’avère plus complexe à mettre en œuvre pour les ad servers ou les solutions de personnalisation. La transition va demander du temps et les deux modalités, traitements côté navigateur et côté serveur, vont cohabiter d’ici là. Nous n’en avons donc pas fini avec le tag management. Ce qui nous laisse le temps, aussi, de gérer l’inévitable évolution du métier – on y revient.

 

Mythe #2 : « Le server-side, c’est une affaire de développeurs »

Avec l’émergence du server-side se développe aussi le sentiment que le sujet du tracking change de camp, qu’il passe des mains des équipes marketing à celles des développeurs. Soyons clairs : c’est un (gros) raccourci. Oui, la mise en œuvre d’intégrations dites « tagless » est technique. Voilà pourquoi tout ne va pas se faire en un jour, mais plus probablement s’échelonner sur quelques années. Mais nous parlons ici de la mise en œuvre à travers les solutions du marché. Car une fois les solutions à jour – les gestionnaires de tags (qu’il faudra sans doute renommer) comme les solutions des partenaires –, le server-side reste à sa place : dans les coulisses. Et c’est bien aux responsables marketing qu’il revient encore et toujours de travailler sur les données collectées.

 

Mythe #3 : « Avec le server-side, une partie de mon job se volatilise »

Fini les tags, donc fini le tag management et… les jobs associés ? Les trafic managers et spécialistes du tagging doivent-ils s’inquiéter ? Pas vraiment. Tout est une question de définition du « tag management ». Si l’on considère que le tag management consiste avant tout à optimiser le placement des tags dans des containers exécutés dans un navigateur, alors, oui, ce tag management-là est appelé à disparaitre peu à peu.

En revanche, si le « tag management » est aussi vu comme l’art de traiter la donnée avant de la transmettre à ces partenaires, alors le tag management est loin d’être mort. Au contraire, il entre même dans une nouvelle ère. Le server-side élargit sensiblement le champ des possibles, qu’il s’agisse de contrôler la qualité de la donnée, de l’enrichir ou encore de la distribuer avec précision aux partenaires. En résumé, le server-side représente un véritable appel d’air pour la créativité sur le front de la data.

 

Mythe #4 : « Le server-side, c’est une black box – on perd tout contrôle »

Ce sentiment est compréhensible. Le tag management côté navigateur donne le sentiment d’accéder à la collecte des données comme on lit dans un livre ouvert. Avec une mécanique gérée côté serveur, cette lisibilité semble révolue. En apparence seulement. Dans la pratique, tout reste bien sous contrôle et accessible : le gestionnaire de tags demeure le « hub » au sein duquel la collecte des données, leur traitement et leur envoi aux partenaires sont mis en œuvre. Au lieu de gérer des tags, la solution pilote des intégrations « tagless », de serveur à serveur, mais les rend toujours lisibles et manipulables.

 

Mythe #5 : « Le server-side, ça se gère en interne, avec des développements spécifiques »

C’est souvent ainsi que sont inaugurées les nouveautés techniques, surtout – et c’est encore le cas pour le server-side – quand tout le marché n’est pas encore au diapason de cette nouvelle donne. De fait, il peut être tentant de s’appuyer sur des développements maison pour maîtriser ces échanges de serveur à serveur. Une tentation qui perd de vue l’essentiel : l’objectif n’est pas seulement de mettre en œuvre le server-side mais de masquer sa complexité technique durablement afin que les équipes marketing puissent travailler de manière agile au quotidien. Un enjeu pour lequel un produit logiciel sera toujours plus éprouvé qu’un développement spécifique.

 

Mythe #6 : « Le server-side, ça va coûter cher… »

Le server-side appelant une refonte technique commune à toutes les parties prenantes, oui, des budgets dédiés sont requis. Mais ils doivent être considérés au regard des bénéfices obtenus. Le nombre de tags traités pour un site au sein du navigateur va se réduire sensiblement au profit de la web performance, donc de l’expérience utilisateur. Surtout, la bascule côte serveur permet un contrôle qualité et un enrichissement de la donnée hors de portée d’un traitement côté navigateur. La transition vers le server-side étant à peine amorcée, son potentiel est encore très sous-estimé. Probable qu’il conduise à transmettre moins de données aux partenaires mais… beaucoup plus pertinentes.

 

Mythe #7 : « Le server-side c’est un vrai SPOF »

Dans le lexique informatique, le SPOF, pour « Single Point of Failure » ou point de défaillance unique, laisse entendre que la disponibilité d’un système repose sur celle d’un seul de ses composants. Vu qu’avec le server-side toutes les interactions s’effectuent de serveur à serveur (et non de navigateur à serveur), la capacité du serveur-gestionnaire de ce dialogue à tenir la charge est questionnée. De fait, les infrastructures vont devoir être dimensionnées pour relever deux défis : d’une part collecter tous les hits, d’autre part traiter et partager la donnée. Bonne nouvelle : une solide expérience a été cumulée sur ce sujet. On sait par exemple, en cas de pic imprévu, « bufferiser » les traitements (les mettre de côté momentanément) pour les traiter par lots ensuite.

 

Mythe #8 : « Avec le server-side, je peux me passer du consentement »

C’est un raccourci à oublier au plus vite… Le « server side » est une modalité technique de collecte et de traitement des données. Il ne change rien aux précautions à prendre pour se conformer au RGPD (Règlement Général sur la Protection des Données) et aux directives de la CNIL sur la collecte du consentement. Que les informations soient transmises depuis un navigateur ou un serveur, le consentement de l’utilisateur doit être obtenu.

 

Mythe #9 : « Mettre en œuvre le consentement avec le server-side, c’est compliqué »

Si la gestion des consentements s’appuie sur un développement maison, qui n’a pas été conçu dans la perspective du server-side, oui, la transition peut s’avérer douloureuse. Ce n’est pas le cas pour des solutions comme TrustCommander, notre Content Management Platform, dont l’architecture a d’emblée été pensée pour s’inscrire dans un mode server-side. Ainsi, la propagation des consentements auprès des partenaires pilotés en server-side s’effectue de manière indolore.

 

Mythe #10 : « Avec le server-side, la confidentialité des données est forcément renforcée »

En matière de sécurité, rien ne va de soi. Ce n’est pas parce que les interactions sont gérées de serveur à serveur qu’elles sont naturellement plus sécurisées. Ce sera le cas si ces infrastructures sont auditées et sécurisées dans les règles de l’art, et si le trafic entre serveurs fait l’objet d’un chiffrement digne de ce nom. Précisons aussi que, selon les modalités techniques retenues, même avec le server-side, un datalayer peut subsister dans le navigateur et donc exposer des données. Si ces données sont sensibles, la mise en œuvre du server-side peut se faire sans requérir un datalayer. La sécurité du server-side relève donc d’un ensemble de mesures. Et de choix.

Gestion du consentement en Europe : aperçu de la situation en Allemagne, en France, en Italie et au Royaume-Uni

Lorsqu’il est question de protection des données, les spécialistes du marketing se penchent également de près sur la gestion du consentement. Il n’est pas toujours facile pour les entreprises internationales, en particulier, et leurs départements marketing d’avoir une vue d’ensemble précise des règles de protection des données en vigueur dans les différents pays. Une chose est sûre : le RGPD est la norme en la matière.

Nous allons donc examiner les différentes interprétations du RGPD, ainsi que les réglementations relatives à la protection des données applicables en Allemagne, en France, en Italie et au Royaume-Uni.

Le consentement est le nouveau pivot du marketing basé sur les données

Le sujet du consentement continue à prendre de l’ampleur et la pertinence des consentements obtenus en conformité avec les règles de protection des données et leur traitement approprié ne cesse de croître. Les entreprises et leurs équipes marketing ne peuvent pas éluder cette question. Elles doivent trouver des solutions pour gérer les consentements recueillis et même pouvoir en apporter la preuve en cas d’urgence.

Dans ce contexte, les entreprises doivent faire face aux problèmes et aux questions liés au consentement. Comment surmonter les apparentes contradictions entre le marketing en ligne axé sur les performances et la protection particulière des données personnelles grâce à des opt-ins conformes à la protection des données ? Les marques qui opèrent au niveau international sont en outre confrontées au défi de devoir se conformer aux réglementations locales applicables.

  • Comment la Cour fédérale de justice interprète-t-elle la protection des données dans ses jurisprudences en Allemagne ?
  • Que contient la nouvelle loi fédérale allemande sur la protection des données ?
  • Quel est le rôle de la CNIL en France ?
  • Qu’à mis en place l’Italie ?
  • Comment la protection des données est-elle réglementée dans les États non membres de l’UE, comme le Royaume-Uni ?

En répondant à ces questions et en mettant l’accent sur la protection des données dans les départements marketing, il est possible de poser concrètement les bases d’un marketing en ligne qui n’est pas seulement axé sur la performance, mais qui considère également la gestion du consentement comme un élément central.

La gestion du consentement en Allemagne

En Allemagne, la protection des données et, par conséquent, la gestion du consentement reposent sur le droit à l’autodétermination informelle accordé par la loi fondamentale. Dans ce cadre, le Parlement allemand (Bundestag) a adopté le 20 mai 2021 un projet de loi sur la protection des données dans les télécommunications et les télémédias (“Telekommunikations-Telemedien- Datenschutzgesetz”, TTDSG). L’objectif est d’amender la loi sur les télécommunications (TKG) et la loi sur les télémédias (TMG) et d’adapter ainsi ces deux lois au RGPD dans l’esprit de la directive “vie privée et communications électroniques”, ou directive ePrivacy, de l’UE. Cette procédure est notamment nécessaire suite à l’arrêt de la Cour fédérale de justice du 28 mai 2020, selon lequel la directive européenne sur les cookies n’a pas été entièrement transposée dans le droit applicable. La loi TTDSG doit entrer en vigueur le 1er décembre 2021. Les infractions sont passibles d’une amende pouvant atteindre 300 000 euros.

En ce qui concerne la gestion du consentement, l’avis du Conseil fédéral allemand (Bundesrat) sur le paragraphe 24 du projet de loi TTDSG est extrêmement intéressant : alors qu’il salue l’alignement plus étroit de l’article 24 du projet de loi TTDSG sur l’article 5 paragraphe 3 de la directive ePrivacy, il recommande la conception simple d’une bannière relative aux cookies avec deux boutons “Accepter” et “Refuser”, la considérant “appropriée”. C’est d’autant plus fascinant que l’article 5 paragraphe 3 de la directive “vie privée et communications électroniques” stipule que “[…] stocker des informations ou d’accéder à des informations stockées dans l’équipement terminal d’un abonné ou d’un utilisateur ne soit permise qu’à condition que l’abonné ou l’utilisateur soit muni […] d’une information claire et complète“. La Cour de justice de l’UE a également statué dans ce sens en 2019 dans l’arrêt dit Planet49, en précisant que le consentement explicite n’est pas donné par une case à cocher précochée ni en utilisant des bannières d’information généralisées et concernant plusieurs cookies, telles que “En poursuivant votre navigation, vous profiterez des avantages de notre site web”.

Il reste donc à voir si et sous quelle forme la recommandation du Bundesrat s’inscrit dans la tendance à une interprétation stricte de l’opt-in explicite par la Cour de justice de l’UE et la Cour fédérale de justice, ainsi que dans la discussion sur un consentement explicite pour les cookies techniques également et comment cet avis pourrait être mis en œuvre. Le ministère fédéral allemand de l’Économie et de l’Énergie (BMWi) explique ce point dans un communiqué de presse :

“Concernant les cookies, la TTDSG doit créer un système de gestion de consentement convivial et conforme aux règles de la concurrence qui comprend les services reconnus, navigateurs et fournisseurs de télémédias. Un règlement du gouvernement doit clarifier la conception détaillée de ces nouvelles structures dont le gouvernement fédéral observera et évaluera le succès (art. 26 TTDSG).”

Le principe du “nudge” ou la ruse avec les bannières de consentement

Le nudge décrit la tentative d’influencer le visiteur d’un site web afin de l’inciter à donner son consentement. Ces petites astuces concernant l’aspect visuel des bannières sont actuellement possibles dans un contexte où il n’existe pas (encore) de réglementation légale ou de jurisprudence claire à ce sujet.

Un exemple type de ce phénomène est l’utilisation de bannières avec un gros bouton vert pour la fonction “Accepter tous les cookies” et un équivalent plus petit en gris clair pour l’option “Refuser les cookies”. Une autre pratique répandue est d’imposer aux visiteurs de cliquer sur une série de paramètres pour refuser les cookies, alors que l’option d’acceptation des cookies est directement disponible.

Toutefois, certaines décisions rendues récemment par différents tribunaux montrent qu’il ne faut pas pousser trop loin ce principe. Ainsi, selon une publication de l’autorité de surveillance de Basse-Saxe, l’utilisation “excessive” de nudges entraîne la nullité du consentement puisque l’utilisateur ne dispose pas d’un véritable choix. Un jugement du tribunal de grande instance de Rostock soutient également cette position. Néanmoins, il n’a pas été question jusqu’à présent de procédures ou d’amendes spécifiquement liées à la question des nudges. Il y aura certainement d’autres développements dans ce domaine à l’avenir.

Qu’en est-il du suivi de newsletters ?

Un autre sujet important en matière de gestion du consentement est le traitement des données pour l’envoi de newsletters. La nécessité d’un double opt-in est désormais une condition connue et largement acceptée. Des problèmes peuvent toutefois se poser lors du traitement des données en arrière-plan des newsletters envoyées, par exemple à des fins d’analyse.

Le cadre juridique concernant le suivi d’informations telles que l’ouverture de la newsletter, les clics sur les liens intégrés ou l’ouverture des documents inclus n’est pas encore réglementé en détail. Il est clair qu’un consentement distinct devrait également être obtenu pour ces traitements. En revanche, le moment le plus approprié pour obtenir ce consentement reste incertain. La possibilité la plus pratique actuellement est un texte d’avertissement lors du “premier opt-in”, c’est-à-dire au moment où un utilisateur remplit le formulaire d’inscription à la newsletter. Aucune solution concrète ne s’est toutefois encore imposée dans la pratique. Les entreprises et leurs spécialistes du marketing doivent donc continuer à suivre ce sujet afin de se tenir au courant de toutes les réglementations et jurisprudences, comme pour toutes les questions relatives à la gestion du consentement

Le marketing en ligne moderne ne peut plus faire l’impasse sur l’introduction d’une plateforme de gestion du consentement, face à un environnement de protection des données de plus en plus compliqué. Dans ce contexte, il est important de bien distinguer les notions de déclaration de protection des données et plateforme de gestion du consentement (CMP). Alors que la déclaration de protection des données sert à satisfaire les obligations d’information (quelles données sont collectées et traitées ultérieurement, à qui sont-elles éventuellement transmises, etc.), la CMP concerne l’obtention d’un consentement effectif conformément aux règles de protection des données. Ainsi, une CMP aide les opérateurs de sites web à concevoir et exploiter correctement les bannières opt-in.

Mettez en œuvre votre gestion du consentement de manière professionnelle et conforme à la protection des données grâce à notre solution TrustCommander !

Bon à savoir :
les tests A/B représentent un précieux allié pour optimiser vos taux d’opt-in !

Comme vous le constatez déjà, du point de vue des spécialistes du marketing, le thème de la gestion du consentement a beaucoup à voir avec la conformité des bannières de consentement aux règles de protection des données, d’une part, et leur optimisation, d’autre part, afin de garantir un taux d’opt-in aussi élevé que possible. Les tests A/B sont tout indiqués pour déterminer les formats de bannières opt-in appropriés. Ne laissez rien au hasard et analysez les formats de bannière qui génèrent le taux de consentement le plus élevé sur votre site web, en diffusant différentes versions sur une période donnée.

Notre dernier baromètre privacy montre par exemple que les bannières de consentement sont le plus souvent affichées sous forme de pop-ins (72 %) pour obtenir un opt-in explicite à 100 %. Nous vous y donnons également cinq conseils pratiques pour rendre vos bannières de consentement aussi efficaces que possible. Ce qui est bien, c’est que ces conseils s’inspirent des directives de la CNIL, l’autorité française chargée de la protection des données, un des organismes les plus avancés en Europe en matière de protection des données.

Cliquez ici pour consulter le dernier baromètre Privacy !

La gestion du consentement en France

La CNIL (Commission Nationale de l’Informatique et des Libertés) a publié en octobre 2020 une directive sur les cookies et autres traceurs qui devait être mise en œuvre par tous les opérateurs de sites web avant fin mars 2021. De grands aspects y sont expliqués : consentement conforme au RGPD, désactivation des mécanismes d’opt-out par lesquels, par définition, aucun consentement explicite ne prévaut, respect des impératifs de transparence, option simple pour retirer le consentement, ou encore possibilité de prouver tous les opt-ins. Cette directive sur les cookies et traceurs est très détaillée et donne des informations variant de la conception technique à la conception purement visuelle de la gestion du consentement sur les sites web.

Dans sa directive, la CNIL accorde une attention particulière aux délais de conservation des cookies. Elle recommande ainsi une durée de vie des cookies (c’est-à-dire la durée pendant laquelle un cookie déposé peut collecter activement des données) limitée à une période permettant une comparaison pertinente des groupes cibles sur ce laps de temps, tout en mentionnant une durée de vie maximale de 13 mois. La durée maximale de conservation des informations collectées via ces cookies est fixée par la CNIL à 25 mois. Une nouvelle visite d’un site web par un visiteur déjà suivi n’entraîne pas une prolongation automatique de cette durée. La durée de vie et la période de conservation spécifiées par la CNIL seront revues périodiquement afin de s’assurer qu’elles sont toujours appropriées.

La CNIL confirme ses grands principes, dont la symétrie du consentement

  • Le consentement des utilisateurs mieux réglementé. L’internaute doit désormais donner un consentement explicite. La simple poursuite de la navigation sur un site ne peut plus être considérée comme une expression valide du consentement. Le consentement doit être donné par un « acte positif clair » (par exemple, cliquer sur le bouton « j’accepte ») afin de permettre aux traceurs de se déclencher. Sans cela, seuls les traceurs essentiels pourront être déposés.
  • Les utilisateurs devront être en mesure de retirer leur consentement, facilement, et à tout moment.
  • La symétrie du consentement. Terminé l’époque où il fallait chercher tant bien que mal le bouton « refuser ». Désormais il doit être tout aussi facile de refuser que d’accepter le dépôt de traceurs.
  • ​Les personnes doivent être clairement informées des finalités des traceurs avant de consentir, ainsi que des conséquences qui en découlent. L’identité de toutes les sociétés utilisant des traceurs soumis au consentement doit aussi être facilement accessible pour l’internaute.
  • Enfin, si un internaute demande à obtenir la preuve de son consentement, les acteurs déposant des traceurs doivent être en mesure de lui fournir une preuve valable du recueil du consentement libre, éclairé, spécifique et univoque de l’utilisateur.

Quels cookies sont actuellement considérés comme exemptés de consentement en France ?

Comme nous l’avons déjà mentionné, il est possible de faire la distinction entre les cookies nécessaires d’un point de vue technique et les cookies d’analyse (par exemple, les cookies de suivi ou d’affiliation). En règle générale, selon la directive ePrivacy, tous les cookies techniques nécessaires au fonctionnement d’un site web ne nécessitent pas de consentement explicite. Toutefois, pour savoir exactement quels cookies ou traceurs sont considérés comme “techniquement nécessaires”, il faut à nouveau examiner de près les interprétations et les jurisprudences nationales. En France, les types suivants relèvent de la catégorie “non soumis à consentement” :

  • les traceurs conservant le choix exprimé par les utilisateurs sur le dépôt de traceurs ;
  • les traceurs destinés à l’authentification auprès d’un service, y compris ceux visant à assurer la sécurité du mécanisme d’authentification, par exemple en limitant les tentatives d’accès suspectes ;
  • les traceurs destinés à garder en mémoire le contenu d’un panier d’achat sur un site marchand ou à facturer à l’utilisateur les produits achetés ;
  • les traceurs de personnalisation de l’interface utilisateur (par exemple, pour le choix de la langue ou de l’affichage) ;
  • les traceurs permettant l’équilibrage de la charge ;
  • les traceurs permettant aux sites payants de limiter le libre accès au contenu ;
  • certains traceurs de mesure d’audience.

Néanmoins, la CNIL recommande d’informer également sur les cookies exemptés de consentement et sur leurs finalités, même s’ils ne sont pas soumis à une exigence générale de consentement. De même, certains cookies d’analyse peuvent être exemptés de l’impératif de consentement en France, mais certaines conditions doivent alors être remplies, selon la CNIL :

  • des cookies d’analyse peuvent être utilisés sans consentement si leur suivi sert uniquement à mesurer le nombre de visiteurs ;
  • aucun consentement explicite n’est requis non plus lorsqu’il n’y a pas de suivi à travers différents sites web ou applications ;
  • le dernier point cité par la CNIL concerne la qualité de données collectées. L’analyse des données sans opt-in est autorisée si elles sont utilisées exclusivement dans le but de produire des données statistiques anonymes ou si les données collectées ne peuvent pas être recoupées avec d’autres traitements et s’il n’y a pas de transmission à des tiers.

La gestion du consentement au Royaume-Uni

Nous souhaitons également donner un bref aperçu des impératifs de la gestion du consentement selon l’interprétation britannique. Malgré sa sortie de l’Union européenne, le Royaume-Uni suit une ligne de conduite en matière de protection des données qui s’inspire fortement de l’UE et donc du RGPD. Il existe donc peu de différences avec l’UE, notamment en ce qui concerne les cookies, à l’exception du fait que l’Information Commissioner’s Office (ICO), en tant qu’autorité compétente, est non seulement financièrement solide, mais est également considéré comme beaucoup plus strict et plus actif que ce n’est actuellement le cas, par exemple, des autorités allemandes.

Ainsi, l’ICO n’accepte que peu d’exceptions à l’exigence du consentement clairement explicite. Les cookies qui peuvent être déposés sans opt-in doivent donc être strictement nécessaires (“strictly necessary“) d’un point de vue technique, selon une interprétation restrictive maximale. C’est par exemple le cas de cookies qui permettent d’enregistrer un panier d’achat pour la prochaine session ou qui servent à garantir la sécurité des opérations bancaires en ligne. Il s’agit aussi des cookies qui servent à faciliter le chargement des sites web. Ne sont évidemment pas inclus les cookies d’analyse, les cookies de reconnaissance de certains visiteurs des sites web ou les cookies qui collectent des données de première, deuxième et/ou troisième partie à des fins publicitaires.

Services d’analyse : un aspect controversé dans toute l’Europe

L’aspect le plus controversé de la gestion du consentement sur les sites web concerne actuellement la nécessité ou non de services d’analyse tels que Google Analytics et, par conséquent, la question de savoir si ces services nécessitent un consentement explicite.

Dans ce contexte aussi, le débat repose sur l’article 5 paragraphe 3 de la directive ePrivacy, déjà évoqué ci-avant, qui prescrit les règles de gestion des cookies au niveau de l’UE. Deux aspects obtiennent toutefois des réponses différentes.

  1. L’article 5 paragraphe 3 de la directive ePrivacy s’applique-t-il également aux technologies sans cookies, dites “cookieless” ?
  • Ni la Cour fédérale de justice en Allemagne ni la Cour de justice de l’UE ne se sont encore prononcées à ce sujet au niveau européen.
  • La France et le Royaume-Uni considèrent que l’article 5 paragraphe 3 de la directive ePrivacy s’applique également aux technologies “cookieless”.
  1. Les services d’analyse doivent-ils être considérés comme “techniquement nécessaires” ou “strictement nécessaires” au sens de l’article 5 paragraphe 3, deuxième phrase, de la directive ePrivacy ?
  • L’Allemagne ne s’est pas encore positionnée.
  • La France considère les services d’analyse “inoffensifs” comme “techniquement nécessaires”, mais sans expliquer clairement ce qu’il faut entendre par là.
  • Le Royaume-Uni est le pays le plus strict en la matière et considère que tous les services d’analyse nécessitent un consentement explicite.

Le résultat montre que l’utilisation de services d’analyse sans consentement effectif est une question très controversée. Même si la situation n’est pas claire, l’utilisation de services d’analyse sans consentement effectif a tendance à être également déconseillée en Allemagne.

La gestion du consentement en Italie

Le 10 juin 2021, l’autorité italienne de protection des données (Garante per la protezione dei dati personali) a publié de nouvelles lignes directrices sur l’utilisation des cookies. Cette publication intervient après 6 mois de consultation publique sur le sujet des cookies.

L’objectif est d’identifier les exigences légales applicables à l’utilisation des cookies et de suggérer des solutions techniques pour mettre en œuvre correctement ces obligations et éviter les sanctions.

Quelles sont les modalités ?

Tous les sites web qui ont des utilisateurs basés en Italie sont concernés par ces nouvelles directives.

La date limite pour se mettre en conformité est fixée au 10 janvier 2022.

Les sanctions si vous ne vous conformez pas à ces nouvelles directives sont les suivantes :

  • Omission ou information inadéquate : de 6000 à 36.000 euros
  • Installation de cookies sans consentement : de 10.000 à 120.000 euros

Quelles sont les lignes directrices ?

1. Précision de ce qu’est un consentement et comment le recueillir

  • L’acte de consentement doit être “libre, spécifique, éclairé et non ambigu”.
  • Il doit y avoir une commande (par exemple un ” X “) pour fermer la bannière sans donner son consentement à l’utilisation de cookies ou d’autres techniques de profilage en conservant les paramètres par défaut.
  • Le défilement n’est pas une action positive et claire de l’utilisateur pour recueillir son consentement.
  • Les cookie walls ne sont pas autorisés.

2. A propos de la bannière de cookies

  • Les boutons “Accepter” et “Refuser” sont obligatoires.
  • La période de stockage des données personnelles de l’utilisateur doit être spécifiée.
  • La bannière doit contenir un lien vers la politique de confidentialité.
  • Les utilisateurs doivent pouvoir accéder à leurs préférences de suivi et les modifier à tout moment après avoir défini leurs préférences initiales.
  • Nouvelles spécifications pour l’accessibilité des informations relatives aux cookies en ce qui concerne les personnes handicapées.

3. Cookies analytiques et techniques

  • Les cookies analytiques nécessitent un consentement (sous certaines conditions).
  • Les cookies techniques ne nécessitent pas de consentement.

4. Validité du consentement

  • Les consentements recueillis avant la publication des nouvelles lignes directrices sur les cookies, s’ils répondent aux caractéristiques requises par le règlement, sont valables tant que, au moment de leur acquisition, ils ont été enregistrés et peuvent donc être documentés.
  • La bannière ne peut être montrée aux utilisateurs avant que 6 mois ne se soient écoulés depuis la collecte du consentement.

5. Preuve du consentement

  • Vous devez être en mesure de prouver que le consentement a été obtenu conformément aux normes du GDPR.

Coopération européenne : Cadre de transparence et de consentement, version 2.0

Un autre cadre important pour la gestion du consentement est le TCF 2.0 de l’IAB, qui a été introduit en septembre 2020. La gestion du consentement selon ce cadre intitulé “Transparency & Consent Framework” (TCF) de l’IAB Europe fonctionne par l’imbrication étroite des finalités de traitement et des fournisseurs. Ces finalités de traitement sont décrites de façon détaillée et précise. Pour ce faire, le TCF procède par couches successives. Ainsi, la reproduction du “texte juridique intégral” est obligatoire. Selon les règles, il suffit toutefois de présenter le texte “convivial” sur un premier niveau et le “texte juridique intégral” seulement sur un deuxième niveau de la bannière de consentement. En aucun cas, il n’est possible de s’écarter des modules de texte officiels et de leurs traductions officielles.

Outre les listes pour les éditeurs, les systèmes de gestion de contenu (CMS) et les annonceurs et agences, la liste des fournisseurs du TCF 2.0 de l’IAB donne un aperçu précis des boutiques de commerce électronique concernées par le TCF 2.0. La mise en œuvre du TCF doit ainsi contribuer à améliorer la transparence dans la jungle des fournisseurs, ainsi que la conformité au RGPD. Il est toutefois important de noter que le TCF ne garantit pas à lui seul le respect du RGPD. La question de savoir si le RGPD est effectivement respecté lors de la mise en œuvre du TCF doit être examinée séparément sur le plan juridique et, le cas échéant, au cas par cas.

Le TCF 2.0 fait actuellement l’objet de nombreuses critiques. Celles-ci concernent essentiellement des exigences divergentes pour les bannières de cookies par rapport au RGPD. Vous trouverez plus d’informations à ce sujet ici.

Comme nous pouvons le voir, la situation est complexe. En tant qu’entreprise internationale, il est nécessaire de se tenir informés en permanence afin d’agir en conformité avec la protection des données sur tous les marchés et de prendre en compte les spécificités locales.

Vous souhaitez repenser votre approche de la gestion du consentement et créer une plateforme de gestion du consentement dans votre entreprise ou recevoir des propositions concrètes pour la conception de vos bannières de cookies ?

N’hésitez pas à nous contacter pour plus de renseignements !

Nous tenons à remercier Christoph Bauer d’ePrivacy GmbH pour sa coopération au cours de notre webinaire commun et de la rédaction de cet article. Article initialement publié en juillet 2021.

Quelles solutions pour répondre aux enjeux et tendances 2022 du marketing digital ?

Un marché en pleine mutation dans un monde sans cookies

Le monde sans cookies dont nous parlons longuement aujourd’hui existe en réalité depuis un moment. Dès 2017, le navigateur Safari mettait en place des limitations sur les cookies avec certains cookies limités à un jour en lecture. En 2018, Safari va plus loin en limitant la lecture à un jour pour tous les cookies. En 2019, Firefox suit l’exemple de Safari et commence le blocage des cookies tiers.

Google a également annoncé la suppression progressive des cookies tiers de son navigateur Chrome avec une bascule prévue à date courant 2023.

Cs évolutions ne peuvent être ignorées par les équipes digitales car certains navigateurs prennent des parts de marché de plus en plus importantes : en janvier 2021, Chrome représentait 65,15% des parts de marché vs 18,4% pour Safari.

En outre, les données personnelles sont au cœur des enjeux publicitaires depuis plusieurs années, avec une accélération depuis 2019 lors de l’entrée en vigueur du RGPD (Règlement Européen sur la Protection des données).

Les adblockers ont notamment gagné du terrain, impactant l’identification des utilisateurs et l’utilisation des données au niveau des différents traceurs.

La disparition progressive des cookies tiers représente donc une contrainte de plus dans l’activation des dépenses et l’animation du ciblage publicitaire pour les équipes marketing.

Il est donc aujourd’hui nécessaire de mettre en place des actions palliatives pour gérer l’après cookies tiers. Dès 2023, le marché de la publicité digitale connaitra un choc important.

Et on observe que le marché n’a pas attendu pour se mettre déjà en marche et chercher des solutions alternatives. Les investissements dans le marché du digital ont fortement augmenté entre 2020 et 2021 avec une hausse de 42%.

Quelles conséquences et enjeux business pour demain ?

Dans un marché qui évolue donc très vite, les annonceurs se voient dans l’obligation de repenser leurs stratégies publicitaires :

  • Trouver de nouvelles solutions pour personnaliser et cibler leurs audiences
  • Evaluer l’impact sur la mesure de leurs campagnes

Les éditeurs de solutions devront quant à eux identifier de nouveaux modèles de monétisation. En effet, l’arrêt des cookies tiers devrait impacter près de 52% des revenus des éditeurs.

Par conséquent, sur les plateformes publicitaires, les indicateurs de diffusion (impressions / clics sortants / dépenses …) vont s’affaiblir car les cookies tiers vont disparaitre peu à peu, et il y aura donc moins d’indicateurs de performance fiables disponibles. De même, les indicateurs de conversion vont être moins fiables, notamment les conversions post impression.

L’impact dans l’univers analytics va être moindre et rester fiable, même s’il sera très dépendant du consentement de l’utilisateur.

Quelles solutions pour s’adapter et continuer à optimiser ses campagnes marketing ?

La disparition progressive des cookies amène les équipes marketing à se questionner. Comment continuer à faire du marketing dans un monde cookieless ? Quelles solutions mettre en place ?

Certaines solutions de contournement existent déjà :

  • Gérer les consentements à travers les CMP ou les preference center notamment
  • Gérer les limitations de navigateurs à travers le tracking first-party ou le tracking server-side.
  • Suivre les innovations du marché (initiatives des GAFA ou des initiatives plus agnostiques)

D’autres solutions existantes sont temporaires car jugées peu respectueuses de la vie privée :

  • Figerpriting
  • Délégation de sous domaine
  • Local storage

De plus, il est intéressant de réfléchir à des solutions plus pérennes telles que :

  • First party data
  • Identifiant publicitaire universel
  • Single Sign On (SSO)

Enfin, une solution peut se trouver dans le ciblage contextuel ou sémantique. Cette méthode permet de diffuser des publicités en fonction du contenu du site web sur lequel navigue le visiteur. Le ciblage sémantique constitue la forme la plus avancée de ciblage contextuel en se basant sur le machine learning pour comprendre véritablement le contenu de chaque page. L’avantage de ce type de solution réside dans le fait qu’on n’utilise pas de cookies et qu’on n’identifie pas l’utilisateur donc cela constitue une solution cookieless et consentless. On note que dans ce contexte l’appréciation des publicités par les utilisateurs est 53% supérieur à un contexte classique. Et 72% des utilisateurs déclarent apprécier avoir du contenu sur les éléments en cours d’utilisation.

Les Take away à retenir :

La disparition progressive des cookies tiers a commencé depuis plusieurs années mais s’est accélérée récemment avec les annonces des différents navigateurs. Cela oblige les annonceurs et éditeurs à repenser leurs stratégies publicitaires et la manière de mesurer les performances de leurs campagnes.

Il existe déjà des solutions pour répondre à ces problématiques. L’important étant de suivre les évolutions du marché afin de trouver celle qui répond le mieux aux exigences tout en restant performante. A noter, que les outils analytics vont devenir le seul endroit où suivre les conversions de manière relativement fiable.

Il faut voir la situation comme un avantage compétitif et en profiter pour innover, tester des choses.
Les vrais marketeurs vont sortir du lot !

Découvrez notre webinar sur ce sujet !

Data first, second et third party : un mix à repenser ?

Collecte des consentements et fin des cookies tiers obligent, les data first, second et third party souffrent. Une solution se dessine avec la data zero party.

Sur le terrain du marketing digital, et plus précisément celui des données, c’est l’heure du grand chambardement. L’heure est venue de revoir les grands classiques. Et notamment le fameux trio : « data first party », « data second party » et « data third party ». Un trio sur le point de devenir un quatuor avec la « data zero party ».

À l’origine de cette évolution, sans surprise, les évolutions technico-réglementaires récentes : d’une part le RGPD et les directives de la CNIL qui en découlent pour la gestion des consentements ; d’autre part, le grignotage des cookies tiers par des mécanismes déjà en œuvre (dans Safari) ou à venir (dans Chrome). Ces évolutions rendent beaucoup plus complexe la collecte des données, carburant des stratégies marketing, et obligent les marketeurs à renouveler leurs recettes.

Le mix data challengé

Car Le marketing est une affaire de mix. Le mix POE par exemple pour « Paid-Owned-Earned » qui désigne la combinaison de leviers utilisés dans une stratégie marketing entre les canaux en propre (un site web), payés (de l’achat média) ou gagnés (via des relations presse ou influenceurs par exemple). Autre mix qui compte, celui de la donnée avec les data dites « first », « second », ou « third party ». En français, nous pourrions parler de données de première, seconde ou troisième main.

La « data first party », de première main donc, est collectée notamment depuis nos canaux « owned » : il peut s’agir des données comportementales enregistrées sur nos sites web et apps, des données issues de nos newsletters, mais aussi celles collectées depuis les comptes sociaux de nos marques. Nous pouvons donc considérer la nature de cette donnée comme probabiliste puisque nous nous appuyons sur elle pour déduire des archétypes comportementaux et orienter nos actions.

Seulement, quel est le sort de cette donnée à l’heure de la gestion du consentement et du « cookieless » ? Son volume faiblit inévitablement puisque sa collecte est désormais soumise pour l’essentiel au consentement de l’utilisateur, qu’il soit sur un site web, une app et, parfois même, dans son logiciel de mail.

La « data second party » correspond aux données que nous achetons auprès d’un tiers ou à laquelle nous accédons dans le cadre d’un échange avec un partenaire de confiance. Une telle source peut aider à étendre le terrain d’acquisition comme étoffer la connaissance de l’audience déjà acquise – par exemple en découvrant ses centres d’intérêt.

Mais ces échanges peuvent-ils s’accommoder des nouvelles règles du jeu ? Oui, sans doute, à condition d’obtenir un consentement dans les règles de l’art ce qui, là encore, va forcément réduire le nombre d’utilisateurs qui accepteront que leurs données soient exploitées par des partenaires.

Enfin, la « data third party » correspond à la donnée accumulée depuis des sources variées par des tiers en capacité de réconcilier ses données pour les commercialiser, à vous comme à vos concurrents. Ces données sont précieuses pour nourrir par exemple les scénarios de retargeting.

Problème : si les volumes disponibles de data third party ont explosé ces dernières années, leur collecte se retrouve aujourd’hui encadrée par les règles relatives au consentement et contrainte par le filtrage technique croissant des cookies tiers.

En résumé, dans le nouveau paysage digital, tous les types de données – first, second et third party – voient leur potentiel réduit, en quantité et/ou en qualité. Comment compenser cette perte ? C’est la question à laquelle doivent répondre tous les marketeurs. Une réponse s’esquisse avec la « data zero party ».

La « data zero party », qu’est-ce que c’est ?

Les données de type « zero party » sont celles qu’un utilisateur vous transmet de manière volontaire. Pas celles pour lequel il donne son consentement en cochant les bonnes cases du popin généré par votre Consent Management Platform (CMP). Non, nous parlons ici des données que l’utilisateur prend le temps de vous communiquer : son niveau de satisfaction après un achat, les catégories de produits auxquels il s’intéresse pour les mois à venir, les canaux par lesquels il souhaite recevoir vos communications, etc.

« La data zero party », une solution ?

Cette « data zero party » présente des avantages et… une contrepartie. Les avantages sont évidents : cette donnée n’étant pas déduite mais explicite, elle s’avère très qualitative et permet de soutenir une personnalisation performante des communications. La contrepartie ? Le volume de « data zero party » qu’une marque peut collecter est directement lié à son capital confiance auprès de son audience.

La « data zero party » est donc celle du marketing de confiance : un utilisateur donne du temps et de l’information à une marque seulement parce qu’il sait qu’elle en fera bon usage. Seulement parce que les informations confiées lui « reviennent » sous la forme d’une communication suffisamment modulée et personnalisée pour qu’elle s’apparente à un service rendu.

Cette donnée, qui suppose un fort contrat de confiance, peut-elle suffire à compenser les pertes inévitables de data first, second ou third party ? Difficile à dire sans se laisser le temps de cumuler les retours d’expérience. Une certitude toutefois, un nouveau mix marketing s’esquisse : le POE est mort, vive le POET (Paid, Owned, Earned, Trusted).

Quelles stratégies publicitaires adopter dans un monde sans cookies ? Découvrez notre Playbook

Pourquoi le server-side (full ou hybride) est plus accessible que vous ne pensez ?

Le tag management dit « server-side » est souvent considéré comme délicat à mettre en œuvre. Sauf qu’il existe deux façons de le déployer…

La croissance des adblockers, puis la fin annoncée (même si reportée) des cookies tiers… L’actualité a poussé sur le devant de la scène le tag management « server-side », aussi appelé « server to server » ou encore « tagless ». Le principe est simple – déplacer du navigateur au serveur la charge de travail que représentent les échanges d’informations avec les partenaires – mais la mise en place est souvent considérée comme très technique et délicate. Bonne nouvelle : ce que l’on nomme « server-side » renvoie dans la pratique à deux types de mises en œuvre, et l’une d’elles s’avère plus accessible…

Full server-side ou server-side hybride ?

« Full server-side ». Cette appellation désigne une mise en œuvre intégrale du Tag management « server-side ». Dans ce modèle, dès qu’un utilisateur s’active (arrivée sur une page, clic sur une vidéo…), un « hit serveur » est envoyé vers le TMS (Tag Management Server) qui traite les informations et alimente les partenaires concernés, de serveur (celui du TMS) à serveur (celui du partenaire). Dans ce cas de figure, on ne trouve même plus de datalayer dans le navigateur.

 

 

« Server-side hybride ». C’est sous ce nom que l’on commence à désigner l’autre manière de déployer le « server-side ». Un nom qui peut porter à confusion car, dans la réalité, ce déploiement « hybride » correspond à une modalité courante que beaucoup appliquent d’ailleurs sans la qualifier ainsi.

Seule différence : le datalayer

Principale différence entre les deux approches : dans le modèle dit « hybride » un datalayer est conservé. Mais aucun tag partenaire n’est activé depuis le navigateur. Les informations du datalayer sont utilisées par un tag unique qui envoie ces informations côté serveur où le TMS, comme dans le modèle précédent, traite l’information avant de la distribuer aux partenaires de serveur à serveur.

Quel est l’intérêt de cette approche hybride ? Son pragmatisme et son accessibilité technique. De fait, de nombreux partenaires n’ont pas repensé leurs solutions pour fonctionner dans un mode « full server-side » et ont donc encore besoin des informations du datalayer. Que perd-on avec le « server-side hybride » ? La seule différence étant le maintien du datalayer, celui-ci reste donc visible dans le navigateur. Si les informations qu’il contient posent des problèmes de confidentialité, alors la migration en mode « full server-side » peut se justifier. Ce point mis à part, le « server-side hybride » offre tous les avantages du « full server-side ».

 

Des avantages maintenus

Et ces avantages du « server-side » sont nombreux. La réduction drastique du nombre de tags impacte (positivement) les temps de chargement des pages tandis que les plans de marquage sont plus simples à maintenir. Des gains opérationnels appréciés de tous. Mais le « server-side » c’est aussi – avant tout ? – un meilleur contrôle des données. Là où, avec le « client side », les informations partent directement aux partenaires, avec le « server-side » les informations sont traitées et triées. Les partenaires ne reçoivent que les données dont ils ont besoin. Fini les risques, par exemple de « piggybacking », quand un tag en appelle d’autres pour distribuer des informations à des partenaires de partenaires…

Ce traitement côté serveur permet aussi d’enrichir les informations, avec d’autres sources, pour rendre les traitements plus pertinents. Intéressant dans de nombreux contextes, comme celui de l’A/B Testing où cette ouverture autorise des tests plus poussés – par exemple, mesurer l’impact de recommandations d’achats sur le chiffre d’affaires.

Et le consentement ?

Question légitime (et de fait souvent posée). Le « server-side » permet-il d’être exempté du consentement ? Réponse rapide : qu’il soit full ou hybride, le « server-side » n’exempte pas de consentement. Ce n’est qu’un véhicule, une modalité technique. Le « server-side » peut être exempté de consentement dans un seul cas de figure : quand la solution qu’il porte est elle-même… exemptée.

 

Quelles alternatives aux cookies ?

Même si Google vient d’accorder un sursis aux cookies tiers, la question reste d’actualité. Quelles solutions pour les remplacer ? Comment maintenir l’efficacité des activations digitales tout en préservant les données personnelles ? Revue des options.

Un sursis. C’est ce que vient d’accorder Google en annonçant le 24 juin que les cookies tiers ne disparaitront pas de Chrome début 2022. La firme de Mountain View prévoit désormais cette bascule pour mi-2023. Un report d’une grosse année qui s’explique : l’alternative de Google aux cookies tiers n’a pas rallié suffisamment de suffrages (euphémisme) pour s’imposer. Comment adapter la stratégie cookieless à ce nouvel agenda ? Faut-il renoncer à explorer d’autres alternatives ? Quelques éléments de réponse.

Tout d’abord, une évidence : même si les cookies tiers bénéficient d’un sursis, l’histoire est écrite… Rappelons que les cookies tiers, déjà filtrés au sein de Safari et de Firefox, sont condamnés à court terme – car 2023 c’est demain. Les réglementations (RGPD, ePrivacy), la culture du consentement qui se développe peu à peu, la sensibilité générale accrue autour des données personnelles ne laissent pas d’autre choix que de repenser le tracking, au sein des navigateurs comme des apps.

Les cohortes de Google

Sur le papier, c’est d’ailleurs le sens de l’alternative proposée par Google avec sa Privacy Sandbox, une suite d’API pour couvrir les différents usages (ciblage, mesure…). Pour le ciblage, Google compte sur FloC (Federated Learning of Cohorts). L’idée générale : avec FloC, le tracking ne s’effectue plus à l’échelle d’un individu, mais d’une cohorte qui compterait a minima quelques milliers d’individus. Insuffisant pour l’EFF (Electronic Frontier Foundation) qui voit FloC comme un beau moyen de faciliter d’autres méthodes d’identification comme le fingerprinting.

Dans le détail, la méthode pose des questions qui ont très vite contraint Google à renoncer à la tester en Europe, RGPD oblige. Par ailleurs, la mainmise de la firme de Mountain View sur le dispositif a conduit un acteur comme Amazon à annoncer qu’il bloquerait les remontées d’informations vers FloC… Difficile dans ces conditions d’en faire un nouveau « standard ». La copie doit donc être revue. Une année sera-t-elle suffisante pour conformer l’alternative de Google à la réglementation européenne et pour fédérer l’écosystème ? Un gros doute persiste.

Un chantier à poursuivre : la migration server-side

Quelles sont les autres solutions sur la table ? À quels chantiers peuvent s’attaquer les marques pour se préparer au tracking cookieless ? Premier d’entre eux, la migration vers le server-side. Aujourd’hui, avec les cookies, nous sommes dans un mode « client-side » : le navigateur dialogue avec les fournisseurs de services correspondants aux tags activés. Avec le « server-side », ce dialogue se déroule de serveur à serveur.

Le passage au « server-side » est au programme de nombreuses marques. Parmi elles, FLOA Bank. « Une telle migration, nous le savons d’ores et déjà, ne pourra être que partielle, car toutes les solutions que nous utilisons ne sont pas compatibles avec une gestion côté serveur. Mais si nous y parvenons pour quelques tags clés d’acquisition, ce sera déjà un grand pas », juge Carole Vinatier Gresta, Responsable SEO & Tracking de FLOA Bank.

La voie du SSO : pour les médias uniquement ?

Autre voie explorée, le single sign on (SSO) : un login partagé entre plusieurs sites d’un même écosystème. Sans surprise, ce sont les médias qui s’essayent à ce scénario pour proposer une expérience utilisateur « sans couture » (sans re-login d’un média à l’autre) et, aussi, pour être en mesure de partager des données cross-site. Ces « groupements » restent toutefois très locaux et cantonnés pour l’heure, à quelques exceptions près, au secteur des médias.

Côté adtech : vers de nouveaux ID ?

Du côté de l’adtech, les regards se tournent vers des ID (identifiants) alternatifs aux cookies tiers. C’est le sens du projet Unified ID 2.0 initié par Trade Desk et qui a su convaincre des acteurs comme Liveramp, Criteo ou encore Nielsen. Unified ID 2.0 entend s’appuyer sur les emails que les visiteurs acceptent de communiquer pour déployer une mécanique de type SSO. Le dispositif prévoit un portail sur lequel les utilisateurs peuvent gérer leurs préférences. Limite du projet : il suppose une adoption large pour devenir un standard de fait et éviter une fragmentation du marché entre différents ID publicitaires – ce qui nécessiterait des réconciliations complexes et coûteuses.

La tentation du retour aux sources

Pour certains, la solution – une partie en tout cas – passe par un retour aux sources : laisser de côté l’audience planning pour revenir à du médiaplanning. Concrètement, il s’agit de mettre en œuvre du ciblage sémantique : analyser le contenu et sa tonalité pour évaluer son éligibilité à une campagne donnée. Il est vrai que, sur ce terrain, les technologies ont mûri et les ciblages se sont affinés. Et avec ce procédé, plus de problème d’identifiants susceptibles de limiter le reach. Les éditeurs y gagnent la possibilité de commercialiser tout leur inventaire, mais les annonceurs, eux, doivent se satisfaire de données très limitées.

La revue des alternatives aux cookies le monte clairement : aucune solution ne semble pour l’heure en mesure de fédérer l’écosystème aussi bien que les cookies tiers. Pour les marques, une voie pragmatique s’impose : travailler la data first party et réduire la dépendance aux cookies tiers (via la migration vers le server-to-server) tout en restant à l’affût des nouvelles initiatives. Le monde cookieless cherche encore son étoile polaire.

Se préparer à un monde sans cookies : téléchargez le playbook

Pourquoi une refonte du Dashboard de Consent Analytics de TrustCommander, 2 ans après l’entrée en vigueur du RGPD ?

Le marché avait besoin de statistiques mais la maturité manquait. Nous avons voulu simplifier et adopter une approche plus « métier » dans la sélection et la présentation des principales métriques dans TrustCommander.

Et puis les dernières directives de la CNIL, qui ne s’appliquent qu’au marché français à date, ont rendu obsolètes ou moins importantes certaines métriques. Mesurer le consentement implicite n’a plus de sens puisqu’il est non conforme en France. Nous avons donc repriorisé certaines informations et facilité les comparaisons inter-CMP. Ce point n’est pas le moins important car rien de plus déstabilisant pour un directeur e-commerce de voir derrière le même nom « taux de consentement » 2 choses aussi différentes que le taux de consentement au sens Commanders Act et la part de consentement. En expliquant ces différences, on permet à tout un chacun de se comparer et de progresser.

Le dernier enjeu important était de rendre lisible et compréhensible par tous cette réalité du « consentement ». Effectivement, la jeunesse du domaine du consentement fait qu’il existe encore peu de spécialistes du consentement; les équipes avec lesquelles nous travaillons sont souvent pluridisciplinaires mélangeant web analyst, spécialiste de l’activation, juridique, DPO, …chacun disposant de son propre vocabulaire et représentation des choses. Il fallait donc éviter tout jargon rendant la compréhension encore plus complexe. On a choisi un fil rouge simple, par exemple :

  • Comment les utilisateurs interagissent avec la CMP ?
  • Comment interagissent-ils avec le centre de préférences?

Associé à cette refonte « Consent Analytics », on en a profité pour permettre des exports programmables ainsi qu’une API GET statistics permettant à une équipe de rapatrier ces statistiques pour nourrir des environnements de Data Visualisation (Power BI, Tableau Software, Qlik Sense, Google Data Studio,…).

Enfin, l’enrichissement en temps réel est également possible via API permettant de nourrir en temps réel une solution d’analytics exemptée.

La valeur du consentement offrira un trigger à l’éditeur web analytics lui permettant d’orienter le traitement des données collectées soit vers sa solution standard, soit vers sa solution exemptée CNIL. Nous l’avons réalisé avec des clients AT Internet qui offre aujourd’hui une solution exemptée et nous l’avons mis en place avec des clients Google Analytics ayant fait le choix de continuer à le déclencher sans consentement (ce qui à date du 13 juillet n’est pas encore validé par la CNIL).

Dans quel sens le sujet du « Consent Analytics » va-t-il évoluer ?

Nous voyons des évolutions dans certaines dimensions. Pour avancer dans la compréhension de ce qui fait varier le taux de consentement, nous avons besoin de monitorer les variations des différents indicateurs, de pouvoir les remettre en contexte et de les segmenter davantage.

On fera apparaître par la suite :

  • Plus de possibilité de segmenter les dashboards en fonction de critères comme le navigateur, la taille d’écran, la source de trafic,… Autant de dimensions qui peuvent permettre de comprendre plus finement la valeur de ces métriques ;
  • L’ajout de graphiques pour aider à la lecture et à la compréhension des tendances ;
  • Des rapports dédiés à l’analyse des tests AB plutôt que d’aller lire dans Excel le résultat des tests ?

TrustCommander vous permet d’avoir le même Dashboard pour les applications et le web avec une implémentation basée sur l’API.

Pour aller plus loin sur le sujet du consentement, vous pouvez consulter nos contenus :

Pour ne rien manquer des dernières actualités de Commanders Act, abonnez-vous à notre newsletter !  

© Commanders Act. Tous droits réservés.
Powered by CREAATION.