Checklist Data Gouvernance - Découvrez notre checklist pour mettre en place votre Gouvernance des Données

Mois : janvier 2023

Quelle stratégie data quand les budgets médias sont en berne ?

Depuis l’été 2022 et pour le premier semestre 2023 au moins, les budgets média, y compris sur le digital, sont à l’image de l’économie : moroses. Comment continuer à travailler la donnée dans ce contexte ? Sur quels piliers s’appuyer pour tirer toute la valeur des interactions avec les audiences ? Tour d’horizon.

Une marée basse qui tarde à remonter. C’est l’image qui se dégage des prévisions relatives à l’évolution du marché de la publicité digitale. Oui, le digital affiche une meilleure santé que le marché publicitaire global, mais le reflux est bien là. En France, les acteurs (éditeurs, trading desks) consultés par le JDNet fin 2022 confirment une baisse du programmatique depuis l’été 2022 et anticipent un premier semestre 2023 bien morne.

Dans le monde, les estimations de croissance de la publicité sont revues à la baisse : GroupM prévoit ainsi une augmentation de 5,3% des investissements publicitaires globaux en 2023 (l’estimation était de 6,4% six mois auparavant). Si l’on jette un coup d’œil au marché américain, et plus particulièrement aux dépenses publicitaires sur les réseaux sociaux, là aussi un vent froid souffle sur les prévisions. Pour Insider Intelligence, près de 10 milliards de dollars ont disparu entre les estimations de décembre 2022 et celles publiées en mars 2022. Au fil des analyses, un consensus se dégage : le ralentissement devrait se poursuivre durant le premier semestre 2023. Au moins.

 

L’achat média digital en petite forme

 

Cette petite forme de l’investissement média digital s’explique. Dans un contexte global très incertain, les marques anticipent une baisse de la consommation et modulent leurs investissements en conséquence. « Et quand on doit réduire la voilure, l’achat média digital  se désactive/réactive aisément, contrairement à des investissements dans le contenu ou le SEO. Là, couper les budgets peut se solder par des régressions », estime le responsable stratégie digitale d’un grand acteur industriel. Dans ce contexte, avec des investissements médias moindres, comment continuer à étoffer ses données ?

 

Cap sur les leviers organiques

 

Sans surprise, les efforts se focalisent sur les leviers organiques, pour l’acquisition comme la rétention. Côté acquisition, ceux qui ont déjà constitué une « rente SEO » (comprendre : un travail de référencement qui garantit un trafic régulier), vont veiller a minima à l’entretenir, voire à la développer en soutenant leur production de contenus. Un trafic surtout intéressant s’il est bien généré par des contenus qui quadrillent les différents types d’intentions de recherche (informationnelle, navigationnelle, commerciale, transactionnelle). Les visites générées par ce biais représentent donc un trafic qualifié qui pourra être travaillé au moins en partie, gestion des consentements oblige.

 

Autre canal qui est l’objet de toutes les attentions durant ces temps de disette média, l’emailing. Sous toutes ces formes : du « cold email d’acquisition » à la newsletter régulière qui entend soigner durablement la relation avec une audience. Ces emails sont des supports précieux pour étoffer la donnée : au-delà des classiques taux de clics et d’ouverture, d’autres indicateurs tels que le niveau de fidélité, la typologie des contenus consommés permettent d’affiner la connaissance de son audience pour mieux l’activer ensuite.

 

Plus que jamais, raisonner omnicanal

 

Tirer le meilleur parti du trafic gagné par ce type de leviers suppose d’optimiser les « playbooks ». Pour développer considération et conversion, ces séquences d’automatisation combinent souvent des emails, mais les marques ont tout intérêt à les penser à une échelle omnicanale. Par exemple, pour les déclencher sur la base d’une action en magasin (achat, délivrance d’une carte de fidélité) ou pour les développer en intégrant dans le scénario une interaction avec le call center (pour apporter un conseil et confirmer un intérêt).

 

Quels que soient les leviers organiques privilégiés, ils ont tous un point commun : contrairement à l’achat média, il ne s’agit pas ici de « surpresser une audience » mais de l’adresser avec des messages adaptés, un rythme mesuré et en toute conformité. Un équilibre délicat qui, pour être tenu, suppose de s’appuyer sur 3 piliers :

 

Pilier #1 : la gestion des consentements

 

Désormais pièce incontournable de la stack martech, la CMP (Consent Management Platform) doit aider à identifier la formule qui garantit un taux de consentement cohérent avec les benchmarks de votre secteur d’activité. Une formule à « ABtester » en faisant varier des éléments de design mais aussi le langage utilisé, qui doit être un heureux compromis entre tonalité de marque, pédagogie et impératifs juridiques.

 

Pilier #2 : la résolution des identités

 

Toute aussi importante, la capacité à réconcilier les interactions autour d’un ID unique pour chaque utilisateur. Sans cette résolution d’identité, il s’avèrera difficile de ne pas sur-solliciter les audiences et, encore plus, de leur adresser des contenus adaptés à leurs attentes. Si des prérequis techniques, notamment dans les emails (lire à ce sujet notre livre blanc « un monde sans cookie ») s’imposent, il importe également de penser des campagnes pour multiplier les occasions d’associer emails et cookies.

 

Pilier #3 : la segmentation des audiences

 

Enfin, pour capitaliser pleinement sur les leviers organiques et sur la data first-party, la capacité à segmenter les audiences détient les clés d’une activation performante. Objectif : capter un maximum de signaux afin de créer des segments plus ou moins complexes et tendre vers une personnalisation des messages. Et, là encore, en raisonnant à une échelle omnicanale, donc en captant les signaux de tous horizons et à grande échelle, afin de donner aux équipes matière à enrichir les dimensions de ces segments.

 

Adossées à ces trois piliers, les équipes en charge de l’acquisition comme de la fidélisation seront en mesure d’améliorer la connaissance client. Et de gagner en précision dans l’allocation des budgets médias pour lesquels, mécaniquement, les marques vous attendre un rendement accru.

Améliorer la qualité des données, un enjeu primordial pour les entreprises

Dans un monde où les données sont de plus en plus précieuses pour les entreprises, il est essentiel de s’assurer de leur qualité pour garantir l’efficacité des campagnes et donc maximiser les investissements marketing. C’est là que notre plateforme entre en jeu.

Pourquoi la qualité des données est-elle si importante pour les entreprises ?

La qualité des données est cruciale pour les entreprises car elle a un impact direct sur leur capacité à prendre des décisions éclairées, à analyser les données de manière précise et à atteindre leurs objectifs commerciaux.Lorsque les données sont de mauvaise qualité, cela peut entraîner des erreurs dans l’analyse et la prise de décision, ce qui peut avoir des conséquences néfastes sur le ROI des campagnes marketing, sur l’analyse des données et sur l’analyse des campagnes.Par exemple, si une entreprise utilise des données de mauvaise qualité pour cibler ses campagnes publicitaires, elle peut finir par atteindre des personnes qui ne sont pas intéressées par ses produits ou services, ce qui peut entraîner un gaspillage de budget et une baisse de la performance de la campagne. De même, si une entreprise utilise des données de mauvaise qualité pour analyser ses performances, elle risque de prendre des décisions qui ne sont pas fondées sur des données précises, ce qui peut nuire à la croissance et au succès de l’entreprise à long terme.
En résumé, la qualité des données est cruciale pour les entreprises car elle est la base de toute prise de décision éclairée et de toute analyse précise.

Qu’est-ce que la Data Quality ou Data Integrity ?

L’intégrité de données se réfère à l’exactitude et la consistance des données tout au long de leur cycle de vie, de la collecte et du stockage à l’analyse et la diffusion. Sans intégrité de données, les entreprises risquent de prendre des décisions basées sur des informations inexactes, qui peut être source de perte de revenus, d’une réputation écornée, voir même de problèmes juridiques. Assurer l’intégrité de données est un processus complexe et difficile, surtout pour les entreprises qui traitent de grandes quantités de données provenant de multiples sources. Il nécessite la mise en œuvre d’une série de contrôles et de processus, y compris le contrôle de qualité, la validation, la suppression des doublons, le contrôle de la livraison intégrée, les alertes en temps réel, la préservation et la sauvegarde, la cybersécurité et les contrôles d’accès avancés. Ces mesures permettent de s’assurer que les données sont précises, complètes et cohérentes, et que toutes les menaces liées à l’intégrité des données sont identifiées et rapidement prises en compte.

Améliorer la qualité des données grâce à notre plateforme

Notre plateforme a pour objectif de donner aux entreprises la confiance nécessaire dans leurs données et ce de façon très simple. Nous offrons une interface de datalayer normalisée qui permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation qui alimentent leur workflow de qualité de données.
En outre, notre fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements en temps réel de manière simple et intuitive, grâce à notre approche no-code. Cependant, les plus techniques d’entre nous ne sont pas oubliés puisque nous proposons également un module low-code (voir code tout court pour les plus téméraires).

Gérer les erreurs de données avec notre plateforme

Nous avons plusieurs fonctionnalités pour gérer les erreurs de données. Tout d’abord, nous avons un tableau de bord de qualité de données qui permet aux utilisateurs de voir les violations de spécification en un coup d’œil et de les corriger rapidement à la source ou en temps réel avec la fonction de Data Cleansing.
Nous offrons également des alertes en temps réel pour que les utilisateurs puissent réagir rapidement aux erreurs de données. Ces alertes peuvent être envoyées par emails, messagerie (Slack, Teams, …), webhook ou via des notifications dans l’interface. Une alerte se configure en 3 clics, avec une réglette pour choisir le seuil de déclenchement et le canal de communication.

Comment notre produit aide à travailler avec les mêmes données dans toute l’entreprise

Notre interface de datalayer normalisée permet aux utilisateurs de définir le schéma de leurs données et de définir des règles de validation pour s’assurer que toutes les données sont conformes à ce schéma. De cette façon, toutes les équipes peuvent travailler avec les mêmes données et s’assurer que celles-ci sont de qualité. De plus, nous avons un dictionnaire de données unique qui permet aux utilisateurs de définir et de partager les définitions de leurs données avec l’ensemble de l’entreprise.

Qu’est-ce que la fonction de Data Cleansing et comment fonctionne-t-elle ?

La fonction de Data Cleansing permet aux utilisateurs de transformer/corriger leurs événements avant de les envoyer à leurs destinations. Nous avons plusieurs types de transformations disponibles, tels que le renommage d’événements, la dérivation d’événements, la modification de propriétés et le filtrage d’événements, qui peuvent être créés de manière simple et intuitive grâce à notre approche no-code basée sur des formules et des opérateurs de base, très similaire à ce que l’on trouve dans un tableur comme Excel. Pour ceux qui préfèrent un approche low-code, il est également possible d’ajouter du code JavaScript personnalisé pour créer des transformations sur mesure. La fonction de Data Cleansing est particulièrement utile pour s’assurer que les données envoyées à des destinations sont de qualité et conformes aux spécifications requises.

Qu’en est-il de la qualité des données transmises aux destinations ?

Nous avons une interface de suivi de la délivrabilité des événements qui permet aux utilisateurs de vérifier si les données atteignent leur destination ou s’il y a eu des problèmes d’envoi. Cette interface inclut des métriques simples et rapide à lire, comme le pourcentage d’évènements non envoyés, une visualisation de l’évolution des événements correctement envoyés et ceux en échec sur une période donnée, et un tableau récapitulatif des erreurs. Ce dernier donnant un aperçu des différents types d’erreurs rencontrées et comment les résoudre. En cas de problème d’envoi, nous offrons également un système d’alertes pour notifier les utilisateurs immédiatement.

Comment notre plateforme simplifie les erreurs techniques complexes lors de l’envoi de données aux partenaires

En premier lieu les erreurs ne sont pas toujours techniques, il s’agit souvent de donnée manquante ou mal formatée et notre plateforme génère des explications en langage naturel très simple à lire. Et quant aux erreurs techniques, qu’elles proviennent d’un retour de l’API du partenaire ou d’une indisponibilité de ses serveurs, là encore il était important pour nous que chaque erreur soit très simple à comprendre. Nous utilisons un synthétiseur de langage naturel (NLG) pour transformer ces erreurs illisibles en explication parfaitement compréhensible par un profil non technique avec des pistes de résolutions. C’est la magie de l’IA 🙂
Pour ne rien manquer des dernières actualités de Commanders Act, abonnez-vous à notre newsletter !  

© Commanders Act. Tous droits réservés
Powered by CREAATION.