…ou l’hygiène de vie du sportif de haut niveau.
Au préalable :
Nous avons vu lors de nos 2 articles précédents comment automatiser la génération de Plans de Taggage avec Data On Duty, ainsi que comment valider le déploiement du taggage sur les environnements web de PréProduction et de Production, de manière automatisée.
Nous allons maintenant nous attaquer au monitoring du site en environnement de production.
C’est lors du monitoring que nous allons définir le process d’Alerting & Notification qui fera l’objet d’un prochain article spécifique.
Pourquoi le monitoring est indispensable ?
Le monitoring de la qualité des données permet de garantir que les informations recueillies sont précises, complètes et pertinentes.
Cela permet non seulement de prendre des décisions éclairées mais aussi d’optimiser les campagnes marketing, de comprendre les comportements des utilisateurs et d’améliorer continuellement les performances des sites web.
Un environnement Web doit être considéré comme une entité vivante en constante évolution, du fait des mises à jour : contenu, landing pages, tracking, campagnes, interventions externes, etc… ainsi que de leur fréquence.
C’est un point clé, car même si la validation a été préalablement faite, elle ne saurait être suffisante.
Le monitoring, opération de validation répétée dans le temps, est donc fondamental.
Il permettra de s’assurer de la qualité du tracking (donc des données collectée) dans le cycle de vie du site.
Les points clés du monitoring de la qualité de données :
- Monitorer la qualité de données passe par le monitoring du tracking.
- Que devons-nous monitorer pour une efficacité optimale ?
- Quand monitorer la qualité de données et à quelle fréquence ?
- Quel référentiel pour évaluer la qualité de données ?
- Méthodologie de monitoring
- Étude de cas sur un site eCommerce ou équivalent
- Impact du monitoring sur les KPI
- Comment Data On Duty opère sur l’ensemble de ce processus ?
1) Monitorer la qualité de données passe par le monitoring du taggage
Le taggage est la pierre angulaire de la collecte de données sur les environnements web puisque les tags collectent des données sur les utilisateurs et leurs interactions.
Il est impératif de s’assurer que ces tags fonctionnent correctement.
Une mauvaise implémentation des tags peut entraîner des données inexactes, incomplètes ou totalement absentes, compromettant ainsi l’intégrité des analyses.
Quand on parle de fonctionnement du tag, il y a plusieurs éléments sous-jacents :
- Est-il présent / absent
- Est-il unique / doubloné
- Comment a-t-il été populé (séquence de déclenchement, TMS, quel TMS, hard codé, timing, durée…)
- Quel(s) script(s)
- Combien de hits
- Quels types de hits
- Quelles variables
Autant dire que la validation manuelle du taggae sur des milliers de pages avec l’usage d’une console navigateur ou d’outils basés sur des règles est mission impossible, et cela sans même parler des dizaines (ou centaines) de parcours visiteurs.
De même que des tests statistiques ne sont pas valides dans la mesure où une section de site (ou bien des templates) peuvent ne pas être affectés par des changements au moment de la validation, alors que le reste du site le sera.
Enfin cette validation va nécessiter un rapprochement manuel avec des Plans de Taggage lourds que ne gèrent pas les solutions connues du marché.
Data On Duty fait la différence : les Plans de Taggage sont centralisés et versionnés dans la plateforme.
La validation et le monitoring se font alors automatiquement en temps réel vs le (les) Plan(s) de Taggage.
2) Que devons-nous monitorer pour une efficacité optimale
Pour un monitoring efficace, plusieurs éléments doivent être surveillés :
- URLs : assurez-vous que les URLs des pages sont correctes et correspondent aux pages visitées par les utilisateurs
- Parcours visiteurs : analysez les parcours visiteurs à forte capacité de conversion (et les autres) pour vérifier que les tags liés aux interactions déclenchent bien, y compris ceux qui sont déclenchés par des actions de souris/trackpad (scroll, swipe, hover, etc…)
- DataLayer : vérifiez que les données y sont correctement renseignées
- Tags : contrôlez la présence et la bonne activation des tags sur chaque page et événement clé
- Hits : assurez-vous que chaque hit est bien envoyé et reçu, et qu’il est unique
- Variables et valeurs : vérifiez que les variables et leurs valeurs capturées correspondent aux attentes et ne sont pas corrompues ou manquantes.
3) Quand monitorer la qualité de données et à quelle fréquence ?
La qualité des données doit être surveillée en continu.
Cependant, il est particulièrement crucial de le faire lors de la mise en ligne de nouvelles fonctionnalités ou pages : toute nouvelle implémentation peut introduire des bugs ou des problèmes de taggage.
Après des mises à jour majeures : les mises à jour peuvent affecter les scripts de tracking et la structure du site.
Régulièrement, selon un calendrier défini : un contrôle régulier permet de détecter et corriger rapidement les anomalies.
Mais il s’agit là du service minimum.
La fréquence et la profondeur de monitoring sont aux environnements Web ce que la fréquence et l’intensité d’entrainement sont aux sportifs de haut niveau.
La fréquence de monitoring peut varier en fonction de plusieurs facteurs :
- Fréquence des mises à jour fonctionnelles
- Fréquence de publication de landing pages
- Fréquence et volume des campagnes
- Fréquence des opérations promotionnelles
- Interventions “sauvages” par d’autres départements ou par des prestataires
- Testing de tags et MarTechs en live sur le site de production, etc…
Nos recommandations de monitoring :
- Sites eCommerce multi-produits, multi-marques, opérant des opérations marketing fréquentes : monitoring quotidien
- Sitespresse & media en revenu “pay perclick”: monitoring quotidien
- Sites eCommerce mono-marque : monitoring hebdomadaire
- Sites eCommerce Web to Store : monitoring hebdomadaire
- Sites basés sur des parcours commebanques, assurance, voyage, loisirs : monitoring hebdomadaire
- Sites informatifs à vocation non commerciale : monitoring mensuel.
4) Quel référentiel pour évaluer la qualité de données ?
Pour évaluer la qualité des données, nous nous baserons sur le Plan de Taggage. Ce plan détaillera tous les tags supposés être implémentés, les données à collecter, ainsi que les variables et valeurs attendues. Ce document servira de référence pour comparer les données effectivement collectées aux données théoriques.
On comprend tout de suite que vu la tâche à accomplir, son niveau de profondeur, son déploiement et sa fréquence, rien n’est faisable sans automatisation.
Data On Duty apporte à nouveau une valeur unique dans la mesure où tout étant centralisé et partagé dans la plateforme (Plans de Taggage, Validation, Monitoring, Alerting), non seulement l’automatisation est totale, et en plus les traitements sont réalisés à très grande vitesse, de manière exhaustive si nécessaire, et accessibles à l’ensemble des contributeurs.
5) Méthodologie de monitoring
Nous l’avons vu, le monitoring est une opération répétitive à plus ou moins haute fréquence suivant la nature du site.
Nous allons passer en revue 3 méthodes afin de déterminer le modèle de monitoring le plus efficace.
Tests manuels
Des tests manuels peuvent permettre de vérifier l’implémentation initiale des tags et assurer qu’ils collectent les données de manière précise. Voici quelques étapes clés pour réaliser des tests manuels efficaces :
- Navigation sur le site : parcourez les différentes pages du site en utilisant divers navigateurs pour vérifier que les tags sont déclenchées comme prévu
- Inspection des tags : utilisez les outils de développement des navigateurs (comme l’inspecteur d’éléments de Chrome) pour vérifier la présence et le bon fonctionnement des tags
- Outils de debugging : utilisez des extensions de navigateur comme Tag Assistant de Google pour analyser et valider les tags et vérifier les données envoyées aux serveurs de tracking.
Problème : ces tests sont très unitaires, ils ne sont pas industrialisables et ils deviennet très vite source d’erreur car ils sont épuisants à réaliser. À proscrire.
Tests par scripts
Des tests par scripts permettent de gagner du temps et d’améliorer l’efficacité de la validation en vérifiant régulièrement et systématiquement les tags et les données collectées. Voici quelques stratégies pour automatiser les tests :
- Scripts de test : développez des scripts qui simulent des interactions utilisateur sur le site et vérifient le déclenchement des tags et la collecte des données
- Frameworks de test : utilisez des frameworks comme Selenium pour générer les tests des tags sur différentes pages et scénarios
- Alertes : configurez des alertes pour détecter les anomalies dans les données collectées, comme des baisses soudaines de trafic ou des données manquantes.
Problème : ces tests ne sont pas industrialisables et doivent sans cesse être adaptés. Ils coûtent des ressources, du temps et une énergie folle. À proscrire.
Tests automatisés de bout en bout
Les tests automatisés de bout en bout impliquent une totale intégration entre les Plans de Taggage, les templates de pages, les parcours visiteurs, le DataLayer, le processus de population des tags, le déclenchement des hits, le timing, les variables et les données.
Donc seule une plateforme intégrant l’ensemble de ces processus et des outils d’analyse permettra d’atteindre de tels résultats.
- Analyses de masse : elles permettent de s’assurer de la complétude du déploiement du tracking quels que soient les sous-domaines, les sections ou les templates. On vérifiera notamment la présence et l’activation des tags, des hits, des variables et des données.
- Parcours visiteurs : ils sont le complément aux analyses de masse dans la mesure où ils apportent le contrôle des interactions des multiples hits et des données dynamiques, permettant d’aller d’une landing page au check-out en passant par les PLP, PDP, formulaires d’inscription, sélecteurs, etc…
- Alerting & notifications : leur configuration intelligente du spectre le plus large (Plan de Taggage) au plus restreint (couple variable-valeur sur une ou plusieurs analyses/parcours visiteurs) permettra de consulter uniquement les points à traiter, sans perdre de temps dans de multiples rapports.
Problème : les solutions basées sur des moteurs de règles ou des séquences de déclenchement nécessitent parfois un paramétrage long et fastidieux pouvant aller jusqu’à plusieurs mois. De plus la maintenance de ces règles nécessite elle même une surveillance constante. Donc ces solutions classiques génèrent une surcharge de travail.
Data On Duty élimine tous ces problèmes en industrialisant les processus, en les automatisant et en les partageant entre plusieurs marques, domaines, sections, parcours, quand c’est nécessaire.
Ce qui prend plusieurs semaines ou mois avec les solutions standard, ne prend que quelques heures ou quelques jours grâce au modèle génératif de Data On Duty.
6) Étude de cas sur un site eCommerce ou équivalent
Voici quelques éléments de monitoring de la qualité des données pour ce type de site :
- Suivi des vues de pages : assurez-vous que les tags de suivi des vues de pages collectent des données précises sur le nombre de vues et la durée de consultation
- Engagement des utilisateurs : analysez les données collectées sur l’engagement des utilisateurs, comme les clics sur les liens internes et les CTA
- Suivi des conversions : assurez-vous que les tags de suivi des conversions sont correctement implémentées et collectent des données précises sur les achats réalisés
- Analyse des pages produits : vérifiez que les tags sur les pages produits collectent correctement les données sur les vues de produits, les ajouts au panier et les abandons de panier
- Partages sociaux : vérifiez que les tags de suivi des partages sociaux collectent des données sur les partages effectués sur différentes plateformes sociales
- Optimisation des campagnes marketing : assurez-vous que les tags de suivi des campagnes collectent des données précises sur l’origine des visiteurs et leur comportement sur le site.
7) Impact du Monitoring sur les KPIs
Engagement des Utilisateurs
Le monitoring de la qualité des données peut également améliorer l’engagement des utilisateurs sur un site web :
- Analyse du comportement : les données de qualité permettent de mieux comprendre comment les utilisateurs interagissent avec le site et quel type de contenu, de produit ou de publicité les intéresse le plus
- Amélioration du contenu & personnalisation : en utilisant les données collectées, il est possible d’optimiser le contenu ou de personnaliser la proposition de produits pour rendre le site plus pertinent pour les utilisateurs
- Augmentation du temps passé sur le site : en améliorant l’expérience utilisateur et en offrant du contenu de qualité, il est possible d’augmenter le temps passé sur le site et de fidéliser les visiteurs.
Taux de Conversion
Le monitoring de la qualité des données peut avoir un impact direct sur le taux de conversion d’un site web. Voici comment :
- Identification des points de friction : en collectant des données précises sur le parcours utilisateur, il est possible d’identifier les points de friction dans le processus de conversion et de les optimiser
- Personnalisation des expériences : les données de qualité permettent de mieux comprendre les préférences des utilisateurs et de personnaliser les expériences en conséquence, augmentant ainsi les chances de conversion
- Optimisation des pages de destination : les données précises sur les performances des pages de destination permettent d’optimiser leur contenu et leur mise en page pour améliorer le taux de conversion.
ROI des Campagnes Marketing
Le retour sur investissement des campagnes peut être significativement amélioré grâce à des données de qualité :
- Attribution précise : les données fiables permettent de mieux attribuer les conversions aux différentes campagnes marketing, aidant ainsi à identifier les campagnes les plus efficaces
- Optimisation des dépenses publicitaires : en analysant les performances des campagnes, il est possible d’optimiser les dépenses publicitaires en investissant davantage dans les campagnes performantes et en ajustant ou arrêtant celles qui ne fonctionnent pas
- Segmentation et ciblage : les données précises permettent de segmenter les audiences de manière plus efficace et de cibler les campagnes marketing de manière plus pertinente.
8) Comment Data On Duty opère sur l’ensemble de ce processus ?
La plateforme SaaS Data On Duty regroupe l’ensemble des processus et outils partagés par tous les contributeurs liés à la collecte de données en ligne : business owners, digital analystes, digital performance managers, campaign manager, traffic acquisition, IT, data privacy managers…
De même la plateforme est un référentiel centralisé et partagé du taggage et des données conservant l’historisation des plans de taggages 100% objets et de leurs versions sur plusieurs années.
Ceci s’applique également aux analyses de masse, aux parcours visiteurs et aux alertes.
Le tout sans avoir à saisir la moindre ligne de code, ni la moindre règle, et bien sûr toujours sans cookies, ni tags, ni extensions, ni installation.
Les Plans de Taggage sont auto-génératifs.
La validation et le monitoring se font automatiquement et en temps réel pour les analyses de masse et les parcours visiteurs, en regard des Plans de Taggage.
L’ensemble peut être unitaire ou exhaustif.
Un plan de taggage peut être adapté en quelques clicks pour matcher un autre template ou une autre section, ou tout simplement pour être appliqué à plusieurs pays à la fois.
Bref, la plateforme Data On Duty est générative, automatisée, complète, intégrée, partagée et opère de bout en bout : de la conception, au déploiement, à l’exploitation, permettant de réaliser en quelques heures à quelques jours ce qui prenait plusieurs semaines ou mois au paravant.
Conclusion
Le monitoring de la qualité des données est essentiel pour maintenir l’hygiène de votre site web.
Il assure que les décisions basées sur les données sont fondées sur des informations précises et fiables.
C’est en surveillant régulièrement les tags, les parcours utilisateurs, le DataLayer, et les hits, et en évaluant continuellement la conformité avec le Plan de Taggage que vous garantirez la validité, l’intégrité, la pertinence et la résilience de vos données et que vous optimisereez efficacement toutes vos opérations sur vos environnements web.
Avec Data On Duty…
- Libérez le plein potentiel de vos environnements web grâce à une validation automatisée et transparente des tags de bout en bout.
- Assurez une expérience utilisateur supérieure tout en optimisant les fonctionnalités.
- Accélérez le TTM jusqu’à 90%.
- Obtenez un ROI prouvé dès le premier mois d’exploitation.
- Prenez des longueurs d’avance sur la concurrence.