• Open Garden
  • Posts
  • Un an après sa sortie (chaotique), Google Analytics 4 prêt à entamer sa mue

Un an après sa sortie (chaotique), Google Analytics 4 prêt à entamer sa mue

Parler de Google Analytics à un annonceur, c’est, comme Open Garden en a fait l’expérience, l’assurance d’enchaîner une bonne dizaine de minutes de récriminations concernant un outil qui “présente une ergonomie déroutante”, “bugue sans arrêt” et “a de sérieux problèmes de fiabilité”. 

Vous l’aurez compris, Google ne s’est pas fait que des amis au moment de remplacer sa solution historique, Universal Analytics (UA), par une nouvelle mouture, baptisée Google Analytics 4 (GA4). 

Après quinze ans d’existence, UA montrait pourtant ses limites. Et Google avait pris soin de préparer le terrain, annonçant, plusieurs années en avance, sa fin prochaine. “On a commencé à nous parler d’une version en travail, baptisée App+Web, dès 2020”, se souvient François de Broissia, senior director, data et analytics chez Jellyfish. 

C’est à partir de 2022 qu’une version beta, Google Analytics 4, est sortie du bois, avec la possibilité pour ceux qui voulaient se familiariser le plus tôt possible avec l’outil, de déployer une propriété GA4 pour leur site Web, en parallèle de leur propriété Universal Analytics.

Sur le papier, une bonne idée. Dans la réalité, le début des problèmes puisque la coexistence des deux interfaces a très vite mis en lumière des inconsistances.  Eric Steimer, digital measurement director chez fifty-five, se souvient ainsi que “les reportings n’étaient pas ‘iso’ selon qu’ils venaient de UA ou de GA.”

Jonathan Dupasquier se rappelle, lui, qu’il “manquait pas mal des fonctionnalités présentes dans UA.” Le directeur général associé de M13h cite, par exemple, l’absence de rapports natifs ou l’impossibilité d’annoter son historique de données lorsqu’un pic ou une chute était expliqué par un bug. 

Rien d’anormal, a priori, puisque le produit n’était pas fini. Sauf que ce n’était pas une évidence pour tout le monde… “Les gens ont un peu trop vite oublié qu’il s’agissait d’une beta”, remarque Jonathan Dupasquier.

L’absence de communication de Google, qui s’est défaussé de toute la partie “support” sur ses preferred partners, n’a évidemment pas aidé. Elle a même parfois empiré les choses, notamment lorsque la plupart des utilisateurs de Google Analytics ont découvert, un matin, que Google leur avait déployé une propriété GA4 élaborée par ses soins. 

“Ce n’était, en soi, pas une surprise car il fallait faire quelque chose pour les 95% de clients qui sont des petites structures, qui utilisent la version gratuite, observe Jonathan Dupasquier. Mais ça a forcément un peu décontenancé ceux qui avaient dépensé plusieurs dizaines de milliers d’euros pour se faire accompagner par des experts dans la mise en place d’un set up avancé et ultra-personnalisé.” 

Ce même si, dans les faits, les deux choses n’avaient rien à voir. “On avait d’un côté, une version archi basique et, de l’autre, un truc custom, adapté aux besoins du client”, tranche François de Broissia. 

Le gros couac de l’attribution

Le plus gros couac de GA4 reste néanmoins le sujet de l’attribution. “Un enfer”, révèle un annonceur, qui a décidé d’arrêter d’utiliser la donnée de Google Analytics pour optimiser ses campagnes d’acquisition. 

“L’outil plantait trop et il ne nous semblait plus fiable pour alimenter une stratégie d’enchères”, révèle celui qui a décidé de déposer un pixel Google Ads sur son site pour optimiser l’acquisition et faire de Google Analytics un simple outil de reporting, qui lui permet de dégager des tendances à la hausse ou à la baisse, plutôt que de mesurer les choses de manière absolue.

Pas un cas isolé… et pas une surprise, selon François de Broissia, qui estime que “ces bugs en série ont été la conjonction de plusieurs facteurs”.

D’abord, un facteur conjoncturel, avec une pression réglementaire qui a obligé Google à revoir son mode de fonctionnement. “Google a arrêté d’utiliser l’identifiant GCLID lorsque l’utilisateur ne donnait pas son consentement”, explique François de Broissia. Pour rappel, le GCLID est un paramètre transmis dans l'URL avec les clics publicitaires. 

Alors que le taux de refus à la dépose des cookies avoisine les 25 à 30%, selon les sites, la décision de Google a évidemment eu un impact sur la capacité de GA à suivre les conversions réalisées depuis Google Ads sur un site Web.

Avec pas mal de trafic qui était soudain catégorisé en “not set”, sans que l’utilisateur sache trop pourquoi. Ou des écarts significatifs, sur des campagnes type DemandGen, avec plusieurs centaines de clics recensés sur Google Ads quand GA ne vous en attribuait qu’une petite dizaine.

“Google a, depuis, corrigé le tir, en déployant un identifiant anonymisé de substitution, GBRAID, mais ça a pris du temps”, ajoute François de Broissia. “Il y a eu un vrai télescopage entre l’agenda règlementaire, notamment l’entrée en vigueur du DMA, et le déploiement de GA4”, confirme Eric Steimer. 

Un changement de data model mal digéré

Mais ce qui a rendu la transition d'UA vers GA4 aussi compliquée, c’est surtout un changement de paradigme, mal compris de certains annonceurs, qui concerne le data model, soit la manière dont les événements sont envoyés à GA. 

Dans UA, le modèle était simple et intuitif. Un tag unique générait une page vue, puis des événements s'y rattachaient. Le concept clé était la session qui regroupait l'ensemble des événements d'un utilisateur. L'attribution fonctionnait de manière directe : on attribuait une source à la session, et tous les événements de cette session héritaient automatiquement de cette attribution.

GA4 bouleverse cette logique. Le concept de session devient secondaire et n'est plus le pilier central du tracking. Désormais, l'attribution doit être liée à un événement spécifique, notamment le fameux "session_start". “Cette transformation fondamentale redéfinit entièrement la manière dont les sessions sont conceptualisées et mesurées”, explique François de Broissia. 

Lorsque les configurations GA4 ont été mises en place rapidement, sans adaptation à cette nouvelle logique événementielle, les problèmes se sont multipliés. “Les setups conservaient l'ancienne approche UA, créant une incompatibilité majeure avec le nouveau modèle GA4”, poursuit François de Broissia. 

Cette inadéquation a provoqué des dysfonctionnements en cascade : les sources de trafic n'étaient plus correctement attribuées, les données devenaient incohérentes, et l'ensemble du système de tracking perdait en fiabilité. “Ça a été très compliqué pour les annonceurs qui n’ont pas pris le temps de repenser leur data model pour s’adapter à ce nouveau paradigme”, confirme François de Broissia. 

Les soucis sont-ils derrière ? “Évidemment que ça râle encore de temps en temps mais je pense que ça râlerait beaucoup plus si l’outil n’était plus là”, s’amuse François de Broissia. Lequel remarque que si cette phase de transition a clairement nui à l’image de GA4, peu de clients ont, pour autant, envie de claquer la porte. 

Parce qu’une migration est chronophage et qu’elle coûte cher (les alternatives sont beaucoup plus coûteuses). “Sans compter que les experts GA sont beaucoup plus nombreux que les experts Piano ou Matomo ce qui, en cas d’urgence, peut poser problème à un grand compte”, précise François de Broissia.

L’expert estime que le récent changement de gouvernance aux US, qui fait à nouveau peser des incertitudes sur le data privacy framework, peut être un moteur de changement bien plus important que les lacunes de GA4. 

“Tout cet épisode a évidemment un peu érodé la confiance des annonceurs mais Google a, depuis, pas mal corrigé le tir, dans sa roadmap produit, comme sa communication”, estime, de son côté, Eric Steimer. L’expert évoque l’arrivée d’un label “data not available”, pour expliquer une partie du trafic “not set”, ou encore la multiplication des webinars, pour faire de la pédagogie. 

“Google a fait beaucoup d'efforts pour écouter les feedbacks sur le produit et intégrer les retours”, confirme Jonathan Dupasquier. Et de donner l’exemple du taux de rebond, KPI discutable s’il en est, que Google avait décidé de remplacer par un taux d'engagement. “Les protestations ont été tellement fortes que Google s’est résolu, un peu à contrecœur, à faire machine arrière.”

Un épisode qui, à en croire l’expert, souligne à quel point la transition a aussi été polluée par une résistance au changement.“ Ça a grincé des dents parce que c'était différent mais le nouveau model "event based" est quand même objectivement meilleur et plus puissant, c'est d'ailleurs le mode de fonctionnement de la plupart des outils aujourd'hui”, estime le dirigeant. 

La version gratuite est ainsi passée à un modèle d’attribution data-driven là où UA était, par défaut, en last-click (avec toutes les limites que l’on connaît). Elle permet aussi d’avoir enfin accès à BigQuery (dont l’accès était réservé aux utilisateurs payants sur UA).

“Cela va permettre à tous les utilisateurs de GA de s’en servir pour faire des modèles d’attribution custom et des analyses plus granulaires en y croisant, par exemple, des ID de commandes issus de la base CRM pour calculer des lifetime values”, illustre Jonathan Dupasquier.

C’est peut-être aussi ce qui interpelle les utilisateurs historiques d’UA. GA4 est un outil qui permet une collecte et une analyse hypergranulaire, où tout est customisable, là où UA était beaucoup plus rigide.

“GA4 est un outil pour data analyst, même dans sa version gratuite, là où UA était une version pensée pour des non-experts, type dirigeants d’entreprises”, illustre Jonathan Dupasquier. 

Le revers de la médaille, c’est que le patron de PME, qui se faisait son GA le lundi matin, se sent un peu perdu. “Le GA4 d’aujourd’hui n’a plus grand-chose à voir avec la version d’il y a deux ans”, assure Jonathan Dupasquier. Et il n’aura plus grand-chose à voir avec la version de demain, à en croire les informations récoltées par Open Garden. 

D’un outil d’analytics à un outil de médiaplanning

Google a ainsi réuni ses principaux partenaires, début juin, à l’occasion d’un événement où il a présenté sa vision.

La première nouvelle, c’est qu’il va falloir arrêter de dire GA4 et s’en tenir simplement à GA. La seconde, c’est que Google semble décider à en faire une solution de mesure de la performance marketing, qui va bien au-delà des fonctionnalités historiques en matière d’analytics. 

1° GA va intégrer les coûts des campagnes social média (notamment TikTok, Snap et Reddit). Des discussions ont lieu avec Meta. Cela permettra aux annonceurs de réconcilier performance on-site avec données ad-centrics issues de plateformes externes, pour faire de l’attribution entre Google Ads et les autres plateformes externes.

2° Google va intégrer son modèle de MMM, Meridian, à GA, ce qui va permettre à l’outil d’analyser l’historique des performances de campagnes pour faire des recommandations de plans médias, en couplant ces dernières à tous types de données (1st party, offline et même données externes).

3° Les annonceurs vont pouvoir intégrer leurs données 1st party dans Google Analytics pour optimiser leurs campagnes marketing. “Google veut avoir une approche ‘CDP like’ pour aider les annonceurs à envoyer des audiences construites dans GA4, sur la base de donnée on et off, vers des plateformes en dehors de l’écosystème Google, comme TikTok ou Meta”, analyse Jonathan Dupasquier.

4° Google oblige, GA devrait être très prochainement dopé à l’IA puisque, comme le rappelle Eric Steimer,  “Google planche sur le déploiement d’un chatbot permettant d’accéder, depuis l’interface, à de la data en langage naturel”. 

“GA veut devenir un hub de mediaplanning”, résume François de Broissia, qui estime que la promesse peut intéresser les annonceurs qui n’ont pas les moyens de faire du MMM par eux-mêmes. Reste, comme souvent avec Google, la question du conflit d’intérêts : accepter de confier ses arbitrages à un acteur… qui captera ensuite une large part des budgets qu’il recommande d’investir…

Le résumé des experts

Jonathan Dupasquier (M13h)

Si la sortie de GA4 a évidemment été tumultueuse, c’est, pour autant, une vraie amélioration pour les marketeurs. Certes, l'outil est moins accessible mais il a largement amélioré ses capacités d’analyse. 

La version gratuite est très personnalisable et donne désormais accès à des fonctionnalités jusque-là réservées aux utilisateurs payants, comme bigQuery. 

La collecte des données a été revue, pour s’adapter aux limitations techniques et réglementaires, avec l’arrivée de fonctionnalités comme le Consent Mode Advanced pour remodéliser le trafic non consenti et le User Provided Data pour améliorer l'attribution des conversions. 

Le produit a énormément évolué depuis sa sortie, avec une roadmap ambitieuse (correction de bug, ajout de feature, boost à l'IA). Le tout dans un contexte marché qui est ultra compliqué pour tout le monde (privacy, guerre ouverte d'Apple au suivi des perfs, DMA, fin des cookies tiers, cross device) et plus particulièrement pour Google & GA (souvenir ému pour la décision de la CNIL de sanctionner UA). 

François de Broissia (Jellyfish)

Quand on regarde les frustrations liées à GA4, il me semble que cela révèle finalement plus des enjeux des grandes entreprises à s'adapter à une réalité technique parfois subtile, toujours changeante, et qui impacte fortement la relation que l'on a avec l'outil.

Certes, certaines frustrations liées à l'interface, à des erreurs de processing, à des incohérences de data sont légitimes. Mais GA n'est plus seulement une interface qui délivre une vérité : c'est un écosystème complexe de collecte qui tente de répondre aux défis actuels en proposant de nombreuses options de déploiement, de structuration et de lecture de la donnée, et d'activation. Le changement de modèle propose aussi d'entrer dans une nouvelle ère de la donnée : celle d'une appropriation par les marques pour se rapprocher toujours plus de la réalité business.

Dans cette course d'obstacles, l'adaptation peut donner une impression d'instabilité, l'agilité peut donner l'impression d'un manque de solidité. Et l'exigence qui pèse sur les marques est toujours plus forte. D'un outil qui supportait le marketing, on a l'impression que l'outil a maintenant besoin d'être supporté lui-même. Il faut être expert privacy, comprendre comment fonctionnent les navigateurs, connaître précisément la relation entre client et serveur, savoir configurer des DNS ou du load balancing, parler le SQL couramment, etc.

Dans cette conduite du changement, les marques qui sauront relever ces défis seront sans doute les mieux positionnées pour profiter de l'ère de l'IA qui s'ouvre devant nous. Et GA (et l'iceberg GCP) propose une boîte à outils qui semble très prometteuse.