- Open Garden
- Posts
- Comment Nestlé et WPP Media ont mesuré la capacité des identifiants partagés à contrôler la répétition sur mobile
Comment Nestlé et WPP Media ont mesuré la capacité des identifiants partagés à contrôler la répétition sur mobile

Identifier quelles solutions d’identification maîtrisent réellement l’un des piliers de la publicité digitale, la gestion de la fréquence d’exposition. C’est tout l’objet du test mené sur environnement mobile par Nestlé, avec l’appui de son agence WPP Media.
Un test dans la continuité des efforts engagés par l’annonceur pour mieux investir l’Open Internet, comme nous l’expliquait Julien Lamb, digital media lead de Nestlé, dans un récent épisode du Media Buyers Club.
Nestlé voulait obtenir une photographie nette de la performance de plusieurs identifiants dans des conditions réelles de diffusion.
L’objectif : savoir lesquels reconnaissent véritablement un utilisateur, lesquels le perdent en cours de route et lesquels sont capables de maintenir un capping de quatre expositions sans dérive. Autrement dit, mesurer non pas la promesse, mais l’efficacité opérationnelle.
Pour cela, WPP Media a orchestré une campagne test sur mobile (voir la méthodologie plus bas), structurée en cinq deals distincts au sein de la curated marketplace d’Equativ. Chaque deal correspondait à un identifiant - cookie tiers, ID5, First ID, Utiq et le Graph ID de The Trade Desk - et était diffusé exclusivement auprès des éditeurs français déjà intégrés au dispositif Utiq, soit environ une centaine de domaines.
“L’objectif, c’était de comparer les performances de chaque type d’identifiant - cookie, ID déterministe, ID mêlant approche déterministe et probabiliste - en prenant comme mètre étalon, Utiq, qui est un identifiant 100% déterministe, liée à un contrat d’opérateur mobile”, résume Hoai Nguyen, data et tech director chez Choregraph/WPP Media.
Près de 4 millions d’impressions ont été diffusées par line item, garantissant un échantillon robuste. Aucun objectif de branding ou de performance n’a été associé à la campagne afin d’éviter tout biais.
“Le seul objectif était de diffuser des impressions tout en respectant un capping maximal de quatre expositions par utilisateur”, précise Julien Lamb. En filigrane : identifier les solutions les plus fiables pour maîtriser la fréquence, un enjeu central pour un annonceur qui souhaite rationaliser ses partenaires, quel que soit leur domaine d’expertise.
“Difficile de me projeter avec une solution qui va me vendre du retargeting en CTV alors qu’elle peine déjà à gérer correctement le frequency capping entre deux navigateurs”, illustre Julien Lamb. Pour l’expert, plus que le reach, c’est la précision de l’identifiant qui doit devenir le véritable critère discriminant.
Et cette précision, que dit-elle ? Si l’on observe la part d’impressions diffusées une fois le capping atteint, Utiq arrive nettement en tête avec seulement 8% d’impressions “hors limite”. Rien de surprenant, me direz-vous, puisque l’identifiant sert de référence au test. A ceci près qu’on peut quand même s’étonner que l’ID qui sert d’étalon (déterministe de surcroît) dépasse, lui aussi, le plafond fixé.
“Cela peut s’expliquer par une légère latence entre le moment où le cap est atteint et celui où l’information remonte à Equativ ou même l’affichage simultané de pub sur une même auction”, détaille Hoai Nguyen. Durant cet intervalle, quelques impressions supplémentaires peuvent partir, ce qui justifie cette proportion, finalement très réduite, d’utilisateurs surexposés.

Sur le graphique ci-dessus, il ressort que les identifiants ayant une composante probabiliste, les ID hybrides, ont des difficultés à gérer la répétition au sein des environnements cookieless, ce qui entraîne un gaspillage d’1/4 à 1/3 du budget de l'annonceur (gaspillage dans le sens où il continue de diffuser des impressions auprès d’utilisateurs en théorie suffisamment exposés).
On voit que les ID hybrides ont des difficultés à gérer la répétition au sein des environnements cookieless
Un bon exemple de ces difficultés, c’est le nombre d’utilisateurs qui peuvent être exposés à plus de 15 impressions chacun (je rappelle que le capping était de 4) lorsque certains de ces ID sont impliqués. “La fréquence constatée étant moyennisée, on a même vu des cas de figure où le nombre d’impressions atteignait la centaine pour un même utilisateur”, s’étonne Julien Lamb.
Un autre enseignement, c’est que deux des trois ID probabilistes mesurés sont moins efficaces que le cookie pour gérer le capping dans les environnements où ce dernier est encore présent.
“Peut-être que ces derniers auraient intérêt à passer par le cookie lorsque le signal est disponible ?”, s’interroge Julien Lamb. C’est sans doute ce que fait le troisième identifiant probabiliste qui a lui exactement le même niveau de performance que le cookie dans les environnements avec cookie.
La suite ? Un test sur les graph ID de Google via DV 360 et d’Amazon via son DSP, et, pourquoi pas, une tentative pour gérer une fréquence d’exposition moyenne de 3 ou 4 plutôt qu’un plafond, si tant est que cela soit techniquement possible.
Ou un test équivalent en incluant également les connexions Wifi avec pour challenge, côté Utiq, de rattacher un identifiant qui est au niveau du foyer (via le contrat avec l’opérateur) avec un individu ciblé. Pas une mince affaire pour l’identifiant des telcos mais indispensable pour mesurer sa capacité à gérer le capping cross-devices.
Car si les solutions utilisant du fingerprinting (toutes les solutions évaluées hors Utiq) sont pénalisées, sur ce premier test, par le fait que l’IP sur connexion mobile est beaucoup moins stable que sur une connexion Wifi, elles regagneront sans doute en compétitivité lorsque l’environnement desktop (et pourquoi pas la CTV) seront intégrés au périmètre de l’étude.
D’autant que leur approche probabiliste et les quelques restrictions qui entourent l’ID d’Utiq pénalisent peut-être ce dernier, côté reach, un autre élément qui entre en ligne de compte au moment de choisir une solution d’ID partagé.
Ce n’est, en tout cas, que le début à en croire Julien Lamb. “ Nous avons optimisé l’efficacité des campagnes via le SPO pour emprunter les chemins les plus courts et travaillé l’attention pour viser les impressions les plus impactantes. Nous sommes en train de débroussailler le sujet du reach utile : notre capacité à toucher un maximum de personnes avec une répétition maîtrisée.”
La prochaine étape ? “Croiser ces deux dimensions pour maximiser à la fois l’impact et la couverture via un reach efficace et utile”, rajoute l’expert. Rien d’étonnant pour un annonceur comme Nestlé, qui investit massivement en TV – un média où la couverture utile est clé –, d’autant que la maîtrise de la fréquence reste l’une des promesses historiques du media digital.
La méthodologie :
La méthodologie mise en place pour ce test avait un objectif simple : comparer, dans des conditions strictement contrôlées, la performance réelle des principaux identifiants du marché sur l’environnement mobile.
La campagne reposait sur une architecture unifiée : un seul dispositif média, mais déployé à travers cinq deals distincts dans la curation Equativ, chacun dédié à un identifiant différent (Utiq ID, ID5, First ID, Graph ID de TTD, cookie).
Chaque line item bénéficiait d’un capping indépendant afin de mesurer précisément la répétition générée par chaque technologie. A noter que pour le cookie et le Graph ID, le capping était géré côté The Trade Desk alors qu’il l’était côté Equativ pour les trois autres identifiants.
Initialement prévu, RampID a été écarté : TTD ne permettait pas d’appliquer un contrôle de fréquence basé sur cet identifiant dans l’Union européenne.
Pour isoler au maximum les performances intrinsèques de chaque ID, chaque line item s’est vu associer une audience totalement exclusive. Aucun chevauchement n’était possible, ce qui a évité des effets de diffusion croisée ou de surexposition involontaire.
L’activation s’est limitée aux identifiants Utiq issus des connexions mobiles, assurant une lecture “1 ID = 1 ligne téléphonique et donc, à de très rares exceptions près, type partage de connexion, 1 individu.”
Un élément clé pour une analyse robuste de la répétition et de la couverture (il convient de préciser qu’Utiq ne fournit pas d’ID dans les cas où l’utilisateur est susceptible d’avoir plusieurs IP : VPN, Cloudflare, APR..).
En fin de campagne, l’ID Utiq a servi de clé de déduplication pour mesurer la répétition réelle user-par-user sur chacun des line items. Ce choix méthodologique était essentiel : l’ID Utiq, déterministe et alimenté directement par les opérateurs, repose sur l’adresse IP associée au contrat client, ce qui en fait un ancrage particulièrement stable.
Pour garantir une lecture fiable des résultats, l’ensemble de l’expérimentation a été mené exclusivement sur les inventaires partenaires d’Utiq, soit une centaine de domaines intégrant systématiquement un ID Utiq en plus des autres identifiants.
Ce choix a permis d’éliminer les biais liés à l’hétérogénéité des environnements et d’assurer que 100 % des bid requests contenaient un référentiel commun. Le but n’étant pas de juger le reach de chaque ID mais leur précision, il n’a pas pénalisé les autres identifiants.
Grâce à lui, il a été possible de comparer le plus objectivement possible la capacité de chaque identifiant à maîtriser la fréquence, à élargir la portée utile et à optimiser le coût pour mille utilisateurs exposés.