- Open Garden
- Posts
- Open Web : se réinventer ou disparaître. Notre guide pratique pour survivre à un monde dominé par les assistants LLM
Open Web : se réinventer ou disparaître. Notre guide pratique pour survivre à un monde dominé par les assistants LLM
Pendant deux décennies, les éditeurs ont bâti leurs modèles économiques sur la dictature bienveillante de Google et Meta qui les tenaient un peu sous assistance respiratoire. Google et Meta apportaient (bon an mal an) le trafic, l’Open Web le monétisait (de plus en plus difficilement).
Cette époque est révolue. Les assistants LLM transforment les moteurs de recherche en moteurs de réponses, absorbent les contenus et raréfient l’audience humaine. Aux États-Unis, l’impact des AI Overviews, ces réponses générées par Gemini,qui s’affichent au-dessus des résultats de recherche traditionnels de Google, commence à se faire sentir.
Le trafic référent issu de Google Search a diminué pour la majorité des publishers US, avec des chutes avoisinant les 25%, voire plus, sur certaines audiences spécifiques. Pour les médias, le choc est brutal. Mais à chaque crise, ses opportunités avec, en réalité, deux options qui semblent s’offrir aux médias à l’ère du “zero click”.
Option 1 : Créer une digue (comme le New York Times)
La première option, c’est de sanctuariser vos contenus, en bloquant les robots des LLM et en ne donnant, donc, pas d’autre choix à l’internaute que de se rendre sur votre site pour accéder à vos articles. Et préserver, ce faisant, votre modèle économique actuel (qu’il soit payant ou gratuit).
Il y a ceux qui se “contentent” de dire aux robots qu’ils ne veulent pas qu’ils crawlent leur site, en le faisant savoir via leur fichier robots.txt, et il y a ceux qui ont conscience que ces instructions ne sont pas toujours respectées (voir ci-dessous) et préfèrent passer par une configuration côté CDN (Cloudflare, Fastly), pour bloquer les crawlers (ou du moins bloquer ceux de leur choix).
L’enjeu est clair : défendre la valeur du journalisme en sortant d’une logique de dépendance au trafic, et construire une relation directe, one-to-one, via le payant, l’abonnement ou le développement de newsletters propriétaires.
Le New York Times a fait ce choix radical, allant jusqu’à attaquer Perplexity en justice pour non-respect des consignes de son robots.txt. Mais… tout le monde n’est pas le New York Time et, pour beaucoup d’éditeurs, être absent des interfaces IA, c’est risquer de s’invisibiliser.
Dans un monde où l’accès à l’information passe de plus en plus par des assistants conversationnels, ériger une digue, c’est aussi accepter de disparaître du radar de certains usages.
Option 2 : Surfer la vague (à l’image du Washington Post ou du Monde)
C’est pourquoi, plutôt que de bloquer, la plupart des éditeurs font le choix du pragmatisme : embrasser les interfaces IA et essayer (tant bien que mal) d’en capter la valeur économique.
Ici, trois pistes semblent se concrétiser.
Licencier son contenu aux plateformes d’IA
Le modèle est désormais bien identifié : faire de ses archives une base d’entraînement des LLM et apparaître dans les réponses générées par ces assistants en temps réel. Le tout moyennant une compensation annuelle significative.
En France, le droit voisin fournit un cadre juridique solide à ces accords. Le Monde a ainsi conclu un deal avec OpenAI, estimé à plusieurs millions d’euros par an. Le groupe a également signé un accord avec Perplexity, qui reverse 80% des revenus générés par son navigateur Comet+ à des éditeurs partenaires, au prorata de l’usage réel de leurs contenus. Aux côtés du Monde, on retrouve CNN, The Washington Post ou encore Le Figaro.
Le Monde, dont près de 30% du trafic est aujourd’hui non humain, a annoncé qu’il activerait par défaut le blocage de tous les crawlers IA avec lesquels il n’a pas d’accord, d’ici la fin de l’année.
Il s’inspirera peut-être d’une expérimentation menée par The Atlantic, qui a décidé de créer une scorecard des LLM, mesurant très concrètement le trafic et les abonnements générés par chacun d’entre eux et n’autorisant que ceux qui lui apportent une vraie valeur (de quoi lui permettre de bloquer des bots qui effectuent des centaines de milliers de requêtes hebdomadaires sans aucune contrepartie).
Mettre en place un péage de type “pay-per-crawl”
Bien évidemment, négocier individuellement avec chaque plateforme d’IA n’est pas une option pour les médias qui n’ont pas la notoriété du Monde ou du New York Times. D’autant que les géants de l’IA générative semblent adopter la même stratégie que Google à l’époque des droits voisins : “négocier avec les médias les plus prestigieux et influents, histoire de les tenir en laisse, et ignorer tous les autres”, comme le fait remarquer un connaisseur du sujet.
Google qui, il faut le préciser, semble aussi avoir une position ambivalente sur le sujet. Gemini n’a, pour l’instant, signé aucun deal de ce genre et les récents propos de l’une de ses représentantes en affaires publiques ne présagent pas d’inflexion sur le sujet.
Cette dernière a ainsi expliqué que “les contenus “librement accessibles”, c’est-à-dire qui ne sont pas derrière un paywall, ne donneront droit à aucune rémunération pour les ayants droit. Peu importe si ces contenus sont protégés par le droit d’auteur. L’argument ? L’IA de Google ne “copie pas”, elle génère du contenu “nouveau”.
Raison pour laquelle la plupart des “petits et moyens” éditeurs devront mettre en place des péages d’accès payant pour les crawlers.
Le principe est simple : le crawler s’acquitte d’une taxe à chaque fois qu’il veut accéder à un contenu. Des intermédiaires technologiques comme Cloudflare ou TollBit (partenaire de Fastly) ont déjà mis en place des solutions de ce genre. CLoudfare a même récemment mis la main sur Human Native, une marketplace qui mettra en relation solutions d’IA et éditeurs.
Des initiatives plus larges comme Really Simple Licensing (RSL), qui réunit une cinquantaine d’éditeurs, ou encore le protocole IAB Tech Lab ComP, essaient également de standardiser tout cela.
Il faut également mentionner un test mené par Raptive, en partenariat avec Criteo via sa techno BidSwitch, qui vise, lui, à remplacer l’impression publicitaire par le crawl, comme unité transactionnelle.
Concrètement, un site partenaire (InspiredTaste) n’autorise que deux crawlers IA via Cloudflare. Chaque requête de crawl est transformée en bid request standard, envoyée vers un DSP via BidSwitch, avec un floor price fixé par l’éditeur. Le crawler accepte et paie… ou est refusé.
Résultat : 174 dollars générés en quelques heures. Le test reste embryonnaire, mais il démontre qu’un modèle payant pour l’accès aux crawlers IA peut s’appuyer sur les rails existants du programmatique, sans réinventer l’écosystème, simplement en changeant l’objet de la transaction. Il serait, par ailleurs, intéressant de mettre en perspective les revenus ainsi générés avec ceux obtenus via le programmatique ;).
Porter des offres de GEO pour les marques
La dernière option, transformer cette mutation en offre commerciale, à l’image des offres de GEO (Generative Engine Optimization) portées par des groupes comme Prisma Media, Reworld Media ou Le Figaro.
Leur promesse : aider les marques à optimiser leur visibilité au sein des LLM. Avec, concrètement, un audit des requêtes cibles des marques, pour identifier les pages du média qui y sont les mieux représentées, un travail éditorial ciblé, pour intégrer des mentions de la marque partenaire dans les pages concernées et, pourquoi pas, une stratégie similaire sur les assets sociaux du média (puisque les LLM scrappent tout).
À tous ces dispositifs, qui relèvent presque de l’OPS et permettent aux médias de se repositionner mid-funnel (là où se joue la prescription), s’ajouteront sans doute de nouveaux formats publicitaires dédiés aux IA.
A l’image de ceux que proposent Smalk AI, qui proposent aux éditeurs membres de son ad-network d’ajouter des emplacements publicitaires qui sont facturés à l’AICPM (cost per mention). Les premières campagnes, diffusées pour un acteur de l’automobile, laissent présager un coût de 40 euros la mention qui positionnerait le levier quelque part entre le display classique et Meta en termes de prix.
On peut aussi imaginer les médias jouer la carte de l’extension d’audience, en poussant leurs contenus partenaires au sein des emplacements sponsorisés de Chat GPT et cie. A 60 euros du CPM (les tarifs de Chat GPT), l’équation économique n’est pas évidente mais il y a peut-être un coup à jouer.
On ne sait pas, à ce stade, le potentiel business de ce type d’offre (ni combien de temps les LLM valoriseront autant le contenu payant que le contenu organique) mais l’enthousiasme est réel côté marques.
Une régie média me confiait avoir enchaîné près de 300 rendez-vous en trois mois pour présenter ce type d’offre. À l’arrivée, quelques dizaines de milliers d’euros de revenus, évidemment insuffisants, à ce stade, pour compenser l’érosion du display traditionnel… Ce qui laisse sceptique certains acteurs du secteuer, qui craignent que le GEO soit aux médias, ce que la CTV est aux broadcasters, “un levier de croissance qui ne suffit pas à compenser la baisse des revenus du business model historique”.
Vous l’aurez donc compris, l’Open Web n’est pas condamné, mais il ne survivra pas par inertie. Face aux assistants LLM, les médias doivent faire des choix clairs : se protéger, négocier ou inventer de nouveaux modèles.
Aucune option n’est parfaite, toutes exigent des arbitrages. Mais une chose est sûre : dans un monde “zero click”, ne rien faire revient déjà à disparaître. Car il ne fait guère de doute que le site web deviendra, pour les groupes médias, ce que le print est aujourd’hui : un canal de plus en plus difficile à monétiser directement, mais dont la force de prescription et d’influence reste capable d’alimenter d’autres modèles économiques.