Archives pour la catégorie Compte rendu

Les punchlines de l’Adtech Summit 2019

Adtech summit
  • « On veut reprendre le contrôle de nos données. »
    « Attention les tests c’est comme la drogue, il faut pas en abuser car c’est cher à faire »prévient Aurélie Stock Poeuf, Directrice digitale Bouygues Telecom.
  • « La qualité [des inventaires] paye et a toujours payé. On achète quasiment tous nos inventaires IDTrust » dit Philipe Boutron, head of media France PSA
  • « Malgré ID trust, les annonceurs n’achètent pas plus cher, donc la qualité ne paye pas tant que cela. Et le postview n’est pas valorisé du tout.  » constate Jeremy Parola, directeur des activités numériques, Reworld.
  • « On a encore du mal a calculer l‘efficacité du premium sur l’upper funnel » confirme Jean Baptiste Rouet , Chief digital & programmatic Office Publicis.
  • « On aurait besoin d’un tiers de confiance pour pouvoir mesurer l’incrémental apporté par le premium » indique Michele Benzeno de Webedia.
  • « On constate 40% de moins de monétisation sur les audience Firefox et Safari du fait des contraintes de tracking third et first party » dit Tom Kershow, CTO Rubicon, confirmé plus tard par Gael Demessant directeur Programamtic de Prisma.
  • « L’objectif de google est désormais : To do more with less data » Mark Howe , MD emea Agencies Google.
  • « Le contextual pourrait en partie se substituer à la disparition du tracking third party cookie…Mais l’impact ne sera quand même pas le même. » dit Gael Demessant dir Programmatic de Prisma.
  • « On est favorable à plusieurs solution d’ID matching sur le marché ». dit Yann Blat Thetradedesk.
  • « 20% des plaintes envoyées à la CNIL concernent le marketing digital » dit Marie Laure Denis , présidente de la CNIL qui encherit :  » les sujets de management de consentement et de données personnelles doivent être mieux compris par les comex« .
  • « On se demande si la CNIL se rend bien compte de la chute importante de revenus possible avec toutes ces nouvelles réglementations », insiste Denis Olivennes en tant que président d’IAB France.
  • « Il faut trouver les solutions et donner du temps aux publishers, et faire aussi beaucoup d’études, mais il faut trouver des acteurs qui les fassent » rétorque Marie Laure Denis.
  • « Il faut que les CMO passent d’un story telling au story making. Walk the talk comme disent les américains ». indique Thomassa VP chez Forrester.
  • Estimation du marché de la TV adressée – CA incrémental: entre 120 et 200 M€ selon le CSA (Nathalie Sonnac), entre 130 et 400M€ selon l’AFMM précise Christian Bombrun son président, sachant qu’Orange table sur une estimation entre 200 et 300M€. Cela semble beaucoup ajoute Romain Job, CSO de Smart« si l’on compare au 3% de la pub adressée aux US sur les 70Mds$ du marché ».
  •  » 50% des marques demandent toujours un baisse du prix des achats média dans les pitchs, et n’ont aucun KPI business, c’est un grand paradoxe par rapport à leur demande d’avoir plus d’intelligence de la part des agences » se plaint Pierre Calmard CEO d’iProspect, qui ajoute que « La marge d’une agence media en France est désormais de 0, la pire en Europe. »
  • « Pourquoi la création n’est pas bien rémunérée, car c’est risqué, 1 campagne sur 10 en moyenne peut faire un carton pour une marque. Les acheteurs ne veulent pas payer pour les autres » se risque Guillaume de Roquemaurel, CEO d‘Artefact.
  • A propos du retail media qui n’est pas encore maîtrisé par les agences, « je fais seulement 5% de notre CA avec elles » témoigne Alexis Marcombe, DG de Carrefour Media .

La CDP, quésaco ???

IMG_20191001_091129

Le monde du martech s’affuble d’un nouvel acronyme, la « CDP », Customer Data Platform, intronisée en France ce 1er octobre 2019 par une conférence chez OnePoint qui lui était dédiée, organisée par le CDP institute, association non lucrative soutenue par tous les éditeurs de CDP.

Cet institut a défini la CDP par 5 grandes caractéristiques:

 

 

 

 

  1. Capacité à ingérer tous types de données clients identifiés sans avoir à structurer un data model ou une infrastructure (vs datawarehouse ou datalake)
  2. Stockage de la majeure partie des données client
  3. Persistance du stockage (vs les DMP qui n’allait qu’on maximum jusqu’à 13 mois légalement, et 3 mois maximum en pratique)
  4. Unification des profils (à partir d’une clé de réconciliation bien sûr, de ce point de vue, c’est une fonction identique à une DMP)
  5. Disponibilité de l’information à n’importe quel autre système externe (vs les systèmes CRM opérationnels qui ne peuvent en même temps gérer des transactions et la mise à disposition)

 

img_20191001_091747.jpg

Ces caractéristiques sont suffisamment discriminantes pour permettre de facto de définir ce qu’est une CDP et ce qui n’est en pas, afin d’aider les marketers à s’y retrouver et éviter de les confondre avec des datalakes, des datawarehouses, des DMP, des gestionnaires de campagnes ou des solutions CRM.

img_20191001_091506-e1570446803220.jpg

En effet, ces caractéristiques apportent de nouvelles possibilités qu’aucun des autres outils martech n’apportaient jusqu’à présent :

  • Un accès simplifié à toute la donnée client (le fameux 360 !)
  • Une profondeur de donnée qui va bien au-delà des bases RCU historiques qui ne vont pas beaucoup plus loin que les golden records. Plus besoin de piocher dans plusieurs bases à la fois pour calculer des KPI ou avoir des extractions.
  • Une information temps réelle permettant d’activer immédiatement dès qu’un événement est détecté, et offrant une réelle capacité de conversation avec le consommateur et sa personnalisation.
  • Une interface permettant de facilement segmenter à la volée les clients.

 

IMG_20191001_091443

Malgré tout, les CDP du marché ne sont pas toutes similaires. Elles ont toutes des valences différentes. Certaines sont plutôt orientées data , analytics, ou gestion de campagne. En effet, beaucoup des solutions du marché n’ont pas été conçues d’entrée comme des CDP. Par Exemple Tealium était au départ un tag manager et a ajouté une fonction  de server side permettant d’échanger directement de la données vers les systèmes d’information sans utiliser le navigateur et c’est ce qui lui permet aujourd’hui de figurer parmi les CDP.

Cette conférence a permis d’entendre le témoignage de Castorama et Brico Dépôt du groupe Kingfisher qui a mis en place la CDP Tealium justement.

Concrètement, parmi  les clients intéressés par les salles de bain ,  la CDP a permis d’identifier un segment de 1% d’entre eux pour lesquels les campagnes de search ont eu un ROI 6 fois plus important que sur les autres segments… et le panier moyen 10 fois supérieur que les autres.  Ces résultats ont pu être répliqués  pour les clients intéressés par la décoration d’intérieur, démontrant la scalabilité de ce type de démarche.

Mais ce qui est encore plus intéressant dans ce témoignage, c’est le constat que la mise en œuvre de cette CDP n’a pas été vécue comme un projet technique, mais comme un vrai projet métier. En effet, la dimension technique passe clairement en second plan car la complexité de mise en œuvre est relativement faible. Cela a été souligné par un autre exemple cité par l’éditeur Treasure data au sujet de l’implémentation  de sa CDP pour une grande marque de bière internationale, l’aspect formation et montée en compétence ont  été négligés et a pénalisé fortement les performances.

Pour Omnicom, qui témoignait aussi, la CDP se justifie que pour les marques :

  • Pour lesquelles l’achat est impliquant pour le consommateur (pour l’aider à faire son choix)
  • Et/ou il y a un repeat important
  • Qui ont des données clients, cela va mieux en le disant (cf certaines marques CPG qui en sont démunies)

Et la condition du succès est bien sûr d’avoir du contenu à proposer à ses client et qui soient en phase avec leur situation dans la funnel…ce qui est un gros challenge car les modes opératoires et les budgets des annonceurs ne sont pas adaptés à cette nouvelle exigence : l’absence de contenu pertinent gâche l’investissement dans les outils. C’est assez facile à dire et beaucoup plus dur à faire. C’est un nouveau type de travail créatif auquel peu d’agence sont encore habitués. Et il cela conduit aussi à une question de coûts de production de ces contenus car comment en produire plus sans exploser les budgets…mais c’est un autre sujet.

La CDP a clairement un potentiel important et des effets insoupçonnés qui vont au-delà de la simple performance. Elle impacts aussi les organisations car elle permet plus facilement de partager les informations. Omnicom citait l’exemple d’Ubisoft qui a modifié son organisation marketing qui était structuré par jeu car la donnée d’un joueur sur les différents jeux n’étaient pas disponibles avant la CDP . Ubisoft a depuis créé un département marketing transversal. Chez Kingfisher, l’efficacité observée sur les actions marketing en direction des clients conduit à modifier la répartition des budgets crm vs prospection au bénéfice du crm.

Concertant la mise en place et l’exploitation, la CDP n’est pas très lourde pour les organisations mono marques, et devient plus lourde quand il y a plusieurs marques à gérer. W3 régie qui gère sa CDP avec de nombreuses enseignes du groupe Casino dédie 8 personnes à temps plein (2 business owners, 2 data scientists, 2 data analystes et 2 ops). La maturité de la marque joue aussi beaucoup. La présence d’un datalake où toutes les informations des applications métier  client sont déjà stockées accélère beaucoup le déploiement puisque tous les travail de structuration de la donnée a déjà être fait au moment où il faut y connecter la CDP.

Venons en maintenant à toutes les questions qui se posent et qui n’ont pas été abordées pendant cette conférence.

Faut-il absolument une DMP en plus d’une CDP pour activer du média ?

A priori non car beaucoup de CDP disposent de connecteurs au DSP du marché. En outre,  le bénéfice de partager ces données avec des third party, qui est le point de fort des DMP, devient de moins en moins avéré du fait  de la régulation plus stricte de la GDPR. Au final,  une CDP connectée au DSP suffit largement dans beaucoup de cas.

Peut-on recycler une DMP en CDP ?

Cest la bonne question car en fait une DMP peut assurer une bonne partie des fonctions de la CDP si on sait correctement l’utiliser. Il est effectivement dommage que beaucoup de DMP du marché n’ait été utilisées que pour du média  car cela a conduit à beaucoup de déceptions, et a encouragé beaucoup de marketers à jeter le bébé avec l’eau du bain. Or les DMP ont des fonctionnalités très similaires au CDP  dès qu’elles sont correctement alimentées en amont par un flux CRM structuré et qui est anonymisé à la volée. Beaucoup de use case de CDP (ex : arrêter d’envoyer de la publicité à ces clients) peuvent donc être réalisés avec une DMP pour peu qu’on fasse cet effort, effort qu’il faudra faire quoi qu’il arrive avec une CDP. Si la DMP est donc encore active, il y a une belle opportunité à tester de uses case de CDP s’il fallait en passer par là pour justifier la CDP.

CDP et DMP doivent elle coexister ?

Tout va dépendre de la situation de la marque et de son business modèle. Si elle nécessite beaucoup de dépenses média avec beaucoup de repeat, qu’elle dispose de peu d’information client,  et qu’il y a un beaucoup d’optimisations possibles sur le média, la DMP est probablement à conserver (cas de CPG). A l’inverse, en cas de faible répeat, de cycle courts et de beaucoup de données clients (cas des banques pour les crédits immobiliers), la CDP doit être favorisée par rapport à la DMP.

Combien coûte une CDP vs un DMP ?

Les CDP ont des modèles de facturation qui sont souvent liés à de l’usage comme les DMP. Et comme pour le DMP, il faudra particulièrement examiner les coûts en particulier pour les solutions américaines qui ne se rendent pas bien compte qu’il faut adapter les prix en fonction des volumes de marché. Les DMP ont beaucoup souffert de coût disproportionnés.  Ce qui est absorbable dans un marché US, ne l’est plus du tout sur un marché de la taille de la France, d’autant que les efforts d’intégration sont les mêmes quel que soit la taille du pays. La même chose est à craindre pour le CDP.

La CDP permet-elle de s’abstenir d’avoir un datalake ou un datawarehouse ?

A priori, non. Le datalake reste toujours le meilleur outil pour les analyses poussées des data scientists, le calcul de score et pour servir d’environnement intermédiaire de stockage et de traitement des données avant injection ailleurs. La datawarehouse demeure nécessaires pour assurer les fonctions de reporting  et d’analytics. Quoique les CDP vont probablement se développer vers ces fonctions car elles sont temps réel. Mais leur logique de facturation ne vont pas faciliter les choses car on risque de payer à chaque consultation de reporting, ce qui n’est pas acceptable, et cela placera les datawarehouse en meilleure position pour assurer ces fonctions.

La CDP peut-elle remplacer le RCU ?

La CDP dispose de l’avantage d’être nativement conçue pour facilement distribuer son information via des Api. Et puisqu’elle  possède et unifie toutes les données client, c’est un bon candidat pour remplacer le RCU à terme. Mais attention, là encore au système de facturation. Le RCU est souvent une solution facturée au volume de données stockées et non au nombre d’appels…ce qui n’est pas toujours le cas des CDP. Donc une analyse des coûts  s’impose, même si techniquement, la CDP pourrait bien facilement remplacer un RCU.

 

 

Notes du Facebook garage France – avril 2012

Les nouveautés opengraph

En introduction, FB a mis en avant les nombreux avantages de l’opengraph actuel

  • Une video vue sur dailymotion via FB génère 3 clics sur Dailymotion
  • Il existe une infinité de façon de mettre en œuvre l’opengraph  via les actions. L’application senscritique.fr est un exemple de la créativité possible : j’ai envie de de, etc. ;

Concrètement les nouveautés  (et/ ou usages innovants):

  • User taging :  « je voyage avec xxx » plutôt que je voyage à l’endroit y. On peu utiliser un ami comme tag d’une action
  • Rechargement de tous les évènements passés avec une application sur la timeline avant qu’elle soit mise en place
  • Map action l : voir nike+, on peut utiliser les lieux et des maps dans les actions
  • Il faut modéliser les objects, les actions, comme un modèle de données traditionnel. Il faut bien penser cela au début car l’expérience montre qu’il est difficile ensuite de faire évoluer le modèle (problème de pertes de données, etc…)
  • Les objects peuvent générer eux-mêmes des actions (à l’extrême, un évènement détécté par une cafetière peur déclencher l’action « j’ai pris un café »).
  • Attention aux erreurs des publications : il faut les surveiller dans les insights
  • Il est possible de se brancher sur un beta opengraph.fb.com ( ?) pour tester ces implémentations
  • Il est possible de traduire le nom de son graph, ainsi que le nom des objets…mais c’est pas simple
  • FB ne restitue pas les actions que l’application à soi même généré. Il faut donc que l’application pense à les historiser de son côté
  • Application citée comme exemple de web app déconnectée du canva mais publiant dans l’opengraph: pose.com

IMAG0161

IMAG0162

 

Shipping et QA

Facebook a expliqué sa façon de gérer ces procesuss

  • pas de testeurs, tous les collaborateurs sont des testeurs car ils sont connectés à une version beta de fb(http://beta.facebook.com/). Ils indiquent le bug temps réel et font des roolbacks en cas de problème
  • Le code réalisé jusqu’au dimanche soir est mis en prod tous les mardi matin et shippé au fil de l’eau en béta. La
  • Utilisation d’une suite logicielle pour gérer le code : http://phabricator.org/
  • Recommandation de connecté les applis sur http://beta.facebook.com/ afin de voir si elle sera prête pour la mise en prod du mardi.
  • Recours à des « dark launches » , c’est-à-dire des lancement de features sans que les utilisateurs les voit. Par exemple, lors du lancement de la timeline, ils l’ont en fait activé pour tout le monde, sans que les users puissent la voir. Cela leur a permis de vérifier tout à ta de chose (charges, bugs, etc…).
  • Etant donné le nombre de serveurs de leur infra (plus de 10 000 serveurs), FB utilise bit torrent pour déployer le 1.5Gb de l’executable de FB, et en moins d’une heure maintenant (contre plusieurs heures via un déploiement en cascade précédemment)
  • Chaque développeur est responsable de son code (grosse pression sur leur qualité…) – j’avais vu dans un précédant garage qu’ils étaient notés sur leur contribution et leur correction de bugs avec un leaderboard général….visible par tous !

Appplis mobile

FB a indiqué ne vouloir aider que les développeurs qui ont une version mobile de leur app et déployer l’opengraph (actions,objects). Cela signifie clairement que l’usage gracieux des ingénieurs de facebook dans le cadre de mise au point est clairement filtré.

Nouveautés :

  • Possibilité de déclencher une notification par l’app mobile sans que l’app mobile n’ait à coder cette notification. Je n’ai pas tout compris, mais il semble que la génération d’une notification passe désormais par un service Facebook appelable facilement par une app (ios ou android) beaucoup plus facilement qu’avant.
  • Beaucoup de démonstrations d’interaction webapp mobile app et webmobil ont été faites pour illustrer le fort niveau d’intégration possible du point de vue de l’interface utilisateur (seamless)

 

Remarques et nouveautés diverses

  • Offilineaccess : la permission sera supprimée bientôt (elle fait trop peur)
  • Le token d’autorisation valable 60j aura désormais une durée de vie repoussée à chaque nouvelle connection du user
  • Attention au shallowlinking : c’est-à-dire la perte du contenu, il faut recourrir au max à du deeplinking (en particulier de l’objet opengraph qui ne dépend a priori pas du tout de la plateforme de laquelle on l’accède – mobile web, mobile app, canvas, web.
  • Toute application peut  accéder à toute l’activité musicale, jeu etc – builtin- (en fait toutes les actions banalisées par FB)…Donc, de ce que j’ai compris, une appli de jeu X peut accéder au scores et achievment d’un jeu Y…Mais le namespace de ces activités n’est pas publique…donc il faut tatonner (typiquement le genre de chose que les ingénieurs doivent donner dans les échanges informels). Mais en revanche
  • Rafraichissement des métadonnées des objects possible via le graphbatchAPI
  • Explication de la viral loop : action dans l’appli, publication d’une action/feed, affichage de l’action / feed (c’est à ce niveau qu’intervient l’algo de FB qui filtre), puis click par le user et retour à l’application. Ils ont attiré l’attention sur les fuites qui existent dans ce loop, en particulier l’autologin qui faut pouvoir correctement gérer pour éviter des apparitions trop intrusives de la fenêtre d’ autorisation de l’application.

Une belle occasion de réfléchir

Dans le cadre de mon activité professionnelle actuelle, j’organise et j’anime avec le Social Media Club France , la chaire du divertissement numérique. 

Cette initiative est née d’un constat : les contenus de divertissement ont su s’accaparer des évolutions technologiques pour se diffuser toujours plus à tel point que l’on parle aujourd’hui d’une « industrie du divertissement », toujours dominée par les mass médias. Certes les jeux video ont émergé en tant qu’industrie à part mais sans véritablement remettre en cause la puissance des producteurs traditionnels de contenu. Cette fin de décennie apporte un ingrédient nouveau à l’écosystème : les réseaux sociaux. Elle ouvre une nouvelle ère dans la façon dont on consomme et s’approprie les contenus interactifs. Non seulement les contenus devraient-ils être de qualité pour divertir, puis devenir interactifs mais il faut aussi qu’ils deviennent sociaux.

La Chaire du Divertissement Numérique  se propose d’explorer ces questions. Elle ira à la rencontre de ces contenus qui n’ont pas encore de nom et qui se déploient au carrefour du divertissement, de l’interactivité et des réseaux sociaux. Elle tachera de les caractériser sous divers angles : comment les produire ? qui les produit ? quels sont les usages actuels ? quels usages futurs ? quels business models ? quels savoir-faire ? pour quelles audiences ? etc. En fin d’année elle tentera de poser quelques définitions et concepts clés pour aider les professionnels à mieux comprendre l’évolution en cours et à mieux en saisir les opportunités.

La Chaire va se dérouler sur huit mois à compter d’octobre et s’articuler autour d’une table-ronde privée par mois réunissant des représentants de la TV, des médias sociaux, etc. ; et d’une conférence publique trimestrielle, synthèse des tables-rondes.

A l’issue de chaque trimestre, une conférence publique permettra à la chaire de présenter sa réflexion. Trois thèmes ont déjà été dégagés : « Le point de vue des créateurs sur l’évolution sociale des contenus de divertissement », conférence qui se tiendra le 7 décembre à la Cantine (Paris 2ème), puis « Composition et dynamiques des audiences des contenus divertissants, sociaux et interactifs » (mars) et « Enjeux de la dynamique sociale dans les business models » (juin).

Les sujets traités seront pêle mêle : délinéarisation des contenus, réalité augmentée, gamification, audiences des jeux sociaux, business models, etc…

Le compte rendu de cette réflexion est disponible ici.