dimanche 26 mai 2013

Cinéma upfront : un marché publicitaire à redessiner en numérique

.
Les écarts entre les modalités de commercialisation de l'espace publicitaire numérique selon les différents médias ne semblent pas encore près de se résorber. Aux Etats-Unis, les présentations précédant l'upfront market qui se déroulent début mai pour les deux grandes régies des salles de cinéma (NCM et Screenvision) sont une occasion de faire le point.
Pour mémoire : Screenmedia compte 14 300 salles pour 2 300 multiplexes ; NCM, National CineMedia compte 19 000 salles.

Screenvision, seconde régie de salles de cinéma aux Etats-Unis s'aligne d'emblée sur les modalités commerciales de la télévision américaine et, notamment, des networks ; la régie introduit comme eux des garanties GRP sur cible. A cette fin, Nielsen fournit des audiences pour certaines cibles avec les Cinema Audience Reports.

Des éléments d'interactivité avec les messages publicitaires diffusés dans les salles sont prévus, recourant à Shazam (Shazam collabore déjà avec des chaînes de télévision américaines comme Fox).
La régie assure aussi que les CGV seront mieux adaptées au calendrier : elle attaquera le marché de la télévision quand il est le plus vulnérable (l'été, notamment).

NCM met l'accent sur le Digital Signage avec des murs d'écrans (Monster Walls de 8' X 10' composés de 9 écrans LCD de 46''), murs placés dans les entrées des multiplexes (lobbies), en collaboration avec Monster Media. L'interactivité est testée dans une dizaine de multiplexes (NFC, réalité augmentée, multi-touch et motion activation, etc.). NCM affirme que les spectateurs passent une dizaine de minutes dans le lobby avant de rentrer dans la salle où passe le film (une mesure crédible est indispensable : le DS manque d'analytics crédibles). NCM collabore avec Twitter pour une émission sur les best-sellers et les tendances nouvelles du cinéma commercial grand public. Enfin, NCM s'est associé avec le réseau social Foursquare pour proposer des produits publicitaires communs précisément localisés.

Pour sa présentation commerciale aux agences et annonceurs, NCM compare son audience à celle de la télévision (cf. infra) et, essentiellement, à celle des grands networks nationaux (ABC, FOX, NBC, CBS) dont elle reste très éloignée ; en revanche, elle se situe au même niveau que les chaînes thématiques du câble et du satellite, du moins pour une cible publicitaire délimitée : 18-49 ans. Il s'agit de l'audience collectée pour les marchés locaux et non de l'audience nationale (vague de mesure - sweeps - de mai 2011). Selon ce montage statistique sur mesure, NCM serait en tête des audiences (reach) de prime time les vendredi et samedi soirs.
Source : NCM
De cette confrontation publicitaire que provoquent les ventes upfront entre des médias devenus numériques (cinéma, TV, Web, applis mobiles, Digital Signage), il ressort que l'obstacle à une rationalisation globale des actions publicitaires provient d'abord de l'hétérogénéité des mesures d'audiences, rendant problématique la notion de GRP commun. Mais cette notion unidimensionnelle constitue-t-elle un idéal ? Peut-être faut-il lui préférer un GRP "polyphonique" calculant un optimum mêlant des indices divers (KPI) voire divergents. L'intégration de l'interactivité dans le dispositif plaide pour une mesure pluri-dimensionnelle intégrée.


lundi 20 mai 2013

Online GRP. Nielsen vs comScore

.
La bataille pour la mesure des audiences multi-support online se déroule aux Etats-Unis, qui sont encore, pour quelque temps, le premier théâtre des opérations publicitaires online. Deux petits événements, l'un publicitaire, l'autre média, colorent la situation actuelle.
  1. Les agences qui achètent aux Etats-Unis les médias Web pour les clients du Groupe Publicis ont choisi comScore plutôt que Nielsen. Procter & Gamble, l'annonceur qui dépense le plus en publicité dans le monde (grande consommation, FMCG, CPG), premier client de Publicis, avait déjà choisi comScore et son Validated Campaign Essentials (vCE).
  2. Le concurrent du vCE de comScore est un produit de Nielsen, Online Campaign Ratings (OCR) qui peut se targuer de clients éditeurs comme AOL, Disney (ABC, ESPN), Facebook. Récente victoire de Nielsen : OCR est étendu aux supports mobiles dans le cadre d'une collaboration (pilote) avec le groupe sportif multimédia ESPN (chaînes de télévision, magazine, Web, mobile, radio). OCR se met en place en Europe (Allemagne, Grande-Bretagne, Italie, France), en Australie et au Canada.
vCE et OCR ont été partiellement audités et accrédités par le Media Rating Council ; certaines de leurs fonctionalités sont encore en cours d'audit (pour le détail des données accréditées, cf. infra). Les critères pris en compte et validés par le MRC sont de deux types :
  • les composantes de vérification : visibilité (viewability), sécurisation de la présence de la marque (brand safety), respect et contrôle du ciblage géographique des campagnes (in-country geographic delivery), exclusion des contacts provenant de robots (removal of non-human traffic) et engagement. Ces notions sont inégalement vérifiables, la plus confuse étant celle d'engagement.
  • les composantes de mesure d'audience : audience unique (cookie unique), couverture et répétition, GRP.
Source : MRC, novembre 2012 (dernière information disponible).
A la mesure publicitaire, Nielsen ajoute une mesure de l'audience en ligne des émissions avec Nielsen Digital Program Rating dont la méthodologie est calquée sur OCR. Ce pilote (mai-juillet 2013), auquel participent tous les grands networks, donnent les audiences veille, la couverture et le nombre de streams, le tout croisé avec une typologie d'émissions, l'âge et le sexe pour les programmes regardés en ligne.

L'enjeu premier de l'affrontement Nielsen / comScore est le marché de la mesure de la publicité online. En fait, Nielsen et comScore s'accordent sur deux points : le principe du panel et la reconnaissance de l'arbitrage méthodologique du MRC.
Au-delà de ce consensus, il s'agit pour Nielsen de pouvoir combiner les audiences de la télévision collectées par les audimètres (NTI, NSI), avec celles du Web et du mobile (OCR), afin de calculer un GRP multi-plateforme, dédupliquant les audiences entre divers appareils (les chaînes s'accordent pour estimer que l'audience des émissions sur le Web - audience non commercialisable actuellement - représenterait 12% de l'audience totale). L'adjectif pour décrire cette opération est "holistique" : qui constitue un tout, complet (du grec olosὅλος). C'est l'ambition de Nielsen avec son Cross Platform Campaign Ratings, XCR (en cours d'audit). Publicité inter-écrans (cross-screen et responsive design) et extension des campagnes TV avec la "social TV" (cf. Twitter, par exemple).
Ainsi, Nielsen dispose d'un avantage compétitif important, pour plusieurs années. Au-delà, une fois la grande majorité des téléviseurs connectés au Web, vCE comme OCR seront à même de traiter la télévision connectée. Enfin, avec la fusion de Nielsen avec Arbitron, l'avantage de Nielsen s'accroît encore de la mesure de la radio off-line.

Trois commentaires :
  • La comparaison Nielsen / comScore suggère le besoin pour comScore d'un panel permettant la mesure de la télévision off-line. D'où l'enjeu de la fusion Arbitron / Nielsen : en cas de refus par la FTC, comScore aurait pu être intéressé... (cf. Fusion en cours dans l'audience des médias).
  • Dans cette bataille, les armes de l'audit et de l'accréditation sont de plus en plus importantes.
    • Le MRC distingue trois niveaux : "en cours d'audit" (in process), "soumis pour accréditation" (submitted for accreditation consideration) et accréditation. Précisions qui évitent toute ambiguité de communication de la part des audités. 
    • Le champ de l'audit du MRC n'est pas précisément décrit. S'agit-il de la méthodologie seulement ou également des données ? 
    • Dans quelles limites les conclusions tirées d'observations américaines sont-elles transférables en Europe ? 
  • Third party data: l'ampleur de cette bataille renvoie au Big Data ; Facebook figure avec Experian parmi les premiers fournisseurs de données (third-party data suppliers). Quid de Twitter ou de YouTube ? Certains voient dans l'utilisation de Facebook par OCR un risque pour la vie privée.

mercredi 15 mai 2013

Publicité et marketing sur le Lieu de Vente (PLV, MPV) en France

.
L'organisme interprofessionnel POPAI (Point of Purchase Advertising Institute) publie une étude du marché de la PLV, étude réalisée à sa demande par Harris Interactive (Le marché de la PLV et du MPV en 2012, avril 2013). Une enquête par questionnaires auto-administrés a été conduite auprès des adhérents (entreprises) de POPAI en février 2013.
Rappelons d'abord que, selon l'étude IREP / France Pub, la PLV représentait, en France, en 2012, 3,7% des dépenses de communication des annonceurs, ce qui est plus que la radio et le cinéma réunis (3,3%), plus que le display sur le Web (2%), plus que la presse quotidienne (2,8%), autant que la presse magazine (3,8%), etc. La PLV est donc un acteur majeur du marché publicitaire, même si l'on en parle peu. Importance qui s'accroît avec l'intégration du numérique (Digital Signage, DOOH) dans cette démarche publicitaire (écrans, interactivité, etc.). Pourquoi tant de discrétion ?

Premiers résultats de l'enquête, déclarative :
  • les acteurs manifestent un optimisme prudent pour leur activité à venir au cours de l'année 2013, qu'il s'agisse de recrutement ou d'investissement.
  • la concurrence internationale perçue provient surtout de la Chine, de la Pologne et des pays du Maghreb. Cette concurrence, agressive quant aux prix, s'accompagne d'une crainte de détérioration du fonctionnement du marché (sérieux des appels d'offre, idées créatives non rémunérées, etc.).
  • la conviction, partagée par la majorité des acteurs, de l'importance sociale et économique du développement durable.
Beaucoup de résultats publiés distinguent "avec" et "sans" numérique. Pourquoi ?
Source : POPAI, Le marché de la PLV en 2012, mai 2013, p. 30
Pour ce qui est du numérique dans la PLV (cf. tableau supra), le secteur qui investit le plus est celui des services (mais l'agrégat est trop hétérogène, mêlant banques et voyage, loisirs et assurances) pour que l'on puisse en tirer des conclusions certaines. Pourquoi ce flou ?
En parts de marché du chiffre d'affaires, tous les secteurs sont en baisse sauf trois : celui des services, des boissons-alimentation, de l'édition et de la papéterie. 

Cette étude descriptive est importante pour l'analyse du marché de la communication et de la publicité ; elle doit gagner en précision pour mieux rendre compte du basculement de ce secteur de la communication dans le numérique. Comment sont classés les investissements effectués dans les transports (aéroports, gares, métro), dans les centres commerciaux ? Affichage ou PLV ? Quant au besoin de comparaisons internationales, il est flagrant. En période de mutation numérique, le marché de la communication et de la publicité a besoin d'outils économiques fiables (donc audités) et de catégories de description rigoureuses.
.

vendredi 10 mai 2013

Mercenaires du Big Data : algorithmes et analytics aux enchères

.
Le marché de la recherche prend une tournure nouvelle avec le Big Data. Ceci est possible parce que les problèmes de traitement des données (CRM, data mining, visualisation, etc.) et leurs solutions mathématiques sont indépendants du domaine sur lesquels portent les données et présentent de nombreux caractères communs.
  • 品友互动 (IPinYou Hu Dong) est une entreprise chinoise (DSPDemand Side Platform) entrée sur le marché en 2008. En avril 2013, elle lance un appel d'offre sous forme de compétition mondiale ; l'enjeu est le développement d'algorithmes d'enchères pour le RTB ("global DSP bidding algorithm competition") améliorant l'exploitation publicitaire du big data ("Where Computational Advertising Meets Big Data"). Résultats en septembre.
  • IPinYou reprend une idée de Netflix qui organisa en 2006 une compétition dotée d'un prix de un million de dollars ; l'enjeu était la prédiction de la cote (rating) des films diffusés, prédiction basée sur les préférences précédentes des utilisateurs (training set). N.B. L'algorithme vainqueur n'a jamais été implémenté (cf. techdirt) car, entre temps, Netflix avait changé de modèle économique ; de plus, la compétition n'a pas été relancée par craintes de poursuites concernant l'exploitation de données privées. Mais Netflix reste fidèle à son principe : en mars 2013, l'entreprise a relancé une compétition concernant son exploitation du cloud computing : "the Netflix Cloud Prize" est doté de 10 prix de 10 000 dollars.
La multiplication de ce type d'opérations suscite logiquement à la formation d'une entreprise comme kaggle qui s'est spécialisée depuis 2010 dans ce secteur :  appels d'offres / compétitions, gestion des transactions (organisation, anonymisation des données traitées (training sets). Sa devise est tout un programme : "Go from Big Data to Big Analytics". kaggle déclare pouvoir compter sur près de 100 000 chercheurs spécialisés dans le traitement des données pour résoudre les problèmes qui lui sont soumis par ses clients : ces problèmes, s'ils mobilisent des types de traitement homologues, sont hétéroclites, allant de prédictions concernant des problèmes médicaux (Heritage Health Prize), à la conduite automobile (Ford), aux classements sportifs (Elo rating), à la sélection de photos de voyage (Jetpac), etc. kaggle recrute les chercheurs idoines et met également des outils informatiques à la disposition des chercheurs participants (Workbench). De son côté, DataXu a réalisé une place de marché pour ses algorithmes.
Pour aller au bout de la logique économique, un fond de capital risque spécialisé dans le financement de startups travaillant dans le Big Data a été développé en 2011 : Data Collective. Un écosystème Big Data / Analytics se boucle ainsi, traduisant l'importance extraordinaire que prend la culture de la data dans l'économie numérique.
En même temps, le marché du travail se modernise : ainsi, Greenplum (EMC) étend le principe de la place de marché (qu'amazon mobilise pour son Mechanikal Turk : "marketplace for work") aux chercheurs devenus journaliers, mercenaires de la data... Crowdsourcing ?
.

dimanche 5 mai 2013

"sometimes, journalists get stats wrong"

.
L'un de mes profs lorsqu'il évoquait une affirmation mal vérifiée, ajoutait souvent, d'un air malicieux, "dans une certaine mesure, qu'il faudrait d'ailleurs mesurer...".
Un quotidien britannique rapporte que le site de Facebook a perdu 10 millions de visiteurs aux Etats-Unis et 2 millions en Grande-Bretagne.
  • La statistique semble ignorer la connexion via l'appli de Facebook, or, comme le notent les auteurs de l'article, les internautes sont nombreux à abandonner leur connection Web pour se connecter à Facebook avec l'appli. Notons encore que l'appli Facebook est la plus téléchargée de l'Apple Store ; Instagram, qui appartient à Facebook, est la troisième (Source : Apple, cf. iTunes).
  • La statistique est issue d'un panel dont la représentativité est difficile à estimer, notamment, par exemple, pour les générations les plus concernées par Facebook, pour les étudiant(e)s américain(e)s (ni "home" ni "work"). Il faudrait pour être plus précis se référer à un audit neutre de la méthodologie du panel.
  • Pour tout clarifier, le quotidien évoque une étude de l'entreprise socialbakers sur l'érosion de l'audience de Facebook. Or cette conclusion est démentie par les auteurs de l'étude qui laissent entendre que les journalistes concernés n'ont peut-être pas tout compris : "sometimes, journalists get stats wrong", ironise Jan Rezab, P-DG de socialbakers, in "Clarification to Guardian’s Wrong Article, Again...".
Conclusion. On ne sait rien. Comme dit Jan Rezab, "The bottom line here is that there is no story". Facebook ne commente pas. Pourquoi le ferait-il ? Cette non-histoire pose le problème de la reprise par les journalistes de statistiques qu'ils ne peuvent vérifier. Info ou intox ?

Mise à jour, 14 juin 2013 : à propos de l'affaire NSA PRISM et du journalisme : Ed Bott "How did mainstream media get the NSA PRISM story so hopelessly wrong?"
.