Les hôteliers ont bien compris qu’internet est devenu obligatoire. Nous disons dans un article précédent que 93% des clients d’un hôtel se renseignent en ligne, notamment sur des moteurs de recherche comme Google (94,1% de parts de marché selon le blogdumoderateur). Mais comment être en tête des résultats ?
Google indexe les résultats de recherche selon une formule appelée référencement, qui donne un indicateur de pertinence aux sites web par rapport aux mots clés demandés. Un travail de SEO (Search Engine Optimisation) permet cependant d’améliorer la pertinence de son site en fonction des mots clés ciblés. Chouette alors, ciblons « hôtel », « chambre », « réserver » et la région de votre hôtel !
Oui mais non, ces mots clés très demandés sont complètement trustés par les grands groupes et OTAs comme Booking (Online Travel Agencies).
Illustrons cela par un exemple de recherche classique : « hotel paris » (avec une faute intentionnelle à hôtel, l’internaute est pressé).
Sur la première page de résultats de Google se trouvent 19 propositions, dans l’ordre suivant :
Sur ces 19 liens, nous retrouvons donc 14 propositions de comparateurs, 4 liens vers le groupe Accor (accorhotels, ibis et mercure) et un seul site d’hôtel indépendant, le Paris France Hôtel.
Booking.com monde dépense 2,8 Mds $ par an de pub online pour maintenir sa position de leader et générer un trafic important (affichage et clic de publicité, achats de mots clés et affiliation). Les comparateurs présents en première page ont globalement un budget SEO et SEA comme AdWords énorme contre lequel seuls les grands groupes hôteliers comme Accor peuvent rivaliser.
La première page de Google est donc devenue une utopie pour les hôtels aux moyens raisonnables. Du moins pour ces expressions génériques qui attirent beaucoup de trafic peu qualifié.
Est-ce perdu pour autant pour les hôteliers ? Bien sûr que non !
Tout d’abord, contrairement à la règle de Pareto, en recherche web les 80% des mots clés les moins demandés représentent tout de même plus de trafic que les 20% plus populaires. C’est le principe de la longue traîne : les petits ruisseaux font les grandes rivières.
On retrouve la longue traîne à droite, qui comporte les mots moins utilisés
Lorsqu’un internaute recherche plusieurs mots dont ces mots-clés moins demandés, votre site remontera dans le classement et pourra espérer être présent en première page. Vous pouvez ainsi être en page 5 ou 6 de la recherche « gite Bretagne » et en page une de « gite Bretagne pas cher avec terrasse en bord de mer et piscine chauffée ».
Par ailleurs vous correspondez précisément à ce que l’internaute cherche, il aura donc plus facilement tendance à réserver. On estime que les recherche de longue traîne, plus précises, génèrent 2,5x plus de conversion. Moins de fréquentation mais plus de transformation.
Investissez sur la longue traîne plutôt que de vous battre sur des mots clés génériques très chers et qui attirent des visiteurs peu qualifiés propices à faire augmenter votre taux de rebond. Vous concentrez ainsi votre budget SEO sur vos véritables clients.
Faites un travail d’analyse sémantique pour repérer les mots-clés de la longue traîne :
Rédigez vos contenus éditoriaux en intégrant ces mots. Vous pouvez décrire précisément votre offre mais le mieux est d’avoir un blog où vous pouvez ajouter des articles régulièrement.
Pour connaitre les mots clés sur lesquels miser, écoutez vos clients et analysez vos concurrents.
Google vous propose l’outil Keyword Planner pour analyser l’occurrence et la concurrence des mots clés, accessible depuis votre compte AdWords.
Vous pouvez aussi utiliser l’outil Trends qui analyse les tendances du moment et la saisonnalité des mots clés.
De même, les résultats de Google Analytics sont bien utiles pour connaitre les recherches vous ayant apporté du trafic.
Vous pouvez aussi nous contacter directement.
Pour en savoir plus, vous pouvez lire nos autres articles sur le sujet :
Hôteliers, faîtes de votre site web une destination !
Faut-il changer votre moteur de réservation d’hôtel ?
L’histoire est souvent la même. Cela fait des années que vous demandez un budget pour la refonte du site web vieillissant de votre entreprise.
On vous l’a enfin accordé cette année, alors, plein d’enthousiasme, vous impliquez tout le monde dans le projet, finalisez enfin le nouveau site et êtes prêt à lancer la migration. C’est alors que Jean-Claude pose LA question : « T’es sûr qu’on pourra toujours nous trouver sur Google ? ». Silence gêné. Comment s’en assurer ?
Le référencement sur les moteurs de recherche est particulièrement affecté par la refonte d’un site web. Négliger cette étape, c’est prendre le risque de perdre la réputation et la pertinence acquises au fil des années. Cela demande une organisation bien en amont, une bonne gestion de la migration et un suivi exhaustif après lancement.
L’optimisation du SEO doit même être intégrée dès le debut du projet de refonte. Le temps et les ressources nécessaires vont bien entendu dépendre de la taille et de la complexité de votre site web. Un site vitrine d’une quinzaine de pages demandera bien moins de temps qu’un site e-commerce de 15,000 articles. Mais même lorsqu’il s’agit d’un « petit » site, il est primordial de bien gérer la transition.
Chute du SEO et des positions dans Google lors d’une refonte de site
C’est une étape importante, alors pour éviter les mauvaises surprises il faut tout planifier.
Pour être efficace et lisible, vous pouvez simplement le faire sur un tableau Excel qui liste les infos. L’objectif est de se mettre à la place des robots de Google qui indexent votre site. Afin de vous aider à imaginer toutes les possibilités, vous pouvez utiliser des outils qui scannent votre site, ou crawler, comme Screaming Frog ou Oncrawl.
Une fois votre liste terminée, vous pouvez améliorer votre référencement par rapport aux mots-clés que vous avez choisis. Il vous suffit d’identifier les nouvelles pages et celles que vous souhaitez optimiser.
Ecrivez ensuite un titre et une méta-description spécifiques pour chacune de ces pages. L’idée est de les faire correspondre aux mots clés de la page. Essayez de suivre au maximum les conseils des spécialistes, notamment pour le nombre de caractère à utiliser. Les articles de Moz vous seront utiles pour les titres et les méta-descriptions (en anglais). Si votre site comprend de nombreuses pages, vous pouvez utiliser des formules d’automatisation sur Excel et vous éviter un travail fastidieux.
Google n’aime pas les pages contenant du contenu dupliqué. Pensez donc bien à indiquer dans la balise <head> les URLs canoniques de vos pages référentes afin que seules celles-ci soient indexées. Il est notamment recommandé de définir une URL canonique pour les différentes pages présentant les même produits selon divers critères de tris.
Cette phase de planification est par ailleurs le bon moment pour se poser la question du passage en https car ce sera bien plus complexe à faire après la refonte. 50% du web est déjà en https et c’est recommandé par Google pour un bon référencement.
Passez à la 2ème phase de votre migration :
Si votre site est considéré comme populaire par Google, c’est qu’il a des backlinks, des liens entrants sur d’autres sites. Or, après la migration, de nombreuses URLs vont changer. Ces backlinks vont donc mener à des erreurs 404, néfastes aussi bien pour l’expérience utilisateur que pour le référencement. Vous devrez donc mettre en place des redirections.
En parallèle, faites en sorte de connaitre les backlinks qui ont le plus de poids dans votre réputation, et demandez leur modification aux webmasters des sites émetteurs car un lien direct est toujours plus performant qu’une redirection 301.
Vous pouvez également avoir des backlinks qui nuisent à votre référencement s’ils émanent de pages externes qui n’ont rien de commun avec les vôtres. Par exemple, Google n’aime pas qu’une page de produits d’entretien pointe vers une page consacrée à la mode. Supprimez ces backlinks de mauvaise qualité.
Vient maintenant le temps de mettre en place les redirections 301 (permanentes). Faites une analyse de votre ancien site avant la migration pour savoir quelles URLs nécessitent une redirection. Notez les positions des pages et les URLs les plus importantes sur Google Search Console. Transmettez cette liste à votre développeur ou intégrez les redirections directement dans votre CMS. Vous pouvez vérifier que les redirections sont effectives grâce à redirectcheck.com
Lorsque vos redirections sont en place, scannez de nouveau votre site pour construire le fichier sitemap.xml. Faites bien attention à n’avoir aucun contenu dupliqué ou erreur 404. Certains CMS peuvent la générer automatiquement.
Une fois que les fichiers sitemap.xml et robots.txt sont de qualité, vous n’avez plus qu’à indiquer leur position à Google Search Console.
Après la mise en ligne du nouveau site, vous devez l’auditer et vérifier que tout fonctionne comme prévu.
Vérifiez bien toutes les infos, il serait dommage de remarquer une erreur pénalisante pour le trafic un mois après.
Pendant le premier mois, faites des « bilans de santé » hebdomadaires reprenant les principales informations (erreurs 404, problèmes sur les titres ou méta-descriptions, erreurs d’indexation, anomalies de référencement, contenu suspect, incohérence sur le trafic général). Cela vous permettra de valider que Google transfère la pertinence et l’autorité du site précédent, et qu’il remarque les améliorations que vous avez opérées.
La refonte d’un site est bien entendu censée améliorer ses performances. Sans une intervention maîtrisée en revanche, elle peut avoir des effets négatifs en termes de trafic et de référencement. Suivez nos conseils et préparez rigoureusement chaque phase en amont pour que l’impact SEO négatif de la migration soit limité. La refonte d’un site est généralement aussi une bonne occasion pour travailler le contenu, au cœur d’une stratégie SEO. Un bon travail vous permettra d’atteindre le ROI escompté et d’envisager sereinement les perspectives pour votre trafic.
Dans la frénésie actuelle du data-driven marketing, de nombreuses entreprises investissent dans une solution DMP (Data Management Platform). Cet outil permet de collecter et de standardiser toutes les données d’une entreprise en les associant à un individu, et de créer des segments pertinents pour l’activation média. La performance de ces outils nécessitant un grand volume de données, les sociétés e-commerce, de télécommunications et pure-players type BlaBlaCar paraissent donc naturellement avantagées sur ce terrain.
Les marques PGC (Produits de Grande Consommation) sont souvent citées comme étant celles qui disposent du moins de données consommateurs propriétaires (first party). Peu de monde va sur leurs sites web ou rejoint leurs programmes de fidélité, et leurs sites de vente de produits thématiques brandés ne sont pas toujours un succès. Par ailleurs, les informations de transaction qui ont de la valeur pour le ciblage des consommateurs sont précieusement gardées par les distributeurs. Ainsi, malgré peu de données d’enregistrement, de comportement sur site web ou de vente hors ligne, pourquoi de nombreuses grandes entreprises PGC investissent-elles dans ces outils coûteux de gestion des données first-party ?
Evidemment les sociétés PGC n’auront jamais les vastes quantités de données qu’un distributeur ou un e-commerçant peut avoir. Elles dépensent en revanche énormément en médias. Et un gros budget média entraîne proportionnellement une augmentation du volume de publicités mal ciblées. Mais les marques vont devoir s’adapter. En effet le développement des adblockers montre une volonté des consommateurs de voir des annonces mieux ciblées et moins intrusives. Deuxièmement la réduction des budgets marketing, imposée par les investisseurs de ces grands groupes impose de rationaliser chaque euro dépensé. Exit la règle de Wannamaker (« je sais que la moitié de ce que je dépense en publicité est perdu, mais je ne sais pas quelle moitié »), bonjour la DMP. La mesure et le contrôle de la fréquence globale que proposent cet outil permet par exemple de limiter les pertes et de redistribuer correctement le budget sur les cibles susceptibles de convertir. Cela nécessite un grand volume de données, que le distributeur de PGC a effectivement en abondance à travers les données médias.
Mais l’intérêt d’une gestion des données pour ces marques dépasse ce premier use case de capping dont on a déjà parlé ici. Voici quelques autres tactiques plébiscitées par les grands marketeurs PGC :
Les spécialistes du marketing s’éloignent progressivement du simple ciblage démographique. Le genre, l’âge et le revenu sont bien sûr toujours pertinents pour cibler la « femme, âgée de 25 à 54 ans, avec 2 enfants », mais les usages des ménages évoluent et cela ne suffit plus. Aujourd’hui, les hommes sont en effet tout autant susceptibles de faire des courses un jeudi soir que leur compagne. Les marketeurs ont vu cela et ont accordé plus de budget au ciblage comportemental, psychographique et contextuel. Est-ce cependant adapté aux PGC ?
Les marques PGC ont longtemps compris la valeur des achats passés (cartes de fidélisation et coupons), mais ils ont peiné à activer des audiences en fonction de ces données jusqu’à l’émergence des nouvelles technologies de data management. Maintenant, les marketeurs peuvent acheter les données des coupons/cartes de fidélité de certains magasins (via Datalogix ou Nieslen Catalina aux USA) et créer des segments à forte valeur ajoutée basés sur les achats. Si vous vendez des dentifrices, vous pouvez désormais varier votre message entre vos consommateurs et ceux de vos concurrents. Magique ? Non car ces segments sont petits et doivent être enrichis pour être exploitables. En outre, le temps de récupérer les données de vente des magasins, il est souvent trop tard pour optimiser un plan multimédia.
Cela dit, les spécialistes du marketing PGC constatent que les achats d’un consommateur révèlent beaucoup de la composition du ménage et de son affinité pour les autres produits d’une entreprise. Il ne semble pas évident qu’un panier contienne des couches et de la bière, jusqu’à ce que vous compreniez que maman a envoyé papa au magasin pour acheter des Pampers, et qu’il en a profité pour prendre un pack de Heineken. Ces idées façonnent les nouvelles stratégies de segmentation des audiences digitales, et ces tactiques sont de plus en plus automatisées grâce à l’utilisation de la modélisation algorithmique et du machine-learning. Plus efficace que le ciblage démographique, encore très utilisé, le ciblage par achat permet ainsi aux marques PGC d’augmenter leur portée (reach).
Les marketeurs PGC réfléchissent constamment à la croissance de la quantité de produits qu’ils vendent, mais le dilemme du ciblage revient souvent. Qui cibler en priorité entre les consommateurs fidèles et ceux qui achètent moins régulièrement ?
Le fait de tirer parti des données permet aux marques PGC de ne pas trancher. De plus en plus, les entreprises adoptent une approche orientée fréquence qui identifie la bonne quantité de messages pour nourrir les consommateurs fidèles (peut-être 2-3 messages par mois) et amener les acheteurs modérés à des niveaux plus élevés de considération (jusqu’à 20 messages par mois). En outre, en utilisant la technologie DMP pour segmenter ces acheteurs en fonction de leur appartenance à telle ou telle catégorie, les créations peuvent être adaptées au public. Les acheteurs réguliers reçoivent ainsi des messages qui renforcent leur amour de la marque (« partage l’amour » avec Coca-Cola) et les acheteurs occasionnels des messages qui vont tenter de les convaincre (« meilleur goût », « de l’énergie pour le sport », « moins de sucre »).
Les marketeurs PGC ont des outils évolués qui montrent précisément l’impact d’une campagne média sur les ventes, et les utilisent pour ajuster leurs investissements médias en temps réel. Avec le pouvoir des DMP pour la mesure cross-canal, les sociétés PGC sont finalement en mesure d’appliquer même de petites idées pour améliorer l’efficacité des campagnes en test and learn.
Que se passe-t-il si les données révèlent qu’un mélange de 50% de messages sur la marque et 50% de messages d’actions directes augmente les téléchargements de coupons de 200% ? En d’autres termes, au lieu de simplement afficher les annonces « Céréales délicieuses », vous y mêlez quelques publicités « Achetez des céréales maintenant chez Monoprix et économisez tant ! », et vous verrez peut-être un impact énorme sur votre performance display. Malheureusement, cet insight simple n’était pas vérifiable avant que les DMP mutualisent la data cross-canal et l’associe à un individu. Ces petites techniques permettent désormais d’augmenter facilement l’impact d’une campagne sur les ventes.
Autre exemple, on affiche des messages de marque sur desktop toute la semaine, mais on met en avant une publicité plus incitative sur mobile le vendredi soir quand c’est l’heure de faire les courses. Ce call-to-action cross-canal donne de réels résultats, et implique seulement de saisir l’attention d’un consommateur favorable à la marque sur un autre appareil pour créer un impact fort. Encore une fois, une tactique simple, mais impossible sans la puissance d’un DMP.
La DMP est ainsi un outil indispensable pour réconcilier l’ensemble des données d’un annonceur derrière un profil. Elle n’est en revanche pas suffisante car les taux de réconciliation des profils (matching) varient fortement. Pour les clients connus de l’annonceur via un CRM, la reconnaissance de leurs entités digitales plafonne à 5-10% car il y a peu d’interaction entre une marque et ses clients sur le web (hormis sur les réseaux sociaux dont on ne peut malheureusement retirer aucune data). Ce taux peut en revanche être amélioré en ajoutant une brique CRM Onboarding (digitalisation du CRM) à la DMP, qui s’appuie sur des partenaires d’audience pour réconcilier les profils du CRM/PRM avec leurs identifiants digitaux. Cela permet d’augmenter le reach car les clients d’une marque sont souvent connus auprès de ces grands carrefours d’audience comme Webedia ou leboncoin. Même s’il reste souvent inférieur à 50%, on arrive ainsi à multiplier le taux de digitalisation du CRM par 4.
Les use cases permis par une réconciliation importante des profils clients et prospects sont nombreux : exclusion des campagnes d’acquisition, CRM display pour l’upsell ou le retargeting, réactivation des clients dormants…
Les digital marketeurs de marques de produits de grande consommation ont finalement réussi à progresser en travaillant avec des quantités relativement limitées de données. Que pouvez-vous faire avec les vôtres ? Avez-vous déjà lancé un projet DMP pour votre marque ?
Source (en anglais) : https://chrisohara.wordpress.com/2016/02/14/cpg-goes-dmp/
En 2013, Twitter était la première plate-forme à proposer l’intégration de formulaires dans ses formats d’annonces publicitaires, avant que Facebook ne lui emboîte le pas en 2015. Mais alors que le premier a retiré cette fonctionnalité et a revu sa copie en termes de politique de confidentialité, le second l’a depuis enrichi, misant de plus en plus sur ses Lead Ads pour attirer les annonceurs.
Customary s’est récemment appuyé sur ce format pour asseoir une campagne de génération de leads pour le fournisseur de systèmes de fenêtres Schüco. Le succès de celle-ci est donc l’occasion de revenir sur les différentes étapes d’une campagne de publicités à formulaire réussie.
Adopter un mode A/B testing permet de prendre le pouls de l’ensemble des leviers publicitaires mis à disposition par Facebook dans le cadre d’une campagne de conversion. Et donc de déterminer lequel d’entre eux performe le mieux.
Pour Schüco, notre objectif était de générer des prospects auprès d’une cible grand public, désireuse de se lancer dans un projet de construction ou de rénovation, afin de stimuler le réseau de partenaires de la marque. Nous avons donc mis en place une campagne de conversion pointant vers une landing page dédiée, ainsi qu’une campagne de publicités à formulaire. Plus de détail sur le dispositif de conversion ici.
Afin de tirer le meilleur parti des Lead Ads, la campagne de génération de prospects doit elle-même faire l’objet d’un A/B testing approfondi.
Ainsi pour Schüco France, des publicités et des messages distincts ont été déclinés par type de contact (demande de documentation ou contact conseiller) et par type de projet (portes, baies vitrées, fenêtres, véranda). Une structure à laquelle doit s’ajouter un split plus classique par ciblage (centres d’intérêts, retargeting) et par format d’annonces publicitaires (post simple, carrousel, diaporama).
Au sein d’une campagne de génération de prospects, l’interface de création de publicités est identique à celle des autres campagnes, à l’exception du fait qu’elle dispose en bas de page d’un espace dédié à la création de formulaires. À noter que les créations de publicités et de formulaires sont indépendantes : chaque formulaire créé est sauvegardé et peut être intégré à d’autres publicités. Malheureusement, il est impossible aujourd’hui de supprimer ni même de modifier ces formulaires ; ce qui implique une méthode de nommage rigoureuse, par type de formulaire et par date par exemple.
Côté utilisateur, les publicités à formulaire apparaissent au sein du fil d’actualité de la même manière que les annonces classiques. Sauf que le bouton d’action entraîne l’ouverture du formulaire sous forme de pop-in, plutôt qu’une redirection vers un site web. Une démarche moins contraignante pour l’utilisateur, qui n’a pas à quitter l’environnement Facebook ; et pour l’annonceur, qui réduit son chemin de conversion. Cependant, il est essentiel de veiller à ce qu’une publicité à formulaire porte à elle seule le message publicitaire, puisque aucune landing page ou site n’est amené à prendre le relais pour en étayer l’argumentation.
Au clic sur le bouton d’action, le premier écran du formulaire apparaît sous forme de pop-in.
Lorsque vous créez un nouveau formulaire, vous devez tout d’abord construire un écran de bienvenue. Vous définissez une image d’en-tête (taille recommandée 1 200 x 628 pixels), une accroche, une description et le texte du bouton d’action permettant d’accéder à l’écran suivant.
À travers ce premier écran, les formulaires Schüco interpellent l’utilisateur en leur précisant à qui ils sont destinés (les détenteurs d’un projet) et ce qu’ils promettent (l’envoi d’un guide ou le fait d’être recontacté). À noter que l’interface dispose d’un aperçu dynamique, idéal pour juger de l’impact visuel de son formulaire.
L’écran de bienvenue : une étape clé du formulaire
Afin de sélectionner les champs à remplir, Facebook met à disposition une vingtaine de champs types. Qu’il s’agisse de coordonnées (nom, prénom, email, adresse, etc.), d’informations démographiques (situation de couple, taille du foyer, etc.) ou professionnelles (poste, nom de l’entreprise, etc.). À ces champs s’ajoute la possibilité d’intégrer des questions personnalisées, dont les réponses attendues peuvent prendre la forme d’un champ texte ou d’un choix multiple.
Selon les campagnes, les formulaires Schüco demandaient ainsi à l’utilisateur de préciser la nature de son projet (porte, baie, fenêtre ou véranda), le code postal de celui-ci (potentiellement différent du code postal de la résidence principale) ou encore ses disponibilités pour être recontacté.
Jusqu’à il y a peu de temps, les questions personnalisées étaient limitées au nombre de 3 ; sans doute une façon pour Facebook de maintenir un certain contrôle sur la nature des données qui transitent sur sa plate-forme. D’ailleurs, le bouton d’envoi de formulaire est précédé d’une mention liée à la politique d’utilisation des données de Facebook. Vous êtes contraint de préciser l’URL de la page qui précise la politique de confidentialité de votre marque.
Enfin, il est dommage que les formulaires ne permettent pas la sélection de plusieurs réponses au sein d’un choix multiple, ni l’envoi de fichier, ni même de pouvoir forcer la syntaxe des champs.
Une liste de champs basiques, auxquels peuvent s’ajouter des questions personnalisées.
Ce dernier écran est constitué d’un message type, non modifiable, de remerciement et de confirmation d’envoi de formulaire. Il vous suffit d’indiquer l’URL de votre site, permettant aux utilisateurs de se rendre sur celui-ci afin d’en savoir plus sur la marque. Cette étape n’est pas si anodine qu’elle n’y paraît : la landing page des campagnes Schüco a enregistré plusieurs conversions depuis cet écran de confirmation. On peut donc en déduire que certains utilisateurs Facebook qui ont demandé une documentation, étaient suffisamment intéressés par la marque pour se rendre sur le site, et pour demander dans la foulée à être également recontacté par un conseiller (double conversion).
Une fois les formulaires créés et les campagnes lancées, comment récupérer les leads acquis ? Il suffit de vous rendre dans la partie Outils de publication de votre page Facebook. En cliquant sur l’onglet Publicités à formulaire, vous pourrez télécharger un fichier CSV contenant la liste de vos prospects, depuis le début des campagnes ou sur une période donnée.
L’écran de remerciement : une porte d’entrée vers le site de la marque.
Une partie des formulaires Schüco reposait sur l’envoi d’une documentation. Or Facebook Lead Ads ne permet pas de configurer un email de confirmation avec pièce-jointe auprès des prospects acquis. Nous avons donc utilisé l’outil d’automatisation Zapier pour interfacer Facebook Lead Ads et Gmail. Ainsi, dès qu’un utilisateur a validé un formulaire Schüco depuis Facebook, il a reçu automatiquement un email contenant un lien vers la documentation attendue. Ces emails, dont le client était en copie, étaient envoyés à partir d’une adresse dédiée.
Les outils d’interfaçage tels que Zapier ou IFTTT disposent d’applications diverses à même de pallier le caractère limité des formulaires Facebook. Il peut ainsi être envisagé qu’un formulaire validé déclenche une notification Slack ou une tâche Trello, qu’une nouvelle ligne soit ajoutée à un tableur ou qu’un nouveau profil soit créé au sein d’un outil de CRM.
Un exemple d’interfaçage Facebook Lead ads/Gmail grâce à Zapier.
À l’instar d’autres agences ou de certains blogs, nos premières campagnes de publicités à formulaires se sont révélées peu performantes au regard des leviers de conversion traditionnels. Depuis, Facebook a revu sa copie en intégrant le format aux publicités à carrousel et en lui conférant une dimension plus visuelle. Les Facebook Lead Ads constituent désormais un vecteur fort de génération de prospects.
Pour les campagnes les plus modestes, c’est l’opportunité de passer outre la production d’une landing page dédiée. Pour les campagnes plus importantes comme Schüco, c’est l’opportunité de compléter un dispositif de conversion classique. Quelle que soit l’envergure de ces campagnes, c’est également l’opportunité de constituer une base de prospects, exploitable soit au sein d’une campagne de retargeting, soit au sein d’une campagne de conversion s’appuyant sur une « audience similaire » (look alike).
Enfin, c’est une opportunité aussi pour Facebook. Comme avec les Instant Articles, le réseau social s’appuie sur les Lead Ads pour maintenir l’utilisateur captif au sein de son environnement. En court-circuitant l’usage des moteurs de recherche et des sites de marque eux-même, Facebook assoit ainsi sa volonté de se positionner comme un moteur centralisateur de contenu.
Vous avez testé cette fonctionnalité ? Quelles performances avez-vous observées ? N’hésitez pas à commenter cet article ou à nous contacter : email / twitter / instagram
Positionnée très haut sur le marché de l’hôtellerie de luxe, la marque de notre client s’est dotée d’une signature claire, assortie de marqueurs qualitatifs précis : un art de recevoir à la française, décliné dans toutes les offres ; un accueil chaleureux, ouvert et emphatique ; l’exigence d’un service sur-mesure plus que parfait. Pour preuve, tous les hôtes sont accueillis par cette phrase sincère : « Bienvenue dans votre Maison ! ».
Une exigence de qualité qui pose clairement les enjeux de l’expérience de marque qui doit être offerte aux internautes.
De fait, lors de la conception des sites web de cette marque, l’agence customR à particulièrement soigné l’expérience immersive dans l’univers haut de gamme de chacun des joyaux de la prestigieuse collection. Multipliant ainsi les opportunités de retranscrire l’identité et le caractère propre de ses Maisons à taille humaine, uniques tant par leur situation exceptionnelle que par l’histoire dans laquelle elles s’inscrivent.
L’UX et l’UI des sites du groupe hôtelier de luxe font naturellement l’objet d’une attention soutenue et sont optimisées en continu. Notamment via de l’A/B testing, mais aussi grâce aux nombreux tags qui ont été implémentés sur les parcours pour tracker en détail les comportements des utilisateurs.
Comme il est aujourd’hui de mise sur ce secteur d’activité, les tunnels de réservation sont déportés sur les moteurs de partenaires spécialisés.
En 2018, 20% des utilisateurs ont amorcé une réservation : ce critère d’engagement permet à la marque d’identifier son segment « intentionniste ».
C’est donc avec l’interface des plateformes tiers que les clients potentiels interagissent, pendant de longues minutes, pour choisir leurs chambres, leurs options et, le cas échéant, pour finaliser leur réservation, jusqu’au paiement. Pour ces sessions avec réservation, 65% du temps de connexion est passé sur les moteurs des partenaires, où l’immersion dans l’univers de la marque est de moindre qualité que sur les sites des Maisons.
Afin de monitorer l’intégralité du parcours d’achat, jusqu’à la validation du paiement, l’agence customR a déployé des plans de taggage cross-domain incluant chaque site et son moteur de réservation. Grâce au data storytelling, l’analyse régulière des précieuses datas ainsi collectées permet de mesurer la qualité de l’expérience clients, depuis l’étape Awareness jusqu’à la transformation.
Les données des sites des différentes Maisons sont même consolidées à l’échelle du groupe pour obtenir une vision globale de l’expérience de marque.
Compte-tenu du panier moyen très élevé sur ce marché haut de gamme, le process de décision peut être assez long pour certains prospects. Parfois jusqu’à plusieurs semaines pour passer de l’intention à l’achat. Leur parcours se compose alors naturellement d’une multitude de sessions.
Au terme de leur process, 35% des intentionnistes reviennent directement sur les moteurs de réservation, sans passer par les sites des Maisons. Leur dernière immersion dans l’univers de la marque, avec les mises en situation d’usage, n’est donc plus qu’un souvenir plus ou moins vivace.
Pour ce segment prioritaire, le taux de transformation est 3 fois moins élevé que celui des utilisateurs qui ont démarré leur session sur les sites du groupe juste avant de s’engager dans le tunnel de réservation.
Garantir à tous les utilisateurs, et tout au long de leur parcours digital, une expérience cinq étoiles à la hauteur des principes d’exigence et de perfection qui ont forgé la marque.
A ces fins, c’est en toute logique que le groupe hôtelier a décidé de se doter d’un outil pour monitorer puis améliorer la qualité de l’expérience vécue par ses cibles prioritaires : customR InsightR, Data Storyteller.
L’agence customR s’est également vu confier une mission d’accompagnement spécifique, dans le cadre d’une approche agile impliquant la direction marketing du client, pour identifier au fil de l’eau les points de ruptures dans l’engagement des publics ciblés par la marque. Ces insights sont priorisés en fonction de leur valeur potentielle, puis activés en continu au cours d’itérations successives, tout au long de la saison. Chaque sprint intègre des phases de test (A/B testing) et une mesure en temps réel des gains de performances obtenus. Notamment grâce au plan de taggage déployé tout au long du parcours client.
Au terme de chaque itération c’est encore le Data Storyteller de customR InsightR qui révèle les améliorations apportées à l’expérience de marque. Ainsi que les nouveaux insights qui viendront enrichir la prochaine phase d’optimisation.
Un cercle vertueux pour satisfaire une exigence de service sur-mesure plus que parfait.
Simple et efficace !
A votre tour de goûter au luxe d’une solution de data storytelling efficiente : contactez l’agence customR !
Notre Data-team se fera un plaisir de vous offrir des insights 5 étoiles et une expérience de marque optimale.
« Bienvenue dans votre data story ! »
Question : comment déceler, dans vos propres datas, des insights utilisateurs susceptibles de vous aider à contrer l’hégémonie des OTA ?
Contexte : l’explosion du mobile et la multiplication des plateformes de réservation en ligne ont fondamentalement bouleversé l’industrie du tourisme. Mais ces nouveaux usages entraînent également chez les consommateurs une propension croissante à réserver à la dernière minute.
Rien que sur Google, en 2 ans, les recherches liées aux voyages pour « ce soir » et « aujourd’hui » ont augmenté de plus de 150% sur mobile. *
A elles seules, les agences de voyages en ligne (OTA : Booking.com, Hotels.com, Expedia…) trustent jusqu’à 70% des réservations en last minute, au détriment des réservations directes, réalisées sur les sites des hôteliers. Cette évolution profonde des comportement clients devient une menace durable pour la rentabilité des établissements hôteliers, qui se doivent de réagir.
Cette menace se confirme également pour l’un de nos clients historiques, hôtelier indépendant implanté en Baie de Somme. La part croissante des réservations en dernière minute était encore plus flagrante en 2018 : de juin à août, son domaine n’était totalement booké qu’à J-7, vs J-15 en 2017. D’autre part, en haute saison, cet hébergement de vacances éco-responsable impose à ses clients, majoritairement des familles, une durée de séjour minimum de 6 nuits.
Conséquences pour les cibles
La combinaison des deux facteurs évoqués ci-dessus complique notoirement la finalisation d’une réservation au tout dernier moment, car les disponibilités sur le Domaine de notre client se font rares. La concurrence n’est plus alors qu’à un clic.
Conséquences pour l’hôtelier
Soucieux de préserver un taux de réservation optimal, le manager de l’établissement accentue sa présence sur les centrales de réservation en ligne (les OTA), auxquelles il réserve une part de ses disponibilités, y-compris en haute saison. Les commissions prélevées par les centrales amputent la marge brute à hauteur de 15 à 20% du chiffre d’affaires réalisé, obérant très sensiblement la rentabilité globale du Domaine.
En parallèle du bilan d’activité réalisé par notre client, la Data-team de l’agence Customr procède chaque année à une analyse approfondie des données d’audience de son site. En 2018, la consolidation des parcours clients et des données de transactions (montants, produits…) a mis en évidence des tendances significatives, riches en enseignements sur le comportement de plusieurs segments cibles.
Voici trois insights utilisateurs simples, mais pertinents, révélés par les data stories:
1) Les clients avec le plus fort potentiel (longs séjours, prestations haut de gamme…) réservent majoritairement en début de saison : dès le mois de janvier et jusqu’en mars.
2) En basse saison, l’ordinateur reste le support la plus utilisée pour accéder au site et réserver ; mais la tendance s’inverse très nettement en cours d’année. L’audience sur mobile devient même ultra majoritaire à partir d’avril.
3) En haute saison, une part importante des visiteurs consultent, depuis leur mobile, uniquement les contenus présentant les activités proposées en dehors du Domaine de notre client. Ces nombreuses sessions engendrent un fort accroissement du taux de rebond et réduisent d’autant la part des consultations des données relatives à l’hébergement et aux activités internes au Domaine. Il s’agit de toute évidence d’une audience de proximité, des familles déjà hébergées en Baie de Somme, à la recherche d’occupations pour la journée.
Ces insights utilisateurs sont autant de leviers pour optimiser les campagnes d’acquisition de trafic et pour remonter la part des réservations directes, nettement plus rentables.
Directement inspirées des pépites révélées par customR InsightR, plusieurs actions ont été ajoutées à la roadmap 2019 de l’agence customR :
1) Les campagnes d’acquisition de trafic, habituellement activées début Mars, sont lancées dès le mois de Janvier, soutenues par de nouvelles offres de Early booking. De plus, une part significative des budgets engagés en Juillet et Août est, cette année, investie dès le premier trimestre, afin de capter davantage d’intentionnistes à fort potentiel.
2) Le ciblage des campagnes intègre dorénavant une critère « type d’appareils » afin de mieux contrôler l’audience qui voit nos annonces au fil de la saison : les mobiles sont majoritairement exclus en début de saison, au profit du desktop.
3) Pour accroître la notoriété du Domaine auprès des publics déjà hébergés en Baie de Somme – soit autant de clients potentiels pour la prochaine saison – de nouveaux templates d’affichage sont développés spécifiquement pour la version mobile du site. Ils sont appliqués aux contenus présentant les activités disponibles hors du Domaine, très consultés en haute saison, et l’interface maximise la visibilité des activités internes au Domaine.
Je vous donne rendez-vous cet été, sur ce site ou en Baie de Somme, pour partager les résultats de ces optimisations : vous êtes les bienvenues !
Mais en attendant, vous aussi vous devriez passer au data storytelling pour révéler vos insights utilisateurs. Car le plus précieux n’est pas la data, mais ce que vous allez en faire !
Contactez l’agence customR : notre Data-team se fera un plaisir de vous accompagner pour faire du bien à votre marge brute.
*Source : https://www.thinkwithgoogle.com/consumer-insights/consumer-immediate-need-mobile-experiences/
Instagram, le réseau star du marketing d’influence – où la présomption n’est jamais totalement innocente – teste depuis le 30 avril 2019 dans plusieurs pays pilotes le fait de « masquer » le nombre de likes auprès des followers.
Une récente étude de #paid portant sur 193 influenceurs nous donne l’occasion de faire le point. Si elle n’offre qu’un éclairage partiel sur l’évolution des principales métriques, différents indices dessinent néanmoins une tendance et préfigurent l’Instagram de demain.
Rappel des forces en présence
L’étude de #paid révèle que la disparition du nombre de likes a entraîné une baisse de l’engagement général – par les followers – pour chaque publication d’un influenceur. En effet, le like appelle le like et il était plus facile et plus anodin de liker un post « comme tout le monde ».
Et ce « comme tout le monde », c’est justement ce dont Instagram ne veut plus ! Ainsi, dans l’étude, les influenceurs déclarent moins subir la pression du résultat et aller vers plus de sincérité et d’authenticité dans leurs contenus. Instagram espère qu’avec moins de pression, les influenceurs porteront plus d’attention sur la qualité de leurs contenus et sur les relations avec leur communauté. Relations qui, auparavant, relevaient davantage du simple échange d’emojis que d’une véritable discussion.
En effet, le nombre de likes n’était plus forcément un bon révélateur de l’attachement d’une communauté à un influenceur. Son caractère exclusivement quantitatif se rapprochait finalement plus de la mesure d’audience que de l’influence. Or, lorsqu’une marque cherche prioritairement de l’audience, d’autres supports bien plus performants qu’Instagram sont à sa disposition, si on se base sur un rapport coût/puissance/mémorisation.
Avec ce nouveau test, IG semble vouloir poursuivre le mouvement entamé l’année dernière avec un nettoyage de plusieurs millions de faux comptes qui ne servaient qu’à produire du like et du follower de manière totalement artificielle.
On le sait, Facebook (propriétaire d’Instagram) cherche à mettre en avant les vidéos.
En donnant moins d’intérêt aux publications (en tout cas moins d’intérêt « perçu » associé au seul nombre de likes), Instagram cherche sans aucun doute à attirer l’attention sur le format vidéo. Les indicateurs de performances seront alors centrés sur la consommation de contenu comme les vues de vidéos.
Le nombre de vues est déjà l’indicateur de performances des stories, contenu plébiscité aujourd’hui. En incitant les influenceurs vers toujours plus de stories et toujours plus de vidéos, la consommation du support se rapprochera plus de TikTok, dont le succès a pris tout le monde de court. Le nouveau format « clip » sur lequel travaille Instagram depuis quelques mois pour les stories s’inspire également des codes TikTok.
Malgré les likes cachés, les influenceurs sont de plus en plus au cœur du réacteur de la production des contenus.
Grâce à la nouvelle fonctionnalité de promotion des publications d’influenceurs (brand content ads), les marques peuvent désormais utiliser le brand-content des influenceurs dans le cadre de leur propre promotion tout en maîtrisant reach et audience.
Une bonne façon pour Instagram de récupérer une part des conséquents budgets dépensés par les marques en marketing d’influence.
En synthèse, Instagram incite les influenceurs à faire leur job d’influence sociale et de créateur de contenus plus que de media, pour récupérer une bonne partie des budgets en paid.
Les forces s’en trouvent ainsi redistribuées
Le futur du web s’écrit certainement en deux mots : Headless-CMS !
Les CMS (ou SGC) ? WordPress, Joomla, Drupal, Magento ou Prestashop… Tout le monde les connaît et les utilise. Ils nous permettent de créer des sites web, plus ou moins simplement en centralisant la gestion du contenu et la conception graphique d’un site. WordPress à lui seul est utilisé par un tiers des sites internet existants aujourd’hui.
Mais sont-ils adaptés (publication uni-site, back office et front office sont confondus) ? Prenons l’exemple d’une marque possédant un site web et une application mobile. Chacune de ces plateformes nécessiterait un back office, par exemple un site WordPress, une application native iOS et une application native Android. Un rédacteur devrait donc se connecter au back office de chacune de ces technologies pour y gérer son contenu et l’adapter ? Devrait-on consacrer du temps à la création de ce back office ? Et tenter de recréer des choses qui existent déjà et qui le font bien ?
C’est ici qu’interviennent les Headless-CMS, une facilité et une rapidité de création du back office, aucun code en back office, une flexibilité totale en front office, une API accessible multi langage (PHP, JS, …), multi framework (React, Vue,…), une interface d’une extrême simplicité (pour Prismic, que nous avons utilisé), une facilité d’édition pour un rédacteur et une publication multi-plateforme.
Le terme Headless, traduit “sans tête” est un concept qui sépare la “tête” (la partie avant, c’est-à-dire le site Web) du “corps” (la partie arrière, c’est-à-dire le back office de contenu).
Pour résumer, un headless CMS permet à un administrateur de créer des objets de contenu ou des squelettes de page en back office, tout en permettant aux équipes marketing et communication de se concentrer sur le contenu, et seulement sur le contenu en se basant sur les templates créés ! (par exemple, une page peut être un enchaînement libre de titres, textes, citations, images ou vidéos)
Côté front office, les développeurs font appel aux contenus créés, via des API pour un affichage sur tout appareil, en fonction du device en développement (le contenu sera le même sur le site web que sur une application mobile ou une TV par exemple).
C’est le headless-CMS que nous avons choisi dernièrement à l’agence après l’avoir poussé dans tous ses retranchements et avoir été accompagnés directement par les équipes support. Pourquoi ? Car il répond à notre problématique de pouvoir proposer un back office simple et complet sans avoir à le développer, la qualité d’interface et le niveau d’assistance dans la mise en oeuvre de nos premiers tests (même les plus tordus !) nous a d’une part séduit, et d’autre part rassuré quant à la capacité d’évolution et de maintenabilité de produit.
Ce Headless CMS permet une gestion simple du back office et la création rapide de ce dernier, pas besoin d’avoir un profil technique pour créer des custom types (page de gabarit personnalisée ou objet, en fonction du projet et des besoins). Un chef de projet fonctionnel peut lui-même créer rapidement le Back-office dans le cadre d’une réunion de sprint design avec un client par exemple.
Ces custom types peuvent être paramétrés au clic et à la souris mais également directement en json grâce à la fenêtre d’édition (ici, il faudra maîtriser le format JSON). Pas besoin de développement back !
Simple et efficace non ? Un Headless-CMS complet, qui possède de nombreux avantages pour un rédacteur on ne se perd pas dans nombre incalculable d’onglets et de paramétrages, simplement la gestion du contenu et des médias, de nombreux avantages comme la gestion du multilingue, la customisation des images, la possibilité d’ajout de contenus SEO, la prévisualisation, l’A/B testing, ou encore la planification de publication… Et même un chat avec le support !
Grâce à ces Headless CMS, nous pouvons consacrer moins de temps (et moins d’argent) à la création du back office et ainsi nous consacrer pleinement à la création de l’interface de nos sites. Nous ne sommes plus contraints par des thèmes, des langages ou des CMS.
On concentre ainsi les ressources à travailler l’expérience client plutôt que la machinerie…
Ce qui optimisera l’expérience finale du produit.
Notons tout de même qu’il reste certains points de vigilance à l’utilisation d’headless CMS, notamment concernant le temps de réponse API et la dépendance au service et à la licence à laquelle on souscrit et à son tarif (si l’on choisit un Headless CMS closed source). Qui nous dit que les tarifs seront les mêmes dans 6 mois ? 1 an et plus ? La solution serait peut-être l’utilisation de Headless CMS open source comme WordPress, qui propose l’accès en API à ses contenus en back office…
Autre point de vigilance, lorsque l’on utilise un CMS classique tel que WordPress, nous pouvons utiliser des Plug-ins (ou modules) afin de gérer les redirections, les formulaires etc… , ici, il faudra passer par du développement spécifique, ou l’utilisation de services complémentaires, par exemple Mailjet et son API pour les mails transactionnels.
Aujourd’hui, il existe un grand nombre de Headless CMS (Prismic, Contentful, Dato CMS,…) qui se ressemblent tous ou presque, et alors que l’on commence seulement à vraiment en parler, lequel saura tirer son épingle du jeu et devenir un véritable leader du web ? Qui sera le nouveau WordPress, se succèdera-t-il à lui même ? Le nouveau Prestashop ? (Et oui,on peut faire du e commerce en utilisant Prismic !) Il y a fort à parier que celui qui offrira l’interface la plus user friendly,et les meilleures références sera celui qui remportera la mise. Les pionniers ne seront peut être pas les premiers …
Nous avons déjà parlé de l’émergence de la blockchain sur ce blog, et de ses applications pour l’économie réelle avec l’exemple de LaZooz. Très utilisée dans le monde financier, cette récente technologie est porteuse de promesses pour de nombreuses industries liées à l’information. Regardons de plus près les possibilités offertes aux secteurs des médias et du divertissement.
Une blockchain est une structure de données sous forme d’un livret numérique qui est partagé et distribué à un réseau d’ordinateurs (nœuds). On peut voir ça comme un tableur partagé type Google sheet, sauf qu’au lieu d’être hébergé chez Google, une copie actualisée est détenue par chaque utilisateur.
En utilisant des techniques de cryptographie, chaque utilisateur peut accéder et manipuler la chaîne de blocs d’informations (blockchain) de façon sécurisée, sans autorité centrale ou quelconque intermédiaire. Ce qui lui confère de nombreux avantages :
Fiable et disponible : Du fait du grand nombre d’utilisateurs, le système n’a pas un seul point de rupture et est conçu pour résister aux attaques. Si un noeud d’utilisateurs rompt, les autres continueront de maintenir l’information disponible.
Transparente : L’ensemble de l’information est visible afin d’augmenter la confiance.
Inviolable : Il est quasiment impossible de pirater la blockchain sans être détecté. Il faudrait pour cela corrompre plus de 50% des nœuds (un exploit technologique de plus en plus improbable).
Irrévocable : Ce qui est inscrit ne peut pas être effacé, garantissant la mémoire des informations.
Numérique : Presque tout document ou actif peut être exprimé en code et encapsulé ou référencé dans une entrée de la blockchain. Ce qui signifie que cette technologie a de très larges applications, bien que peu soient mises en oeuvre, et la plupart insoupçonnées,
Explication d’une transaction blockchain par BlockchainPartner
En conséquence, on peut imaginer que l’innovation blockchain soit un moteur de transformation des organisations et des business models dans presque tous les secteurs d’activités.
L’arrivée d’internet a déjà chamboulé le monde des médias en diminuant le coût technique de l’édition du contenu à presque zéro. L’objectif est maintenant d’avoir la plus grande audience pour capter les données des visiteurs et les revendre en promettant l’attention de cette audience de différentes façons (CPM, CPC, affiliation, sponsoring, …).
Chacun rivalise donc d’ingéniosité pour capter la donnée utilisateur, proposant des informations et des services “gratuits” pour attirer les foules : Google avec Docs ou AMP, BFM avec l’info en continu, Spotify avec le streaming musical, mais aussi Linkedin, Allociné, Buzzfeed, Legorafi…
Dans l’ère d’information d’aujourd’hui, les business models des groupes média (et même de la plupart des entreprises) se réduisent globalement à un processus en trois étapes :
Google et Facebook augmentent ainsi leur emprise en captant des données utilisateurs, monopolisant et restreignant son accès, puis vendent ces données sous forme d’un service de publicité ciblée.
Le jeu est d’attirer une audience qualifiée, peu importe le contenu qui l’attire. Et revendre cette donnée : si c’est gratuit, vous êtes le produit.
Le business model actuel montre ses limites. En se développant, les nouveaux médias qui promettent aux annonceurs l’attention des utilisateurs, génèrent une prolifération exponentielle de la quantité d’information à laquelle un internaute est exposé. Or notre attention est limitée par nos capacités biologiques. Capter notre attention et la convertir en capital (en nous faisant cliquer sur des pubs) devient donc exponentiellement plus difficile.
Pour sortir du lot, les éditeurs et sites d’info sortent encore plus de titres sensationnels (clickbait) et de publicités intrusives. Comme les utilisateurs utilisent en retour de plus en plus les adblockers (11% en France), ils reviennent avec des publicités natives.
Illustration de la concurrence pour l’attention des internautes (source)
Par design, la blockchain réduit le besoin d’un intermédiaire entre deux parties puisque tout est automatisé. Les plateformes de distribution se transforment en protocoles et dapps (decentralized apps) gérés par des smart contracts. Ces contrats régissent l’interaction entre le producteur de la valeur et son consommateur. Une telle structure automatisée n’a pas besoin de générer du profit, uniquement de couvrir ses coûts de fonctionnement.
Ainsi, lorsqu’un utilisateur achète une chanson sur une dapp, le détenteur des droits se voit verser la quasi-totalité de la somme moins un coût de fonctionnement minime – le coût de l’électricité pour faire tourner la transaction – et évite la commission de 30% de la plateforme iTunes. Le contrat intelligent peut également facturer un coût réduit pour une écoute unique à la demande (streaming).
Par ailleurs, les techniques de cryptographie utilisées par la blockchain permettent de certifier l’authenticité d’une donnée. On peut ainsi vérifier l’unicité d’une transaction, mais aussi d’une identité ou d’un contenu. Dans l’idée, une donnée numérique ne peut être utilisée sans que son détenteur le sache. Cela permet donc d’empêcher une oeuvre numérique d’être copiée, et d’empêcher des plateformes comme Facebook d’utiliser nos identités et nos contenus comme bon leur semble.
Imaginez un protocole de streaming de vidéo, où chaque producteur possède son contenu et est rémunéré automatiquement en fonction de son utilisation. A mesure que la quantité de vidéos augmente, des agrégateurs de contenus verront le jour, facilitant le choix des contenus pour les consommateurs et simplifiant l’usage. Pour mettre en relation producteurs et consommateurs, ces acteurs pourront demander un abonnement aux producteurs, mais pas de “taxer” le contenu si le protocole ne le permet pas. Il y a donc toujours création de valeur, mais cette valeur est distribuée entre tous les acteurs et non plus concentrée sur la plateforme d’intermédiation.
Le développement de la blockchain Ethereum, qui prend en compte le concept de smart contracts et l’échange d’actifs numériques, les tokens, a permis aux développeurs de lancer plusieurs projets.
Il existe ainsi un protocole de place de marché permettant les micro-paiements, trop taxés actuellement pour être rentables en-dessous de 1€. Pour les media, ces micro-paiements permettent de développer des services de contenus-à-la-demande, pour lire un article, écouter une chanson, ou visionner une courte vidéo. Des services d’abonnement existent actuellement (Lemonde.fr, Spotify …), mais si je veux juste lire un seul article premium, le prix de 1€ parait cher.
Plusieurs médias existent déjà sur la blockchain, permettant aux créateurs une transparence sur la consommation de leur contenus et leurs royalties.
La plateforme musicale Ujo Music, sorte d’iTunes Store version blockchain, permet aux artistes de posséder et contrôler leurs créations et d’être payé directement en partageant leurs talents musicaux.
Dans le même genre, on peut citer Monegraph pour les oeuvres d’art ou encore Ascribe. Le concept Rarepepe va même plus loin en créant une structure de troc d’actif digitaux authentiques, sous la forme incongrue de cartes-meme à échanger.
Le site de blogging Steemit, à l’image de Reddit, fait ressortir les contenus de qualité en rémunérant les rédacteurs à hauteur de 75%, et les curateurs qui votent pour la pertinence des articles à hauteur de 25%. Il introduit pour cela 2 tokens :
Grâce à ce système, Steemit veut augmenter rapidement le nombre d’utilisateurs et donc la valeur de ses Steem dollars.
Un autre acteur sur ce créneau d’édition est Decent.
La valeur créée par les utilisateurs des réseaux sociaux actuels est contrôlée par le réseau lui-même.
Synereo veut la laisser aux mains des membres de son réseau décentralisé et distribué, en récompensant leur activité sociale. Le fonctionnement de ce concept n’est pas encore clair, mais on peut imaginer que le like de Facebook devienne un token, un actif numérique afin de récompenser le contenu qui crée de la valeur pour le réseau.
Avec son système de ranking et d’influence, Userfeeds veut décentraliser Twitter ou Reddit, mais également les systèmes de vote actuels. Dès lors, on peut imaginer que la valeur d’influence, la valeur media, se monnaye directement grâce à ces réseaux.
Il est souvent reproché à Google de connaître toutes nos données. Le fondateur de JavaScript, Mozilla et Firefox veut ainsi rendre aux internautes leur anonymat envers les éditeurs et annonceurs, tout en imaginant un système de publicité en ligne distribué.
Avec le Basic Attention Token (BAT), il récompense les internautes et les éditeurs en leur donnant des BATs en fonction de l’attention des internautes envers les publicités sur le site de l’éditeur. Les annonceurs peuvent toujours cibler leurs audiences, mais ils ne sont plus obligés de faire confiance aux éditeurs quant aux données de consultation de leurs publicités (clics, vues), puisqu’elles sont inscrites dans la blockchain. L’anonymat est assuré par l’utilisation d’un navigateur développé par la même équipe, Brave.
Explication du fonctionnement du Basic Attention Token
Dans le même registre, adChain a lancé adToken pour plus de transparence dans la chaîne de valeur de la publicité en ligne. L’objectif de ce token encore en beta est de fournir une “vue globale de toute la data associée à une impression pub” et de savoir qui a accès à quelle donnée. Derrière cette promesse, adToken veut lutter contre la fraude sur les comptage des CPM en affichage programmatique.
Le monde des médias promet d’être bousculé de nouveau dans les prochaines années. Ces projets restent cependant encore très confidentiels et restreints à une communauté de développeurs initiés.
Même si les promesses sont fortes, le réel changement viendra de l’adoption de la technologie par le grand public, ce qui pourrait ne jamais arriver à l’image de Linux, très prometteur dans les années 90. Comme indiqué par Alex Ruppert, investisseur dans le domaine, “Peu importe si le service est construit sur la technologie blockchain, ce qui compte pour les gens c’est l’utilité et le prix”. L’enjeu est donc pour les porteurs de projets blockchain de construire des offres grand public avec un bénéfice fort pour l’individu.
L’adoption n’est pas encore là, mais autant s’y préparer pour ne pas se retrouver dépassé.
Depuis quelques années déjà on observe partout sur les territoires des initiatives locales et collectives utilisant une stratégie de marque commune et partagée.
L’objectif : mutualiser et coordonner des actions pour bénéficier d’une vraie force en communication. C’est ce qu’on appelle communément le marketing territorial.
Source : http://www.marketing-territorial.org/2019/01/carte-des-marques-territoriales-en-france-metropolitaine-mise-a-jour-de-janvier-2019.html
Ainsi aujourd’hui, les territoires sont bel et bien devenus des marques. Comme toute marque, elle doit alors trouver son identité et terrain d’expression tout en composant avec des éléments parfois très disparates et des enjeux politiques et économiques parfois contraires.
Là où l’identité de la marque est la pierre angulaire d’une stratégie cohérente, l’écosystème digital en est aujourd’hui son premier terrain d’expression.
Multiplication des outils, saturations des feeds, fragmentation des audiences, connectivité permanente : comment ne pas se disperser ?
Aujourd’hui dans l’ultra-choix digital le contenu est roi : s’il est singulier et original alors il sera attribuable à la marque territoriale.
La présence digitale d’une marque territoriale doit représenter ses valeurs et ses aspérités. Chez CustomR nous avons l’habitude de composer des écosystèmes digitaux différenciants, fédérateurs et exclusifs.
Chaque territoire a ainsi ses propres facteurs d’attractivité qu’il s’agit de révéler aux cibles de conquêtes.
Réseaux sociaux, sites internet, et bien sûr data, représentent aujourd’hui des outils efficaces, pertinents, porteurs de sens et de valeurs. Mais cela, seulement s’ils sont eux-mêmes fédérés par l’identité de la marque territoriale.
Outre les outils, l’écosystème digital doit également se construire en prenant en compte les hommes et les femmes qui permettront à celui-ci de se développer et d’évoluer.
Pour un écosystème digital efficace et pérenne, il est donc nécessaire de prendre en considération :
– les cibles
– les thématiques territoriales
– les valeurs et piliers de la marque
– les outils digitaux
– les moyens humains
Pour nourrir l’écosystème et donc l’attractivité d’un territoire, il est également essentiel d’embrasser une véritable stratégie de contenus, ce qu’on nomme le brand content.
Il va permettre l’optimisation des contenus destinés à une cible, utile pour la marque avec une focalisation forte sur l’identité de la marque et l’ensemble de ses signes expressions (graphique et sémantique).
La stratégie de contenus va permettre de capter l’attention et développer l’intérêt de vos cibles.
Pour mettre en place ce type de stratégie, CustomR a développé sa propre méthodologie fondée sur la matrice d’engagement ACT qui permet alors d’avoir une vue d’ensemble sur :
– les contenus à produire (sur quelles thématiques) ;
– les contenus à déployer (sur quels canaux de diffusion) ;
– pour quelles cibles ;
– à quel moment dans le parcours client ;
– pour quel KPI ?
Cas CRT Picardie : Un écosystème basé sur une démarche de preuve pour nourrir un territoire en déficit de notoriété et de contenus.
En 2008, CustomR est amené à collaborer sur la définition de l’écosystème du territoire picard. Cela pour permettre à la marque “Esprit de Picardie” de s’exprimer.
Territoire très peu connu pour le tourisme, l’agence propose une stratégie basée sur la proposition d’offres, d’expériences courts séjours, exclusives au territoire avant même de communiquer sur la destination.
Cas Tourisme Bretagne : Construire un écosystème digital avec une approche affinitaire au territoire breton.
Contrairement à la Picardie, la notoriété de la Bretagne dans le tourisme n’est pas à prouver.
Arrivé à ce niveau de notoriété, il devient compliqué de progresser sans investir des budgets hors de notre portée.
CustomR a donc préconisé une démarche affinitaire qui consiste à, pour thématique donnée, agréger le meilleur de la Bretagne pour la propulser vers les utilisateurs sensibles à cette thématique.
L’idée étant donc de s’appuyer sur les outils digitaux (site internet et réseaux sociaux) pour s’adresser à des cibles en recherche d’un contenu très précis. Par exemple, pour les amateurs de golf, les amateurs de Thalasso, etc.
Chaque thématique était ainsi traitée via un site dédié et médiatisée sur les réseaux sociaux. Chaque capsule a été également développée en fonction des ressources internes avec un responsable éditorial dédié.
Last but not least la Bretagne a même créé une communauté d’ambassadeurs sur sa propre thématique : la Bretagne !
Cas Alpes Is Here : faire exister une nouvelle marque dans la complexité d’un écosystème digital existant (supports, outils, contenus, communautés, services, ressources humaines, portes paroles,…)
Afin d’accompagner au mieux Alpes Is Here, CustomR a travaillé autour de 3 temps forts :
– l’audit,
– le temps de co-création avec Alpes Is Here,
– la recommandation stratégique.
Grâce aux différentes expertises (SEO, Datas, Social Media) au sein de CustomR, un audit approfondi a été mené sur la base suivante :
Celui-ci avait donc pour objectif de faire un état des lieux de la présence de la marque sur ses supports d’expressions. Nous avons également cherché à comprendre, grâce à une analyse poussée de la data, comment les différentes cibles interagissent avec la marque pour identifier les thématiques de branding propre à l’Isère.
L’écosystème digital de la marque Alpes Is Here prendra racine autour de 2 piliers :
– les réseaux sociaux
– les réseaux de partenaires (touristique, économique, culturel)
Ces piliers constitueront ainsi la colonne vertébrale de cet écosystème l’un nourrissant l’autre.
Ainsi chaque cible prioritaire sera touchée par un dispositif unique et exclusif à la marque Alpes Is Here.
Retrouvez dès à présent ce premier dispositif, centrée sur les expériences touristiques : https://evasion.ishere.fr/. Il sera complété par de nouvelles expériences, très prochainement !