Alors, c’était comment le eMetrics Paris 2011 ?

Badge eMetrics Paris Le eMetrics Paris millésime 2011 s’est tenu les 6 et 7 juin derniers. Événement rassemblant directeurs marketing, analystes et autres experts à travers le monde (New York, Londres, Sydney…), il était organisé pour une première édition l’année dernière à Paris.

C’était la première fois que je pouvais y assister, grâce au concours de Haiku et son unique billet à gagner.

Je ne tenais plus d’impatience à l’approche de ce saint Graal du Marketing Optimization Summit : le programme du eMetrics Paris 2011 s’annonçait très intéressant.

Deux jours de conférences non stop, un bilan …

Mitigé … très peu de participants (les intervenants étaient plus nombreux !) et une salle quasi vide…

Mais pourquoi ?

  • Le tarif du ticket d’entrée qui ne s’inscrit pas dans notre culture française ?
  • Un plan de communication tardif ?
  • Une inadéquation avec la cible visée ?
  • Le contenu de certaines conférences ? (je m’attendais à du très haut niveau et … je suis parfois restée sur ma faim.)

Des bons points à souligner toutefois :

  • Cet événement rassemble des gens du domaine, c’est l’occasion de revoir ou de rencontrer des comptes Twitter « in the real life » : @JulienCoquet, @bashkawalik, @RDeloumeaux, @SergeDescombes, @eMAIAmarketing … et de croiser pendant les pauses et déj’ communs les intervenants et participants du SMX, tels que @Mar1e (rédactrice émérite de Pink SEO) et @5eg, et ça fait plaisir. Que du beau monde entraperçu !
  • La présence de Jim Sterne, grand manitou et initiateur premier de toute la gamme eMetrics, avec sa keynote d’intro et sa conclusion à la fin de l’événement.
  • Et des conférences qui ont retenu mon attention.

Faut-il parler aussi des petits fours ma foi forts bons !? 😉

Envie d’en savoir plus sur les conférences ? C’est parti pour quelques unes d’entre elles !

Keynote d’intro de Jim Sterne : l’humain et le storytelling à l’honneur

Facteurs clé de succès du web analyste selon Jim SterneJim Sterne s’est d’abord attaché à décrire l’évolution du web analyste et de la discipline à travers les années en 4 temps :

  • le temps de la découverte,
  • le focus sur la technologie,
  • la prise en compte de la dimension business,
  • la construction d’une communauté.

Il décrit le web analyste comme un individu qui creuse les détails et cherche à les assembler : « We love puzzles »

Une image qui m’a marqué : quand nous, web analystes, disons « pages vues« , « visites« , « rebond« , etc, etc, notre interlocuteur entend « blah blah blah... ».
D’où l’introduction à la notion de storytelling : le web analyste doit savoir raconter une histoire et l’adapter à son interlocuteur.

Après cette keynote, les conférences.

Business Analytics : l’intégration du Web Analytics et de la Business Intelligence

Je suis actuellement très intéressée par cette thématique, ne m’en voulez-pas si j’en dis plus sur cette conférence par rapport aux autres !

Une conférence en deux temps avec introduction à la Business Intelligence par Philippe Nieuwbourg (Decideo.fr), animateur du eMetrics.
La Business Intelligence existe depuis les années 60 et concerne historiquement le domaine de la finance et du contrôle de gestion.

Chiffres clés d’une étude récente sur la BI :

  • Domaine d’applications: émergence du Web Analytics en dernière position.
  • Si la question s’oriente sur les applications clés : le Web Analytics n’apparaît pas.
  • Fréquence de mise à jour des données : majoritairement quotidienne.
  • Bases de données : poids lourd Oracle mais pour la première fois, une BDD open source apparait en troisième position.

Il y a une concentration forte des acteurs du marché, les petits acteurs constituant des appels d’air. A noter que le marché de la BI est en croissance constante et stable.

Les innovations et tendances de la BI ?
In-Memory Database (pour améliorer les temps de réponses), DataViz prédictif, prendre les bonnes décisions pour demain (ne plus analyser ce qui s’est passé « hier » ).

Les utilisateurs sont en attente de simplicité.
Outils plus simples, plus visuels, cités :

Promesses Web Analytics et Business IntelligenceEnchainement assuré par Julien Coquet (Hub’Sales) qui pose le constat des deux silos que représentent le Web Analytics et la Business Intelligence. L’enjeu consiste à trouver quelles sont les clés communes entre ces deux mondes.

L’accent est mis sur le peu de souplesse de la BI au niveau des visualisations : dans ce contexte, Excel reste le grand gagnant difficile à battre.

Le Web Analytics a une image plus fun et pourtant, les choses deviennent plus sérieuses.
On s’oriente vers du Business Analytics : un écosystème Business Intelligence et Web Analytics qui s’appuie sur des questions de processus (raccorder telle donnée avec tel « tuyau »), de maturité, et d’organisation.

4 étapes de mise en place :

  • Définir les KPIs.
  • Élaborer une stratégie de collecte de données (trouver les clés communes).
  • Lancer la collecte et intégration.
  • Datamining, analyses et enseignements.

La finalité ? Un Dashboard intégrant de multiples sources (analytics, attitudinal ….). Sont cités Anametrix et Corda.

Les promesses annoncées du Business Analytics : fun, maturité et souplesse !

Comment mesurer et optimiser une campagne multi-canal ?

Cette conférence est assurée par Hugo Loriot (Fifty-Five) et Pierre Trémolieres (delamaison.fr).

Le panorama du multi-canal : une offre étoffée avec des frontières poreuses.
Le chemin média emprunté est complexe, l’objectif est de pouvoir identifier quel est le meilleur mix.

Il existe 3 modèles d’attribution aujourd’hui, il y a des gagnants et des perdants pour chacun d’entre eux :

  • Tracking séparé et duplication de l’attribution (cookie à 30 jours)
  • Tracking centralisé et dédupliqué (définition d’une règle en amont, souvent au dernier clic. Cette règle du last-clic peut faire prendre de mauvaises décisions.)
  • Attribution multi-canal (tracking onsite unifié)

Exemples de questions à se poser pour choisir une solution d’attribution :

  • Seo et visites sont-ils analysés ?
  • Signaux d’engagement sont-ils pris en compte ?
  • Ai-je accès aux données brutes ?

Du côté du retour d’expérience Delamaison.fr est souligné qu’avant tout, il y a des tests … et des erreurs. Il faut savoir faire face a la réalité de la performance.
Un point de vigilance : attention à la moyenne.
Un exemple donné, lié à la saisonnalité des produits proposés avec un modèle last-clic :  un canapé a un cycle de vente à 9 jours et le linge à 2 jours. Ces cycles de vente différents peuvent fausser l’analyse last-clic.

Comment éviter les freins à la conversion ?

Les 3 P de la conversion

Conférence intéressante car illustrée de nombreux exemples concrets. Thomas Tonder (Altima) nous évoque les 3 P de la conversion :

  • Persuasion : le plus » facile ».
  • Parcours :  concerne la navigation, plus impactant.
  • Performance : plus compliqué car amène à toucher à la couche techno du site.

Mais dans « lavraievie.com », les envies se heurtent à la disponibilité des uns et des autres, l’organisation, la validation du HiPPo, le mode projet…

Que faire sur son propre site ?
On peut jouer sur quatre éléments simples dans une démarche de testing :

  • Contenu.
  • Mise en forme.
  • Paramètres.
  • Le « vide » :  j’affiche ou pas un élément de la page, ce qui peut tout de même amener un nombre important de combinaisons différentes !

Il n’y a pas de durée idéale pour conduire un test et il n’est pas pertinent de se baser uniquement sur le volume de trafic. Exemple : un même volume peut être atteint  en quatre semaines ou en une demi-journée selon un site donné.
La préconisation est de conduire un test à minima pendant deux semaines et de s’adapter au contexte.

Je vous invite à consulter la présentation qui a servi de support à cette conférence : Les secrets d’un taux de conversion de champion. Elle comporte de nombreux exemples concrets de tests A/B ou MVT.

Le mobile, sites, applications et impact, comment le mesurer ?

Des chiffres récents sur le mobile :

  • Forte croissance d’Android en Europe qui représente 31 % du marché, suivi de près par Symbian.
  • 24% des utilisateurs de mobile ont un accès Internet : il reste un fort potentiel de croissance.

Retour d’expérience de Bouygues Telecom représenté par son responsable web analytics Adrien Martin Laval :

  • Timing depuis 2002 : sites mobile, puis sites web, puis Applications.
  • Stratégie : focus sur le user mobile multi-canal et cross-canal.
  • Les KPIs s’appuient sur le suivi de trafic, la performance du contenu, le comportement et l’expérience du client.
  • La mesure s’appuie sur des processus : marquage, documents de référence, amélioration continue du marquage.
  • Acquisition mobile : à taux de conversion égal, Adwords jusqu’à 10 fois moins coûteux que sur le canal web traditionnel.
  • La stratégie mobile s’adapte selon la réaction aux campagnes.

La tendance est à priori d’avoir les mêmes KPIs pour le mobile et le web. Avec quelques spécificités pour le mobile toutefois, par exemple, » taux de crash » d’une application et indicateurs relatifs à l’ergonomie (taille écrans, visualisation horizontale ou verticale …).

Christophe Léon de Pure Agency conseille la roadmap suivante : App IPhone, App Android, Site mobile, puis déclinaison des Apps pour le reste des OS (Windows, Nokia, Bada …).
Le succès d’une App est relatif à sa valeur.

A retenir, la mesure d’une application mobile reste compliquée…

Réactivité marketing et Tags Containers : du mythe à la réalité

Analyser plutôt qu'implémenterConférence sur les Tags Management Systems. Kezaco ?

François Langrand (Tag Commander) nous donne les clés suivantes :

  • Constat : certains sites comportent plus de 200 tags différents.
  • Problématiques : délai de mise en place des tags, charge de travail trop lourde, coûts cachés
  • Manque d’agilité et qualité de la donnée (qui n’a pas vécu l’épisode du « tag qui saute » ?)
  • Tensions entre l’IT et le Marketing …
  • Pratiques actuelles : automatisation de l’insertion des tags dans le CMS, Piggy Backing.

Les solutions de tags management (on parle aussi de tags containers ou tags universels) offrent de l’autonomie, une implémentation des tags plus rapide, une optimisation des ressources et budgets.

De fait, la gestion des tags, quels qu’ils soient (analytics, affiliation…) se retrouve déportée dans une interface centralisée :

  • Modèles de solutions drag and drop
  • Règles de gestion d’affichage des tags selon des sources ou des variables.

De quoi laisser rêveur, j’ai accroché sur la phrase « Et si vous passiez plus de temps à analyser qu’à implémenter ? »

Conférences : quelques morceaux choisis
« Je veux du testing… Et j’utilise mon outil web analytics une fois par trimestre… »
4 secondes de temps de chargement de page = -25% de taux de transfo
« La web analyse ne doit pas manquer d’analyse »
Mobile : « Pas de salut sans PUSH »
« 95% de reach dans le retargeting (Criteo), taux de clic moyen global 0,7% »
« simplicité », « simplicité » … Simplicité (répété dans plusieurs conférences)

Conclusion avec Jim Sterne

La conclusion s’est transformée en table ronde avec comme mot d’ordre « Qu’avez-vous retenu de ces deux derniers jours ? »

Il en est ressort de mémoire les points suivants :

  • les tags management system /tag container,
  • le rôle du web analyste, quel est son métier, la nature de ses missions (le rôle n’est pas isopérimètre d’une entreprise à l’autre),
  • l’intégration des web analytics et de la business intelligence, le format de visualisation des datas,
  • l’attribution multitouch qui suscite bien des interrogations.

Et moi ?

Je m’interroge, en tant qu’organisateur, renouvellerais-je l’événement l’année prochaine ? D’un point de vue organisation et logistique investis, j’ai bien peur que le taux de conversion ne soit pas au rendez-vous …

Avec le recul de la semaine passée depuis l’événement,  je préfère capitaliser sur la rencontre, l’échange, l’interaction qui eux ont été nombreux :).

PS : Et si vous êtes curieux à propos des conférences tenues pendant le SMX, vous pouvez retrouver ici tous les résumés.

(15 commentaires)

  1. Merci pour ce compte rendu Carole, c’est comme si on y était 🙂 !

    Je regrette de ne pas avoir été présent. Tout ce beau monde ça donne envie ! Peut-être l’année prochaine 🙂 ?
    Toutes les conférences avaient l’air plus intéressantes les unes que les autres. De par mon quotidien, 2 sujets attirent particulièrement mon attention :

    1/ Les modèles d’attributions Multitouch : depuis que je mesure la rémanence sous AT Internet, je réalise combien on peut être dans le faux si on ne prend en compte que le dernier clic (comportement par défaut de Google Analytics). Heureusement à ce sujet des alternatives commencent à apparaître comme http://www.mazeberry.com .

    2/ Les tags conteneurs : Avant de travailler dans la distribution spécialisée, j’étais habitué aux « petits » sites e-commerce. Pour mettre à jour un tag, je n’avais qu’à aller dans la pièce à côté, faire ma demande aux développeurs et c’était intégré dans la journée. J’étais loin d’imaginer que dans les grandes structures le processus de développement pouvait être si complexe. J’ai eu l’occasion d’essayer Tag Commander et ça nous fait vraiment gagner un temps précieux !

    Sinon oui, j’aurais imaginé qu’il y aurait eu plus de monde. Peut-être par ce qu’en France on a déjà la chance d’avoir le Web Analytics Camp 🙂 ?

    1. Je ne sais pas si c’est comme si on y était, j’ai fait l’impasse sur pas mal de choses face à l’ampleur de la tâche 😉
      Et tout n’était pas à niveau d’intérêt égal pour ce qui concerne les conférences (enfin, je n’engage que moi et mon ressenti…)

      Merci encore une fois pour ton partage d’expérience.

      Ah la rémanence …. De mon côté, la plupart des sites ont un fichier xtcore commun, par conséquent, point de calcul de rémanence … Dommage.
      Il suffirait d’en attribuer un par site me diras-tu. Mais c’est là que je me heurte à la ‘lourdeur’ du processus de développement que tu évoques 😉
      D’où tout l’intérêt que j’ai porté à la conférence sur les tags containers !
      Je suis curieuse de ton retour sur tag commander, bienvenue pour un billet si le cœur t’en dit !

  2. Pour le billet invité sur tag commander ça serait avec plaisir 🙂 ! Par contre, il faudra attendre que je maîtrise un peu mieux l’outil car pour l’instant ce n’est pas encore ça mais ça viendra vite car j’ai un bon professeur web analytique 🙂 !

  3. Merci pour tous tes précieux Feedback ^__^ et aussi à @FlorianGiu pour ton complément d’info… moi même je ne maîtrise que trop peu d’outils pour le moment. J’utilise toujours mon dashboard fait maison XLS et mes indicateurs.

    J’ai plus d »expérience pour ma part sur le SEO mais grâce à ton Blog Carole et aux tweets de Florian je ne peut que progresser… Sic!

    D’ailleurs à tout hasard vous me conseillerez quel outil de call tracking lié à Google Analytics ? En France j’ai pas l’impression qu’il y en ai pléthore ?

    A très bientôt

    1. Merci, ça fait plaisir à lire 🙂

      De fait, nous avons tous besoin de progresser et j’ai envie dire qu’au final, rien ne vaut la pratique !

      Perso, mon objectif n’est pas de connaitre une large gamme d’outils, même si je trouve nécessaire d’avoir une veille sur les outils du marché et leurs possibilités.
      Je cherche avant tout à identifier un besoin, puis les pistes d’améliorations possibles avant d’évaluer l’outil ou les outils nécessaires.

      Je n’ai pas d’outil de call tracking à te suggérer, je n’ai jamais eu l’occasion de faire un benchmarck dessus…Si je vois quelque chose, je te passerais l’info !

      A bientôt 🙂

  4. Bonjour Carole,

    Pas beaucoup le temps de réagir…. mais je prends toujours le temps de te lire ! 🙂
    Je confirme, Tag Commander ca nous change la vie, en terme de facilité d’implémentation de nouveaux tags, de réactivité, et d’autonomie !
    Quand on a des systèmes lourds, et des process longs… voilà une solution qui vous facilite grandement la tache !

    sophie

    1. Bonjour Sophie,

      Merci pour ton feedback sur Tag Commander 🙂
      Je visualise tout à fait ce qu’il en est quand tu évoques les process longs !

      Une question, si tu as le temps d’y répondre.
      J’imagine que cette implémentation, une fois en place, libère du temps, dans la mesure où les process sont moins longs et le marquage simplifié. Est-ce que ce temps dégagé est consacré à plus d’analyses ou bien finalement à d’autres natures de tâches ?

      A bientôt j’espère au détour d’un prochain événement !
      Carole

      1. Hello Carole,

        En fait, le gros avantage de Tag commander n’est pas tant de me dégager du temps à moi … puisque ce n’est pas à moi que la pose de tag prenait tant de temps précédemment.
        Les process étaient très longs, car c’est coté DSI, développement et intégration, que les délais étaient très longs… et on devait parfois attendre plusieurs mois entre le moment où on a exprimé la demande de pose d’un tag, et sa mise en place concrète.
        Ca n’est donc pas tant une libération de temps … mais une accélération des projets : ce qui, avant, nécessitait 2 mois pour être en place (le temps que ce développement soit embarqué dans prochaine une release du site) peut désormais être fait en toute autonomie, sans besoin d’intervention de nos DSI, et etre en ligne en 24h !
        En parallèle, cela à un autre avantage : cela décharge la technique … qui peut consacrer ses ressources à d’autres projets que la pose de tags.
        De ce fait, double gain : la pose de tag avance plus vite car c’est nous qui la drivons.. et les autres projets avancent également plus vite, car la DSI est « déchargée » des intégrations de tag.
        🙂

        Sophie

        1. Merci beaucoup pour cette réponse très complète qui met en lumière l’accélération des projets Sophie !

          Je n’avais pas suffisamment cerné que l’impact de cette mise en place était directement lié à l’organisation et mode de production de l’entreprise 😉

    1. Merci Laurence, j’apprécie 😉

      Au temps pour moi, je ne suis pas de quel Michael tu parles ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *