Data & Analytics Archives - abtasty https://www.abtasty.com/fr/topics/data-analytics/ Mon, 29 Jul 2024 14:33:09 +0000 fr-FR hourly 1 https://wordpress.org/?v=6.4.2 https://www.abtasty.com/wp-content/uploads/2024/02/cropped-favicon-32x32.png Data & Analytics Archives - abtasty https://www.abtasty.com/fr/topics/data-analytics/ 32 32 L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/ https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/#respond Thu, 23 May 2024 10:06:26 +0000 https://www.abtasty.com/?p=149679 AB Tasty et Google BigQuery ont uni leurs forces pour offrir une intégration fluide, permettant aux clients disposant de vastes datasets d’accéder à des informations, d’automatiser et de prendre des décisions fondées sur des données afin de faire progresser leurs […]

L'article L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty est apparu en premier sur abtasty.

]]>
AB Tasty et Google BigQuery ont uni leurs forces pour offrir une intégration fluide, permettant aux clients disposant de vastes datasets d’accéder à des informations, d’automatiser et de prendre des décisions fondées sur des données afin de faire progresser leurs efforts d’expérimentation.

Nous avons souvent discuté de la complexité de la compréhension des données pour alimenter votre programme d’expérimentation. Lorsque les entreprises ont affaire à d’énormes datasets, elles doivent trouver un moyen agile et efficace de permettre à ces informations d’enrichir leurs performances de test et d’identifier des modèles, des tendances et des idées.

Aller plus loin avec l’analyse des données

Google BigQuery est une solution d’hébergement de données cloud entièrement gérée, qui permet de stocker et d’analyser rapidement de grandes quantités de données. Cette plateforme serverless est hautement scalable, conçue pour aider les entreprises à analyser de vastes datasets afin de prendre des décisions éclairées.

Avec Google BigQuery, les utilisateurs peuvent exécuter sans effort des requêtes complexes SQL, en tirant parti de ses capacités intégrées de machine learning.

Cette intégration à la plateforme d’optimisation de l’expérience d’AB Tasty signifie que les clients disposant de grands datasets peuvent utiliser BigQuery pour stocker et analyser de grands volumes de données de test. En exploitant les capacités de BigQuery, vous pouvez rationaliser les processus d’analyse des données, accélérer les cycles d’expérimentation et favoriser l’innovation de manière plus efficace.

Voici quelques-uns des nombreux avantages de l’intégration de Google BigQuery à AB Tasty pour vous aider à mieux tester :

  • BigQuery comme source de données

Avec l’intégration BigQuery, des données spécifiques d’AB Tasty peuvent être envoyées régulièrement à votre set BigQuery. Chaque tâche de collecte de données a un nom, une requête SQL pour obtenir ce dont vous avez besoin, et une fréquence de récupération des données. Ces informations permettent d’élaborer des publicités et des messages super ciblés, ce qui permet d’atteindre plus facilement les bonnes personnes.

  • Stockage centralisé des données d’AB Tasty

L’intégration d’AB Tasty et de BigQuery simplifie également l’analyse des campagnes en éliminant le besoin d’outils BI ou SQL. Leur tableau de bord affiche une comparaison claire des métriques sur une seule page, ce qui améliore l’efficacité. Vous pouvez exploiter BigQuery pour l’analyse des expériences sans dupliquer le reporting dans AB Tasty, en tirant le meilleur des deux plateformes. Incorporez des métriques et des segments complexes en interrogeant notre ensemble de données d’événements enrichies et reliez les données d’événements à des données business provenant d’autres plateformes. Qu’il s’agisse d’expérimentation web ou de feature experimentation, cela signifie des expériences plus précises et scalable pour booster la croissance de l’entreprise.

  • Machine learning

BigQuery peut également être utilisé pour le machine learning dans le cadre de programmes d’expérimentation, ce qui vous aide à prévoir les résultats et à mieux comprendre vos objectifs. BigQuery vous offre une analyse prédictive pilotée par l’IA pour développer des campagnes multicanal personnalisées, sans complexité ni incertitude en matière d’attribution. Accédez à des segments qui s’adaptent dynamiquement au comportement des clients en temps réel, débloquant ainsi des stratégies marketing flexibles, personnalisées et basées sur les données pour alimenter vos expériences.

  • Segmentation améliorée et vision globale

La capacité de BigQuery à comprendre le comportement signifie que vous pouvez mieux segmenter. La segmentation des données permet de classer les utilisateurs en fonction de divers attributs ou de leur comportement. Grâce aux données envoyées à BigQuery par les expériences, vous pouvez créer un contenu personnalisé ou des fonctionnalités adaptées à des groupes d’utilisateurs spécifiques, ce qui permet d’optimiser les taux d’engagement et de conversion.

Enfin, l’avantage majeur de cette intégration est d’obtenir des rapports communs – des rapports entièrement automatisés et exploitables sur l’expérimentation, ainsi que la possibilité d’alimenter les données à partir d’autres sources pour obtenir une vue d’ensemble.

Un partenariat continu

Cette intégration intervient après que Google ait nommé AB Tasty partenaire officiel de Google Cloud l’année dernière, nous rendant disponibles sur Google Cloud Marketplace pour rationaliser les transactions sur la marketplace. Nous sommes également entièrement intégrés à Google Analytics 4 et nous avons été ravis d’être désignés comme l’un des fournisseurs privilégié de Google pour l’expérimentation après la fin de Google Optimize.


Nous continuons à travailler en étroite collaboration avec le géant de la technologie pour aider nos clients à toujours se développer, vous pouvez en savoir plus sur cette intégration ici.

L'article L’analytics atteint de nouveaux sommets avec Google BigQuery + AB Tasty est apparu en premier sur abtasty.

]]>
https://www.abtasty.com/fr/blog/analytics-avec-google-bigquery-ab-tasty/feed/ 0
Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives https://www.abtasty.com/fr/resources/strategie-quanti-quali-leocare/ Wed, 10 Apr 2024 15:35:34 +0000 https://www.abtasty.com/?post_type=resources&p=148055 L’expérience utilisateur est un aspect incontournable de vos interfaces ou de vos parcours client. Son impact sur le taux de conversion ou la fidélité de vos clients est dorénavant fondamental et vous permet de vous démarquer de vos concurrents. Pour […]

L'article Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives est apparu en premier sur abtasty.

]]>
L’expérience utilisateur est un aspect incontournable de vos interfaces ou de vos parcours client. Son impact sur le taux de conversion ou la fidélité de vos clients est dorénavant fondamental et vous permet de vous démarquer de vos concurrents.

Pour construire une expérience utilisateur optimale, Leocare a choisi de mettre en place une stratégie à la fois quantitative et qualitative. Découvrez leur témoignage mercredi 15 mai à 11h30 lors d’un webinar co-organisé par AB Tasty et UserTesing à l’occasion duquel Lucie Deshayes (Lead UX/UI Designer) et Éric Geffray (Chef de projet marketing) prendront la parole.

Au programme, nous reviendrons sur : 

  • Les différentes sources de données récoltées et les solutions utilisées selon le cas d’usage.
  • La manière de rassembler et d’articuler efficacement ces données provenant de sources différentes. 
  • L’analyse de celles-ci pour identifier les points de friction ou d’opportunité à différents stades du parcours client.
  • Des cas concrets de campagnes de testing ainsi que les KPIs utilisés.

Retrouvez-nous pour découvrir les bonnes pratiques de Leocare et vous en inspirer pour votre propre stratégie ! 

L'article Expérience utilisateur optimale : entre stratégies qualitatives et quantitatives est apparu en premier sur abtasty.

]]>
La culture de l’expérimentation chez les champions du digital https://www.abtasty.com/fr/resources/la-culture-de-lexperimentation-chez-les-champions-du-digital/ Tue, 05 Mar 2024 10:53:53 +0000 https://www.abtasty.com/?post_type=resources&p=145572 Le produit vise de plus en plus à accroître son efficacité et à maîtriser les risques liés à son activité. En parallèle, la démarche CRO prend toujours plus d’ampleur et dépend du produit pour influencer au maximum l’organisation. Cela implique […]

L'article La culture de l’expérimentation chez les champions du digital est apparu en premier sur abtasty.

]]>
Le produit vise de plus en plus à accroître son efficacité et à maîtriser les risques liés à son activité. En parallèle, la démarche CRO prend toujours plus d’ampleur et dépend du produit pour influencer au maximum l’organisation. Cela implique l’adoption de l’expérimentation !

Comment la validation d’hypothèses à l’aide de données tangibles peut-elle réduire les risques et guider le développement du produit vers le succès business ? Ce webinar offre une source d’inspiration pour les leaders CRO et Produit qui aspirent à instaurer une culture du « Test and Learn » en continu et à optimiser les ressources grâce à des résultats mesurables.

Durant ce webinar nous reviendrons sur :

  • L’orchestration de l’expérience digitale et l’organisation des équipes Produit et CRO
  • Les compétences fondamentales à maîtriser au sein des équipes
  • La méthodologie et le RACI de l’expérimentation

Vous n’êtes pas disponible ? Il vous suffit de vous inscrire et nous vous enverrons le replay.

L'article La culture de l’expérimentation chez les champions du digital est apparu en premier sur abtasty.

]]>
Comment faire face à un faible trafic en CRO https://www.abtasty.com/fr/blog/faible-trafic-cro/ Mon, 12 Jun 2023 10:02:36 +0000 https://www.abtasty.com/?p=118825 Si le nombre de visiteurs sur votre site web n’est pas aussi élevé que vous l’espériez, cela ne signifie pas que vous devez abandonner vos objectifs CRO. À ce stade, vous avez probablement remarqué que la plupart des conseils en […]

L'article Comment faire face à un faible trafic en CRO est apparu en premier sur abtasty.

]]>
Si le nombre de visiteurs sur votre site web n’est pas aussi élevé que vous l’espériez, cela ne signifie pas que vous devez abandonner vos objectifs CRO.

À ce stade, vous avez probablement remarqué que la plupart des conseils en matière de CRO sont adaptés aux sites web à fort trafic. Heureusement, cela ne veut pas dire que vous ne pouvez pas optimiser ce dernier, même en ayant un trafic plus faible.

La vérité est que n’importe quel site web peut être optimisé : il vous suffit d’adapter votre stratégie d’optimisation à votre situation spécifique.

Dans cet article, nous aborderons :

Commençons par une analogie

Pour faciliter la compréhension de cet article, commençons par une analogie. Imaginez : plutôt que de mesurer deux variations et de choisir un gagnant, nous mesurons les performances de deux boxeurs et plaçons des paris sur qui remportera les 10 prochains rounds.

Comment choisir sur qui parier ?

Imaginons que le boxeur A et le boxeur B soient tous les deux des débutants que personne ne connaît. Après le premier round, vous devez faire votre choix. En fin de compte, vous allez très probablement parier sur le boxeur qui a remporté le premier round. Cela peut être risqué si la marge de victoire est faible, mais en fin de compte, vous n’avez pas d’autre moyen de prendre votre décision.

Maintenant, imaginez que le boxeur A est connu comme un champion, et le boxeur B est un challenger que vous ne connaissez pas. Votre connaissance sur le boxeur A est ce que l’on appelle un « prior », à savoir des informations que vous obtenez en amont et qui influencent votre décision.

Sur la base de cette connaissance préalable, vous serez plus enclin à parier sur le boxeur A en tant que champion pour les prochains rounds, même si le boxeur B remporte le premier round avec une marge très faible.

De plus, vous ne choisirez le boxeur B comme champion prédit que s’il remporte le premier round avec une marge importante. Plus votre connaissance préalable est forte, plus la marge doit être grande pour vous convaincre de changer votre pari.

Vous suivez ? Si c’est le cas, les paragraphes suivants seront faciles à comprendre et vous comprendrez vite d’où vient ce « seuil de 95 % ».

Maintenant, passons aux conseils pour optimiser votre site web à faible trafic.

1. Résoudre le problème : « Je n’atteins jamais le seuil de certitude de 95% »

C’est le mécontentement qui revient le plus souvent concernant le CRO sur des sites web à faible trafic et sur les pages à faible trafic de plus grands sites web.

Avant d’approfondir ce problème, commençons par répondre à la question suivante : d’où vient cette « règle d’or » des 95% ?

L’origine du seuil de certitude de 95%

Commençons notre explication avec une idée très simple : que se passerait-il si les stratégies d’optimisation étaient appliquées dès le premier jour ? Si deux variantes sans historique étaient créées en même temps, il n’y aurait pas de version « originale » contestée par un nouvel arrivant.

Cela vous obligerait à choisir la meilleure dès le départ.

Dans ce cas, la moindre différence de performance pourrait être prise en compte pour prendre une décision. Après un court test, vous choisiriez la variante avec la meilleure performance. Il ne serait pas bon de choisir la variante qui a une performance inférieure et, de plus, ce serait insensé d’attendre un seuil de certitude de 95% pour choisir un gagnant.

Mais en pratique, l’optimisation est réalisée bien après le lancement d’une entreprise.

Ainsi, dans la réalité, il existe une version A qui existe déjà et un nouveau challenger (version B) qui est créé.

Si le nouveau challenger (la version B) arrive et que la différence de performance entre les deux variantes n’est pas significative, vous n’aurez aucun problème à déclarer que la version B n’est « pas un gagnant ».

Les tests statistiques sont symétriques. Donc, si nous inversions les rôles, en échangeant A et B dans le test statistique, cela indiquerait que l’original n’est pas significativement meilleur que le challenger. L’aspect « non concluant » du test est symétrique.

Alors, pourquoi orientez-vous 100% du trafic vers l’original à la fin d’un test non concluant, en déclarant implicitement A comme gagnant ? Parce que vous avez pris en compte trois connaissances préalables :

  1. La version A était le choix initial. Il a été élaboré par le créateur de la page.
  2. La version A a déjà été mise en œuvre et techniquement approuvée. La version B n’est généralement qu’une maquette.
  3. La version A dispose de nombreuses données pour prouver sa valeur, tandis que B est un challenger avec des données limitées qui ne sont collectées que pendant la période de test.

Les points 1 et 2 sont les bases d’une stratégie de CRO, vous devrez donc aller au-delà de ces deux points. Le point 3 explique que la version A dispose de plus de données pour étayer sa performance. Cela permet de comprendre pourquoi vous faites plus confiance à la version A qu’à la version B. 

Maintenant, vous comprenez que cette règle de seuil de certitude fixé à 95% est une façon d’expliquer des connaissances préalables. Et celles-ci proviennent principalement des données historiques.

Par conséquent, lors de l’optimisation d’une page à faible trafic, votre seuil de certitude devrait être inférieur à 95% car vos connaissances sur A sont plus faibles en raison de son trafic et de son ancienneté.

Ce seuil devrait être défini en fonction du volume du trafic qui a traversé le site web depuis son premier jour. Le problème avec cette approche, c’est que nous savons que les taux de conversion ne sont pas stables et qu’ils peuvent changer avec le temps. Pensez à la saisonnalité, par exemple l’afflux du Black Friday, les jours de congé, les périodes de Noël où l’activité augmente, etc. En raison de ces variations saisonnières, il n’est pas possible de comparer les performances à des périodes différentes.

C’est pourquoi les professionnels ne tiennent compte que des données pour la version A et la version B collectées pendant la même période, et ils fixent un seuil de certitude élevé (95%) pour accepter le challenger comme gagnant afin de formaliser les connaissances préalables solides en faveur de la version A.

Quel est le seuil de décision approprié lors d’un faible trafic ?

Il est difficile de suggérer un chiffre exact sur lequel se concentrer car cela dépend de votre tolérance au risque.

Selon le protocole de la méthode de  » test d’hypothèse », on doit fixer une période de collecte de données, et analyser seulement à la fin de cette période.

Cela signifie que le critère d’arrêt d’un test n’est pas une mesure statistique ou basée sur un nombre spécifique. Le critère d’arrêt devrait être une période de temps qui se termine. Une fois la période terminée, vous devez examiner les statistiques pour prendre une décision appropriée.

AB Tasty, notre logiciel d’optimisation de l’expérience client et de feature management, utilise la méthode bayésienne qui produit un indice de « chance de gagner”. Cet indice permet une interprétation directe des chances de gagner, plutôt que d’obtenir une P valeur qui elle a une signification très complexe.

En d’autres termes, l’indice de « chance de gagner » est la probabilité qu’une variation donnée soit meilleure que l’original.

Par conséquent, une « chance de gagner » de 95% signifie qu’il y a une probabilité de 95% que la variation donnée soit gagnante. Cela suppose que nous n’avons ni connaissance préalable, ni confiance spécifique dans l’original.

Le seuil de 95% lui-même est également un compromis par défaut entre la connaissance préalable que vous avez sur l’original et un certain niveau de tolérance au risque (cela aurait même pu être un seuil de 98%).

Bien qu’il soit difficile de donner un chiffre exact, voici une échelle approximative pour votre seuil :

  • Nouvelles variations A et B : si vous avez un cas où la variation A et la variation B sont toutes les deux nouvelles, le seuil peut être très bas, jusqu’à 50 %. S’il n’y a pas de données antérieures sur les performances des variations et que vous devez faire un choix pour la mise en œuvre, même une chance de gagner de 51 % est meilleure que 49 %.
  • Nouveau site web, faible trafic : si votre site web est nouveau et a très peu de trafic, vous avez probablement très peu de connaissances préalables sur la variation A (ici, la variation d’origine). Dans ce cas, fixer un seuil de 85 % est raisonnable. Cela signifie que si vous mettez de côté ce que vous savez déjà sur l’original, vous avez encore 85 % de chance de choisir le gagnant et seulement 15 % de chance de choisir une variation équivalente à l’original (avec une chance encore moindre qu’elle se comporte moins bien). Selon le contexte, un tel pari peut avoir du sens.
  • Entreprise mature, faible trafic : si votre entreprise a une longue histoire mais un trafic faible, un seuil de 90 % est raisonnable. C’est parce qu’il y a encore peu de connaissances antérieures sur l’original.
  • Entreprise mature, trafic élevé : si vous disposez de nombreuses données ou de connaissances préalables sur la variation A, un seuil de 95 % est approprié.

Le seuil d’origine de 95 % est bien trop élevé si votre entreprise a un faible trafic, car il y a peu de chances que vous l’atteigniez. Par conséquent, votre stratégie CRO n’aura aucun effet, et la prise de décision basée sur les données devient impossible.

En utilisant AB Tasty comme plateforme d’expérimentation, vous recevrez un rapport comprenant la « chance de gagner » ainsi que d’autres informations statistiques concernant vos expériences. Il inclurait également l’intervalle de confiance sur le gain estimé, qui est un indicateur important. Les limites autour du gain estimé sont également calculées de manière bayésienne, ce qui signifie qu’elles peuvent être interprétées comme le meilleur et le pire scénario. 

L’importance des statistiques bayésiennes

Maintenant que vous comprenez le sens précis du niveau de « certitude » de 95%, pourtant bien connu, vous êtes en mesure de sélectionner des seuils appropriés correspondant à votre cas particulier.

Il est important de se rappeler que cette approche ne fonctionne qu’avec les statistiques bayésiennes, car l’approche fréquentiste fournit des indices statistiques (tels que les P valeurs et les intervalles de confiance) qui ont un sens totalement différent et ne conviennent pas à la logique expliquée.

2. Les statistiques sont-elles valables avec de petits nombres ?

Oui, elles sont valables tant que vous ne mettez pas fin au test en fonction du résultat. Vous pouvez ignorer le readiness shield.

Rappelez-vous que le protocole de test indique qu’une fois que vous avez décidé d’une période de test, la seule raison de l’arrêter est lorsque ce délai est écoulé. Dans ce cas, les indices statistiques (« chance de gagner » et intervalle de confiance) sont vrais et utilisables.

Vous pensez peut-être : « D’accord, mais j’atteins rarement le seuil de certitude de 95%… »

Rappelez-vous que le seuil de 95% n’a pas besoin d’être le chiffre magique pour tous les cas. Si vous avez peu de trafic, il est probable que votre site web soit récent. Si vous vous référez au point précédent, vous pouvez consulter notre échelle suggérée pour différents scénarios.

Si vous avez peu de trafic en tant que nouvelle entreprise, vous pouvez certainement passer à un seuil plus bas (comme 90%). Le seuil est encore assez élevé car il est courant d’avoir plus confiance en une version originale qu’en une variante car elle est utilisée depuis plus longtemps.

Si vous avez affaire à deux variantes totalement nouvelles, à la fin de votre période de test, il sera plus facile de choisir la variante avec le plus grand nombre de conversions (sans utiliser un test statistique) puisqu’il n’y a aucune connaissance préalable de la performance de A ou B.

3. Faire le chemin à l’envers

Parfois, le problème de trafic n’a pas pour cause un site web à faible trafic, mais plutôt une page web. En effet, dans la plupart des cas, les pages avec un faible trafic se situent à la fin du funnel d’achat.

Dans ce cas, une excellente stratégie consiste à travailler sur l’optimisation de celui-ci. Une première solution peut se trouver en cherchant à optimiser le parcours client digital tout au long du funnel.

4. Est-ce que la technique CUPED fonctionne vraiment ?

Qu’est-ce que CUPED ?

Controlled Experiment Using Pre-Experiment Data est un terme à la mode dans le domaine de l’expérimentation. CUPED est une technique qui prétend produire des résultats jusqu’à 50% plus rapidement. Cela est très attrayant pour les sites Web à faible trafic.

Est-ce que CUPED fonctionne vraiment aussi bien ?

Pas exactement, pour deux raisons : l’une est organisationnelle et l’autre est liée à son application.

La contrainte organisationnelle

Ce qui est souvent oublié, c’est que CUPED signifie Controlled experiment Using Pre-Experiment Data.

En pratique, la période idéale pour collecter des « Pre-Experiment Data » est de deux semaines pour espérer une réduction de temps de 50%.

Ainsi, pour un test classique de 2 semaines, CUPED prétend que vous pouvez mettre fin au test en seulement 1 semaine.

Cependant, pour pouvoir observer correctement vos résultats, vous aurez besoin de deux semaines de données pré-expérimentation. En réalité, vous devez donc disposer de trois semaines pour mettre en œuvre CUPED afin d’obtenir la même précision qu’un test classique de 2 semaines.

Oui, vous avez bien lu. En fin de compte, vous aurez besoin de trois semaines pour mener à bien une expérimentation.

En d’autres termes, cette méthode n’est utile que si vous disposez déjà de deux semaines de données de trafic non exposées à une quelconque expérience. Mais si vous pouvez planifier deux semaines sans expérimentations dans votre roadmap pour collecter des données, cela bloquera le trafic pour d’autres expériences.

La contrainte d’application

En plus de la contrainte organisationnelle/liée à la période des deux semaines, il existe deux autres prérequis pour que CUPED soit efficace :

  1. CUPED s’applique uniquement aux visiteurs parcourant le site à la fois pendant la période de pré-expérimentation et la période expérimentale.
  2. Ces visiteurs doivent avoir le même comportement par rapport au KPI. Les données des visiteurs doivent être corrélées entre les deux périodes.

Vous constaterez dans le paragraphe suivant que ces deux contraintes rendent CUPED pratiquement impossible pour les sites de e-commerce et ne s’appliquent qu’aux plateformes.

Revenons à notre exemple de configuration d’expérimentation :

  • Deux semaines de données pré-expérimentation.
  • Deux semaines de données d’expérimentation (que nous espérons ne durer qu’une semaine grâce à la réduction de temps de 50% supposée).
  • L’objectif d’optimisation est une transaction : augmenter le nombre de conversions.

La contrainte numéro 1 stipule qu’il faut avoir les mêmes visiteurs pendant la période de pré-expérimentation et d’expérimentation. Or, le parcours du visiteur dans le secteur du e-commerce dure généralement une semaine.

En d’autres termes, il y a très peu de chances que vous voyiez les mêmes visiteurs dans les deux périodes. Ainsi, on ne peut s’attendre qu’à un effet très limité de CUPED (limité à la portion de visiteurs observés dans les deux périodes).

La contrainte numéro 2 stipule que les visiteurs doivent avoir le même comportement en ce qui concerne la conversion (par rapport au KPI en cours d’optimisation). Honnêtement, cette contrainte n’est tout simplement jamais respectée dans le e-commerce.

La conversion dans le e-commerce se produit soit pendant la période de pré-expérimentation, soit pendant la période expérimentale, mais pas dans les deux cas (à moins que votre client effectue fréquemment plusieurs achats pendant la période de l’expérience).

Cela signifie qu’il n’y a aucune chance que les conversions des visiteurs soient corrélées entre les périodes.

En résumé : CUPED n’est tout simplement pas applicable aux sites e-commerce pour optimiser les transactions.

Cela est clairement indiqué dans l’article scientifique d’origine, mais dans un souci de popularité, cette technique de buzzword est présentée de manière erronée dans l’industrie des tests.

En réalité, CUPED fonctionne uniquement pour les conversions multiples sur des plateformes qui ont des visiteurs récurrents effectuant les mêmes actions.

Les grandes plateformes adaptées à CUPED seraient les moteurs de recherche (comme Bing, où il a été inventé) ou les plateformes de streaming où les utilisateurs viennent quotidiennement et effectuent les mêmes actions répétées (lecture d’une vidéo, clic sur un lien dans une page de résultats de recherche, etc.).

Mais si vous essayez de trouver une application de CUPED dans le domaine du e-commerce, vous vous rendrez rapidement compte que ce n’est tout simplement pas possible.

  • On pourrait essayer d’optimiser le nombre de produits consultés, mais le problème de la contrainte 1 reste applicable : un très petit nombre de visiteurs sera présent dans les deux ensembles de données. De plus, il y a une objection encore plus fondamentale : ce KPI ne devrait pas être optimisé en lui-même, sinon vous encouragez potentiellement l’hésitation entre les produits.
  • Vous ne pouvez même pas essayer d’optimiser le nombre de produits achetés par les visiteurs avec CUPED car la contrainte numéro 2 reste valable. L’acte d’achat peut être considéré comme instantané. Par conséquent, il ne peut se produire que dans une période ou l’autre, pas les deux. S’il n’y a pas de corrélation attendue dans le comportement des visiteurs, il n’y a alors aucun effet CUPED à attendre.

Conclusion sur CUPED

En conclusion, CUPED ne fonctionne pas pour les sites de e-commerce où une transaction est l’objectif principal d’optimisation. À moins d’être Bing, Google ou Netflix, CUPED ne sera pas l’ingrédient secret pour vous aider à optimiser votre activité.

Cette technique est certainement un mot à la mode qui suscite rapidement l’intérêt. Cependant, il est important d’avoir une vision plus globale avant de vouloir ajouter CUPED à votre feuille de route. Les marques de e-commerce devront prendre en compte le fait que cette technique de test ne convient pas à leur entreprise.

Optimisation pour les sites à faible trafic

Les marques ayant un faible trafic sont toujours des candidats privilégiés pour l’optimisation de leur site web, même si elles doivent adopter une approche légèrement différente de la méthode traditionnelle.

Que cela implique de choisir une page plus haut dans le funnel d’achat ou d’adopter un seuil de certitude légèrement plus bas, l’optimisation continue est cruciale.

Vous souhaitez commencer à optimiser votre site Web ? AB Tasty est la plateforme d’optimisation de l’expérience best-in-class qui vous permet de créer une expérience digitale enrichie rapidement. De l’expérimentation à la personnalisation, cette solution peut vous aider à activer et à engager votre public pour stimuler vos conversions.

Vous pouvez trouver le lien de l’article original ici.

L'article Comment faire face à un faible trafic en CRO est apparu en premier sur abtasty.

]]>
Tag JavaScript d’AB Tasty : performance et rapport d’analyse https://www.abtasty.com/fr/blog/tag-javascript-performance/ Tue, 06 Jun 2023 08:48:47 +0000 https://www.abtasty.com/?p=118737 Bonjour, je m’appelle Léo ! En tant que Product Manager chez AB Tasty, je suis responsable, entre autres, de notre tag JavaScript qui est utilisé actuellement par nos clients, sur des milliers de sites internet. Comme vous pouvez l’imaginer, ma […]

L'article Tag JavaScript d’AB Tasty : performance et rapport d’analyse est apparu en premier sur abtasty.

]]>
Bonjour, je m’appelle Léo ! En tant que Product Manager chez AB Tasty, je suis responsable, entre autres, de notre tag JavaScript qui est utilisé actuellement par nos clients, sur des milliers de sites internet. Comme vous pouvez l’imaginer, ma roadmap est remplie de sujets liés à la collecte de données, à la confidentialité et… à la performance.

Dans cet article d’aujourd’hui, nous allons parler de la performance du tag JavaScript, de la surveillance de l’open data et de la concurrence. Allez, c’est parti !

Enquête sur la performance

Étant donné que la performance est devenue un sujet important et très discuté ces dernières années, notamment grâce à l’initiative de Google visant à déployer les Core Web Vitals, mon équipe et moi-même avons concentré nos efforts sur ce sujet. Nous avons apporté de nombreux changements, amélioré de nombreux aspects de notre tag et atteint d’excellents résultats. Beaucoup de nos utilisateurs ont témoigné de leur satisfaction à ce sujet. J’ai d’ailleurs déjà rédigé une (longue) série d’articles de blog à ce sujet ici

De temps en temps, nous sommes taquinés par nos concurrents au sujet d’un rapport sur les performances qui semble montrer que nous ne sommes pas à la hauteur de nos ambitions, selon certains indicateurs. Certains concurrents prétendent être jusqu’à 4 fois plus rapides que nous ! Et c’est vrai. Enfin, c’est ce que montre le rapport.

Vous pouvez facilement imaginer à quel point ceci peut être nocif pour notre image de marque et à quel point cela peut être difficile pour notre équipe business lorsqu’un client utilise cet argument. C’est particulièrement démoralisant pour moi et mon équipe après tout le travail que nous avons accompli sur ce sujet ces dernières années.

Bien que ce soit la première impression que j’ai eue en voyant ce rapport, je sais pertinemment que nos performances sont excellentes. Nous avons réalisé d’énormes améliorations après la sortie de plusieurs projets et optimisations. Aujourd’hui, tous les tests et audits que j’ai effectués sur les sites Web de nos clients montrent de très bonnes performances et un faible impact sur les fameux Core Web Vitals.

De plus, il est très rare qu’un client se plaigne de nos performances. Cela peut arriver, c’est certain, mais la plupart du temps, tous leurs doutes disparaissent après une courte discussion, quelques explications et des conseils sur les meilleures pratiques d’optimisation.

Mais ce rapport est toujours là, n’est-ce pas ? Alors peut-être que j’ai raté quelque chose. Peut-être que je ne regarde pas les bons indicateurs. Peut-être que j’ai uniquement audité des clients où tout va bien, mais qu’il y a une immense armée de clients qui ne se plaignent pas du fait que notre tag ralentisse considérablement leur site Web.

Le CRO, est ce que c’est la même chose que l’Analytics ?

Sur le rapport (je promets d’en parler plus en détail ci-dessous 😄), nous sommes mentionnés dans la catégorie Analytics. Cependant, l’optimisation du taux de conversion n’est pas la même chose que de l’Analytics. Un outil d’analyse ne fait que collecter des données tandis que nous activons des campagnes, mettons en place des personnalisations, implémentons des widgets, ajoutons des pop-ins et bien plus encore. Ainsi, notre impact est bien plus important.

Parlons de nos concurrents : même si nous avons la meilleure solution du marché (😇), nos concurrents font à peu près les mêmes choses que nous en utilisant les mêmes techniques, avec les mêmes limites et problèmes. Il est donc légitime de nous comparer selon les mêmes indicateurs. Il est possible que nous allions un peu plus loin qu’eux, mais cela ne devrait pas expliquer une différence de performance 4 fois supérieure.

À l’époque, et avant de me plonger dans son contenu, j’ai pris les résultats du rapport avec humilité. Par conséquent, mon ambition était d’analyser les données, d’analyser les sites Web où le tag de nos concurrents était utilisé et d’essayer de trouver ce qu’ils font de mieux que nous. Nous appelons ceci de la rétro-ingénierie, et je trouve cela sain car cela peut nous aider à garantir un Web plus rapide pour tout le monde.

Mon engagement envers ma hiérarchie a donc été de trouver les zones où nous avions des fuites de performance et de les résoudre afin de réduire notre temps d’exécution moyen et de nous rapprocher de nos concurrents.

Mais d’abord, j’ai dû analyser les données. Et, wow, je n’étais pas préparé à ça.

Le rapport en question

Le rapport est un ensemble de données généré mensuellement par The HTTP Archive. Voici ce que nous pouvons lire à propos d’eux sur leur site Web :

“Successful societies and institutions recognize the need to record their history – this provides a way to review the past, find explanations for current behavior, and spot emerging trends. In 1996, Brewster Kahle realized the cultural significance of the Internet and the need to record its history. As a result he founded the Internet Archive which collects and permanently stores the Web’s digitized content.”

“In addition to the content of web pages, it’s important to record how this digitized content is constructed and served. The HTTP Archive provides this record. It is a permanent repository of web performance information such as size of pages, failed requests, and technologies utilized. This performance information allows us to see trends in how the Web is built and provides a common data set from which to conduct web performance research.”

Chaque mois, ils effectuent un audit, grâce à Lighthouse, sur des millions de sites Web et génèrent un ensemble de données contenant des résultats bruts.

Comme il s’agit d’un projet open-source, tout le monde peut l’utiliser pour créer des visualisations de données et faciliter ensuite l’accès à ce type d’informations.

C’est ce qu’a fait l’inventeur de Google Lighthouse, Patrick Hulce. Sur son site Web, GitHub, il propose une belle visualisation de cet énorme ensemble de données et permet à quiconque d’en explorer les détails à travers plusieurs catégories telles que l’analyse, les publicités, les médias sociaux, et bien plus encore. Comme je l’ai cité auparavant, vous trouverez les outils CRO dans la catégorie Analytics .

Le site web est entièrement open-source. La méthodologie est connue et accessible.

Alors, c’est quoi le problème avec ce rapport ?

Eh bien, techniquement, rien. Nous pourrions trouver décevant que l’ensemble de données ne soit pas automatiquement mis à jour chaque mois, mais le référentiel est open-source, donc toute personne motivée pourrait le faire.

Cependant, cela se limite à afficher les données de manière attrayante et ne fournit aucune information, ni analyse approfondie. Toute faille ou incohérence restera cachée et cela pourrait conduire à une situation où une tierce partie est considérée comme ayant de mauvaises performances par rapport à d’autres acteurs. Alors que ce n’est pas nécessairement le cas.

Un problème, cependant, qui n’est pas lié au rapport lui-même, est l’oubli des informations capitales dont la moyenne, en tant que mesure statistique, ne peut rendre compte. C’est quelque chose dont nous sommes tous conscients mais que nous avons tendance à oublier. Si vous prenez 10 personnes, dont 9 gagnent 800€ par mois mais qu’une personne gagne 12 millions d’euros par mois, alors nous pourrions conclure que tout le monde gagne 1,2 million d’euros en moyenne/mois. C’est certes statistiquement correct, mais cela semble un peu faux, n’est-ce pas ? Nous y reviendrons dans un instant.

Sachant cela, il était temps de mettre les mains dans le cambouis. Avec mon équipe, nous avons téléchargé l’ensemble des données de février 2023 pour effectuer notre propre audit et comprendre où se situaient nos fuites de performance.

Notez que le téléchargement de l’ensemble des données est quelque chose que nous faisons régulièrement depuis environ un an et demi pour suivre notre tendance. Cependant, cette fois, j’ai décidé d’approfondir le rapport de février 2023 en particulier.

L’analyse

Sur cet ensemble de données, nous avons pu trouver la liste complète des sites Web utilisant AB Tasty et qui ont été analysés, ainsi que l’impact de notre tag. Pour être plus précis, nous disposons du temps d’exécution exact de notre tag, en millisecondes.

Voici ce que nous en avons extrait. La colonne pixellisée représente l’URL du site Web. La dernière colonne représente le temps d’exécution en millisecondes.

Avec les données brutes, nous avons pu calculer de nombreux indicateurs utiles.

Gardez à l’esprit que je ne suis ni mathématicien, ni expert en statistiques. Ma méthodologie peut sembler étrange, mais elle est adaptée à cette analyse.

  • Le temps d’exécution moyen

Il s’agit du premier indicateur que j’obtiens : la moyenne brute de tous les sites Web. C’est probablement très proche, voire égal, à ce qui est utilisé par le site Web thirdpartyweb.today. Nous avons déjà évoqué les inconvénients d’avoir une moyenne, cependant, c’est toujours une valeur intéressante à surveiller.

  • Moyenne de la moitié supérieure et moyenne de la moitié inférieure

Ensuite, je divise l’ensemble du jeu de données en deux moitiés. Si j’ai 2000 lignes, je crée deux groupes de 1000 lignes. La « partie supérieure » et la « partie inférieure ». Cela me permet d’avoir une vue sur les sites Web où nous avons de bonnes performances par rapport aux sites Web où nous avons les pires performances. Ensuite, je calcule la moyenne de chaque moitié.

  • L’écart entre les deux moitiés

La différence entre les deux moitiés est importante car elle montre la disparité au sein de l’ensemble de données. Plus elle est proche de zéro, moins nous avons de valeurs extrêmes.

  • Le nombre de sites Web avec une valeur supérieure à 6 000 ms

Il s’agit simplement d’un indicateur interne que nous suivons pour nous fixer un objectif à moyen terme : celui de n’avoir 0 site Web avec une valeur supérieure à cette limite.

  • L’évolution du dernier ensemble de données

Je calcule l’évolution entre le dernier ensemble de données dont je dispose et le dernier en date. Cela me permet de voir si nous nous améliorons en général, ainsi que le nombre de sites web qui quittent ou rejoignent le tableau.

Les résultats

Voici les résultats que nous avons obtenus :

Voici les graphiques correspondants :

Voici l’évolution entre octobre 2022 et février 2023 :

Attention : c’est une échelle logarithmique ! Les données sont triées par temps d’exécution en février 2023 de gauche à droite.

Les chiffres parlent d’eux-mêmes. Mais si je peux esquisser une conclusion générale, c’est que nous avons réalisé d’énormes optimisations au cours des six premiers mois, puis nous nous sommes stabilisés un peu après, au moment d’ajustements plus subtils (le fameux principe des 80/20 de Pareto).

Le gain net initial est impressionnant, néanmoins, deux chiffres clés devraient ici retenir votre attention.

Tout d’abord, la différence entre les deux moitiés se réduit considérablement. Cela signifie que nous n’avons plus beaucoup de fuites de performances potentielles (des fonctionnalités qui entraînent une augmentation anormale du temps d’exécution). C’est notre première victoire récente.

Ensuite, l’évolution montre que, en général, à l’exception des pires cas, cela reste stable ou diminue. C’est une autre nouvelle victoire.

Rentrons dans les détails

Ce que je viens de vous partager sont les résultats bruts, sans examiner les détails de chaque ligne et de chaque site Web parcouru.

Cependant, comme on dit, le diable se cache dans les détails. Creusons un peu plus.

Concentrons-nous sur les sites Web où AB Tasty met plus de six secondes à s’exécuter.

Six secondes peuvent sembler beaucoup (et c’est le cas), mais n’oublions pas que l’audit simule un processeur bas de gamme qui n’est pas représentatif de l’appareil moyen. Il montre plutôt le pire scénario possible.

Dans le rapport de février 2023, il y 33 sites Web où c’est le cas. Cela correspond à un temps d’exécution moyen de 19877 ms. J’ai rapidement identifié que :

  • 27 d’entre eux proviennent du même client AB Tasty.
  • L’un d’entre eux est abtasty.com et l’exécution totale des ressources provenant de *abtasty.com sur ce site est évidemment très élevée
  • Deux autres proviennent également d’un seul client AB Tasty.

Finalement, il n’y a que 5 clients sur cette liste (mais toujours 33 sites Web, ne vous trompez pas).

Regroupons maintenant les deux clients qui ont des doublons, pour voir l’impact sur la moyenne. Le client avec 27 doublons a également des sites Web dont le temps d’exécution est inférieur à 6 000 ms, mais je vais les ignorer pour le moment (afin de simplifier les choses).

Pour chacun des ces deux clients, je vais calculer la moyenne de tous leurs doublons. Pour le premier, le résultat est de 21 671 ms. Pour le second, le résultat est de 14 708 ms.

Je vais également supprimer abtasty.com, qui n’est pas pertinent.

Avec la nouvelle liste, nous sommes passés de 1 223 ms pour la moyenne de la liste complète à 1 005 ms. Nous venons d’améliorer notre moyenne de plus de 200 ms ! 🎉

Attendez, quoi ? Vous supprimez simplement les pires sites Web. Évidemment, vous vous améliorez…

Oui, c’est vrai. C’est de la triche, c’est sûr ! Mais l’objectif de cet article est de démontrer que les données ne disent pas tout.

Parlons d’abord de ce qui se passe avec ce client qui a 27 doublons.

Le même tag a été déployé sur plus de 50 sites Web très différents ! Vous n’êtes peut-être pas très familier avec AB Tasty, alors laissez-moi vous expliquer pourquoi c’est un problème.

Il se peut que vous ayez plusieurs sites Web qui ont la même structure (c’est souvent le cas lorsque vous avez différentes langues). Il est logique d’avoir le même tag sur ces différents domaines pour pouvoir déployer les mêmes personnalisations sur tous en une seule fois. Ce n’est pas la façon la plus optimale de le faire, mais à ce jour, c’est la façon la plus facile de le faire avec notre outil.

Cependant, si vos sites Web sont tous différents, il n’y a absolument aucun intérêt à le faire. Vous allez créer de nombreuses campagnes (dans ce cas, des centaines !) qui ne seront presque jamais exécutées sur le site Web (parce que ce n’est pas le bon domaine), mais qui seront quand même partiellement incluses dans le tag. Ainsi, celui-ci va passer son temps à vérifier des centaines de campagnes qui n’ont aucune chance de s’exécuter car l’URL sera rarement valide.

Bien que nous travaillions sur un moyen de bloquer ce comportement (car nous avons des alternatives et de meilleures options), il faudra des mois avant que ces données ne disparaissent du rapport.

Note : si vous commencez à utiliser AB Tasty, on ne vous conseillera pas de faire cela et par conséquent, les performances de votre tag seront bien meilleures que celles-ci.

Encore une fois, je n’ai pas pris le temps de regrouper tous les domaines dupliqués car cela n’a pas de sens, le but étant de démontrer qu’il est facile d’améliorer les performances en excluant des anomalies qui ne sont pas représentatives. En ne conservant qu’un seul domaine dans le cas cité précédemment, nous pourrions imaginer une amélioration de plus de 200 ms de nos performances globales.

J’ai pris le cas le plus évident, mais un rapide examen du reste des données m’a montré d’autres exemples.

Les résultats de nos concurrents

Ayant en tête ce que nous avons évoqué précédemment et comment notre score peut sembler pire que ce qu’il est réellement à cause d’une seule anomalie, j’ai commencé à examiner les chiffres de nos concurrents pour voir s’ils ont le même type de problème.

Je le répète : je n’essaie pas de dire que nous sommes meilleurs (ou pires) que nos concurrents, ce n’est pas mon propos. Je cherche simplement à vous montrer pourquoi les statistiques doivent être analysées en profondeur pour éviter toute erreur d’interprétation.

Commençons par comparer les chiffres d’AB Tasty de février 2023 avec ceux de l’un de nos concurrents, selon les mêmes mesures évidemment.

Competitor's figures

En général, ils semblent un peu meilleurs, n’est-ce pas ? Une meilleure moyenne et même les moyennes pour chaque moitié sont meilleures (celle de la moitié inférieure est nettement meilleure !).

Cependant, la différence entre les deux moitiés est énorme : 24 ! Cela signifie-t-il que selon l’utilisation qui en est faite, l’impact du tag pourrait être multiplié par 24 ?

Si je voulais les taquiner un peu, je dirais que lors de tests de leur tag sur votre site Web, vous pourriez constater d’excellentes performances, mais lorsque vous commencez à l’utiliser intensivement, vous pourriez rencontrer de sérieuses baisses de performance.

Mais, ce ne serait qu’une interprétation d’une très petite partie de ce que disent les données.

De plus, ils ont plus du double du nombre de sites Web qui dépassent le seuil de 6 000 ms (encore une fois : ce seuil est une référence interne à AB Tasty). Et cela, même en conservant les doublons que nous avons repérés ensemble précédemment ! Ils ont également des doublons, mais pas autant que nous.

Une première conclusion (prématurée) serait qu’ils présentent davantage de sites web sur lesquels leur impact est grand, mais que la moyenne globale est tirée vers le bas par une majorité d’autres sites.

Maintenant que je sais que dans notre cas, nous avons plusieurs clients qui ont des doublons, je voulais vérifier si nos concurrents rencontrent le même problème. Et c’est le cas pour celui-ci.

Parmi les 2 537 sites Web analysés, 40 % d’entre eux appartiennent au même client. Cela représente 1 016 sous-domaines du même domaine.

Comment cela impacte-t-il leur score ?

Eh bien, leur client n’utilisait pas la solution au moment où les données ont été collectées (j’en ai fait moi-même la vérification en visitant certains des sous-domaines). Cela signifie que le tag ne faisait absolument rien. Il était présent, mais inactif.

Le temps d’exécution moyen de ces 1 016 lignes de données est de 59 ms !! 😭 Elle a également une valeur maximale de 527 ms et une valeur minimale de 25 ms.

Je n’ai pas besoin d’expliquer pourquoi cette « anomalie » tire curieusement leur moyenne vers le bas, n’est-ce pas ?

Attention, ces 1 016 sous-domaines ne sont pas de faux sites Web. Je ne sous-entends pas que ce concurrent a triché délibérément pour paraître meilleur – je suis sûr que ce n’est pas le cas. C’est juste une très belle coïncidence pour eux, qu’ils en soient conscients ou non.

Pour conclure, comparons la moyenne de nos deux ensembles de données après avoir supprimé ces 1 016 sous-domaines.

AB Tasty est à 1 223 ms (ensemble de données non modifié) tandis que ce concurrent est maintenant à… 1 471 ms.

Ils sont passés de 361 ms meilleur que nous à 248 ms moins bien. Je vous ai dit que je peux faire dire aux chiffres ce que je veux. 🙂

J’aurais beaucoup d’autres choses à dire sur ces ensembles de données, mais je n’ai pas réalisé toutes les analyses qui auraient pu être effectuées ici. J’ai déjà passé trop de temps dessus, pour être honnête.

J’espère cependant avoir réussi à montrer que le même ensemble de données peut être interprété de bien des manières différentes.

Que pouvons-nous conclure de tout ça ?

La première chose que je veux dire, c’est : TESTEZ.

Notre solution est très facile à mettre en place. Vous placez simplement le tag sur votre site Web et effectuez un audit. Pour comparer, vous pouvez placer le tag d’un autre outil sur votre site Web et effectuer le même audit. Effectuez-le plusieurs fois dans les mêmes conditions et comparez. Le deuxième outil est-il meilleur sur votre site Web ? Très bien, alors il fonctionnera probablement mieux pour votre cas spécifique.

Est-ce qu’un rapport aléatoire sur le Web affirme qu’une solution est meilleure qu’une autre ? Très bien, c’est un point de vue, mais vous devriez soit analyser les données pour le remettre en question, soit ne pas y accorder trop d’attention. Accepter simplement les chiffres tels qu’ils sont affichés (ou pire : vendus…) pourrait vous faire passer à côté d’une grande partie de l’histoire.

Est-ce que AB Tasty a de mauvaises performances ?

Non, ce n’est pas le cas. La plupart de nos clients ne se sont jamais plaints des performances et certains sont très reconnaissants pour les dernières améliorations que nous avons apportées à ce sujet.

Donc certains clients se plaignent ?

Oui. Cela arrive parfois qu’AB Tasty ait des performances inférieures en fonction de l’utilisation qui en est faite. Mais nous fournissons des outils pour vous aider à tout optimiser directement depuis notre plateforme. Nous l’appelons le Centre de Performance. C’est une section de notre outil dédiée à vous montrer quelle campagne a un impact sur vos performances et ce que vous pouvez faire pour l’optimiser. Il vous suffit de suivre les directives et tout ira bien. C’est une fonctionnalité très innovante et unique sur le marché, et nous en sommes très fiers.

Cependant, je dois admettre que quelques clients (seulement quelques-uns) ont des attentes irréalistes en matière de performances. AB Tasty est un tag JavaScript qui effectue des manipulations du DOM, des vérifications asynchrones, de la collecte de données et beaucoup d’autres choses complexes. Bien sûr, cela aura un impact plus important sur votre site Web qu’un simple outil d’analyse. Votre objectif est de vous assurer que l’impact de l’optimisation de vos conversions est supérieur à son coût en termes de performances. Et cela sera le cas, quel que soit l’outil d’optimisation des taux de conversion que vous utilisez, sauf si vous utilisez un outil côté serveur-side comme Flagship d’AB Tasty, par exemple.

Je suis convaincu que nous devrions aller chercher un site Web encore plus rapide. Je suis très préoccupé par mon impact sur l’environnement, et j’essaie de garder mes appareils aussi longtemps que possible. Mon smartphone a 7 ans (et je suis en train de passer à un “nouveau” qui en a 10) et mon ordinateur portable n’est pas très récent non plus. Donc, je sais qu’un site Web lent peut être une véritable source de frustration.

Le mot de la fin

Permettez-moi de vous assurer que chez AB Tasty, nous sommes pleinement engagés à optimiser nos performances. Cela est motivé par les attentes de nos clients, ma propre motivation personnelle et le défi amusant et intéressant que cela représente pour notre équipe (et aussi parce que ma direction me le demande 😅).

Je tiens également à féliciter HTTP Archive qui effectue un travail très important en collectant toutes ces données et en les partageant avec tout le monde. Félicitations à Patrick Hulce qui a pris le temps de construire un site Web très intéressant qui aide les gens à avoir une représentation visuelle des données de HTTP Archive. Félicitations à tous ceux qui travaillent pour construire un Web meilleur, plus rapide et plus sécurisé, souvent gratuitement et parce qu’ils y croient.

Vous souhaitez tester notre outil par vous-même ? AB Tasty est la plateforme best-in-class pour les expérimentations, la personnalisation de contenu et les recommandations alimentées par l’IA, équipée des outils dont vous avez besoin pour créer une expérience digitale plus riche pour vos clients, rapidement. Avec l’IA intégrée et l’automatisation, cette plateforme peut vous aider à atteindre une personnalisation omnicanal et révolutionner les expériences de votre marque et de vos produits.

Vous pouvez trouver le lien de l’article original ici.

L'article Tag JavaScript d’AB Tasty : performance et rapport d’analyse est apparu en premier sur abtasty.

]]>
La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale https://www.abtasty.com/fr/resources/strategie-data-driven-homair/ Tue, 30 May 2023 12:09:33 +0000 https://www.abtasty.com/?post_type=resources&p=117867 Découvrez dans ce cas client comment Homair, spécialiste des hébergements en plein air depuis maintenant 30 ans, a élaboré une stratégie d’optimisation data-driven pour développer une expérience client personnalisée et optimale. Cette stratégie sera illustrée par un cas d’expérimentation concret, […]

L'article La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale est apparu en premier sur abtasty.

]]>
Découvrez dans ce cas client comment Homair, spécialiste des hébergements en plein air depuis maintenant 30 ans, a élaboré une stratégie d’optimisation data-driven pour développer une expérience client personnalisée et optimale.

Cette stratégie sera illustrée par un cas d’expérimentation concret, montrant comment s’adresser à différentes sources de trafic et ainsi comprendre leurs attentes et leurs besoins.

Accédez vite à leurs résultats ! 

Un site n’est jamais fixe, il faut toujours être à la page des standards, répondre aux attentes des clients, corriger des bugs et améliorer la performance

Inès Selma, Product Owner chez Homair

L'article La stratégie data-driven chez Homair : le fondement d’une expérience de réservation optimale est apparu en premier sur abtasty.

]]>
Comprendre le comportement des utilisateurs grâce aux données https://www.abtasty.com/fr/blog/comprendre-le-comportement-des-utilisateurs-grace-aux-donnees/ Mon, 30 Jan 2023 13:29:38 +0000 https://www.abtasty.com/?p=107664 Dans le cadre de notre série sur les données au service de l’expérience client, nous avons discuté avec des partenaires d’AB Tasty de la manière dont les marques peuvent utiliser les données pour mieux profiler leurs clients, comprendre leurs besoins […]

L'article Comprendre le comportement des utilisateurs grâce aux données est apparu en premier sur abtasty.

]]>
Dans le cadre de notre série sur les données au service de l’expérience client, nous avons discuté avec des partenaires d’AB Tasty de la manière dont les marques peuvent utiliser les données pour mieux profiler leurs clients, comprendre leurs besoins et établir des liens émotionnels précieux avec eux. Nous nous sommes aussi intéressés à la mesure de l’impact digital global d’une marque et à la manière de construire une vision centrée sur le client et data-driven.

Vous pouvez consulter l’introduction de notre série ici. Pour ce 8ème épisode, nous nous sommes entretenus avec Helen Wilmot, UX Director chez Dentsu International. Dentsu est l’une des plus grandes entreprises internationales du digital et du marketing. Dentsu International fournit des solutions intégrées et des services aux clients dans un éventail de disciplines variées. Helen dirige la stratégie et la recherche UX pour Dentsu.

Pourquoi les clients se tournent vers Dentsu

Dentsu est une entreprise internationale intégrée. Les gens sont souvent à la recherche des différents canaux sur lesquels ils travaillent, ainsi que la collaboration de plusieurs disciplines sous une même entité pour servir un client. Plus encore, Dentsu est une société multinationale dotée d’un réseau d’expertise international, axé sur la manière de fournir de la valeur aux clients, de sorte qu’ils se rendent compte qu’ils sont liés à quelque chose de plus grand. L’équipe chargée de l’optimisation et de l’UX est étroitement intégrée à d’autres départements, tels que la stratégie brand et digitale, le SEO et la partie business. Tous ces aspects sont pris en compte lorsqu’ils examinent l’optimisation.

Cela signifie que la croissance est l’un des principaux facteurs en jeu : « Nous sommes fermement déterminés à être customer-centric et à apporter de la valeur aux utilisateurs », déclare Helen. « Nous vivons également dans le monde réel et nous voulons lier cette valeur à une croissance réelle. Nous savons qu’être customer-centric stimule la croissance, de nombreuses études le montrent. Mais il est important que nous puissions le démontrer nous-mêmes dans nos propres comportements. »

Comprendre le comportement des utilisateurs

Helen souligne qu’il n’existe pas de méthode magique pour comprendre le comportement des utilisateurs et que, par conséquent, cela dépend souvent de ce qui est approprié pour la problématique ou le problème business en question. Dentsu combinent de nombreuses techniques lorsqu’ils cherchent à comprendre le comportement des clients, souvent en utilisant à la fois des données qualitatives et quantitatives. Dans de nombreux cas, ils récoltent un large éventail de données pour être précis : les enquêtes, les tests utilisateurs, l’IA, l’eye tracking et l’analyse des données jouent tous un rôle.

Les techniques employées dépendent du client et du business modèle. Cependant, elles sont toujours data-centric. Les chercheurs effectuent des tests utilisateurs, à la fois à distance via des études mais aussi de manière encadrée en personne. Le fait que les utilisateurs essaient quelque chose dans leur propre environnement, en utilisant leurs propres appareils, aide également Dentsu à évaluer un comportement plus naturel. Ils utilisent parfois des techniques ethnographiques, empruntées à l’anthropologie, car les chercheurs sont intégrés dans les expériences réelles des utilisateurs. En examinant l’interaction avec un sujet ou une tâche en temps réel, cette recherche est plus productive et expérimentale, mais peut aider à découvrir des problèmes plus importants. Les nouvelles technologies issues des sciences du comportement et des neurosciences permettent d’étudier les émotions, les tests de réponse implicite et le comportement oculaire.

Ce que les clients disent vouloir et comment ils se comportent réellement

Plus précisément, lorsque l’équipe d’Helen mène des enquêtes, elle examine le comportement des utilisateurs ainsi que ce qu’ils disent.

« Le test utilisateur devrait consister à observer », partage Helen. « Si l’utilisateur dit qu’il a trouvé la tâche facile, mais qu’il est clair que ce n’est pas le cas, c’est un signe pour utiliser notre esprit critique afin d’évaluer ce retour. »

Dentsu creuse donc toujours plus profondément pour étayer ces déclarations avec des données. Ils ont une approche rigoureuse de leurs recherches, y compris par l’utilisation d’une technique d’échelonnement utilisée pour aller à la cause profonde des pensées et des ressentis des gens. « Tout cela se fait avec comme base la façon dont nous savons que l’esprit des gens fonctionne. Nous savons que les gens sont incapables de se souvenir exactement de ce qu’ils ont ressenti et de prédire leur propre comportement. Cela ne veut pas dire que les expériences n’ont pas d’importance, mais en tant que chercheurs, notre travail consiste également à travailler dans le cadre de la réalité du fonctionnement de la psychologie humaine », explique Helen.

L’importance des tests et de l’expérimentation

Une autre façon pour Dentsu de valider le feedback des utilisateurs est de s’appuyer sur les AB tests. Dans le passé, des utilisateurs ont signalé certains éléments qui les motivaient, mais les AB tests n’ont pas confirmé cette information. Pour Dentsu, tester une hypothèse est une partie cruciale de leur processus d’optimisation et il est impensable qu’ils avancent avec de nouvelles idées sans les tester au préalable.

« Je pense que c’est un peu un acte d’orgueil si vous avancez sans tester les hypothèses au préalable », souligne Helen. « Le risque monte en flèche, et vous ne pouvez pas réduire le risque d’une proposition sans la tester. Même si une proposition est un succès et est conforme à l’objectif, il y a toujours des changements itératifs que vous pouvez faire. C’est la beauté de l’esprit de test et d’expérimentation. On n’a jamais fini, et nous ne pensons jamais que ce que nous faisons est parfait ».

Les tests permettent à Dentsu d’avancer rapidement. Certains tests ne fonctionnent pas toujours, mais Helen souligne que ceci apporte également une mine d’informations pour d’autres idées. Le fait de savoir que quelque chose ne fonctionne pas pour vos utilisateurs vous guide quant au contenu de votre prochain test. Et lorsque vous travaillez avec de futurs clients, cela peut vous orienter dans la bonne direction quant aux techniques actuellement efficaces pour la diffusion de messages et la persuasion psychologique.

Les KPI et les mesures du comportement des utilisateurs

Pour l’UX, l’un des principaux KPI est le NPS (Net Performance Score), tout comme pour Realise. Dans les tests utilisateurs, Dentsu examine le nombre d’erreurs qu’ils commettent. S’ils testent une certaine structure ou une arborescence, ils examinent le taux de réussite et le caractère direct du comportement utilisateur. Le NPS complète tous ces éléments car il est associé à de nombreuses études sur la croissance. Il faut également adopter une vue d’ensemble lorsqu’il s’agit de mesurer le comportement des utilisateurs : quels sont les domaines de l’entreprise qui sont affectés par les frictions sur le site web ? Il peut s’agir du support client, du paiement ou de la livraison, mais ils sont tous essentiels à l’expérience utilisateur.

Un bon parcours utilisateur

Un bon parcours utilisateur sera toujours source de revenus. Les deux sont intrinsèquement liés pour Dentsu. Si vous parvenez à créer un bon parcours utilisateur, les gens s’engagent davantage dans la marque, s’engagent davantage dans ce que vous offrez et sont plus susceptibles de faire ce que vous voulez. Mais Helen veut aller plus loin. La convivialité et les revenus sont des aspects essentiels, mais ce n’est qu’un début.

Helen explique : « Je pense que la facilité d’utilisation est l’objectif absolu que nous devons viser, et nous devons vraiment nous concentrer sur la satisfaction des clients tout en créant des expériences émotionnellement fortes. Il existe des données solides sur le lien entre l’émotion, la mémoire et la perception de la marque. En créant ces expériences riches et émotionnellement fortes, nous pouvons augmenter la valeur vie client.”

Il semble que dans le climat actuel, les gens mettent l’accent sur le résultat net et la conversion. Mais comme le dit Helen, les premiers penseurs de l’UX, tels que Donald Norman, s’intéressaient à la satisfaction pour fournir un aperçu de l’optimisation. La marque et l’expérience utilisateur sont inévitablement liées et les utilisateurs qui ont un lien émotionnel avec une marque vous donneront de plus en plus de chances d’être présents dans leur vie.

« Il est important de considérer l’enchantement comme une sorte d’étoile polaire. Si vous rendez vos utilisateurs heureux, vous rendrez les actionnaires heureux également. »

Vous pouvez en savoir plus sur notre conduite centrée sur le client en consultant notre précédent article sur la façon de devenir une entreprise guidée par les données.

L'article Comprendre le comportement des utilisateurs grâce aux données est apparu en premier sur abtasty.

]]>
Comment devenir une entreprise guidée par les données https://www.abtasty.com/fr/blog/comment-devenir-une-entreprise-guidee-par-les-donnees/ Thu, 26 Jan 2023 15:06:18 +0000 https://www.abtasty.com/?p=107462 Retrouvez l‘introduction de notre série sur les données customer-centric ici ou consultez l’épisode précédent, Comment résoudre les problèmes réels des utilisateurs avec une stratégie CRO.  Dans ce nouvel épisode de notre série sur l’approche orientée données du marketing customer-centric, nous […]

L'article Comment devenir une entreprise guidée par les données est apparu en premier sur abtasty.

]]>
Retrouvez l‘introduction de notre série sur les données customer-centric ici ou consultez l’épisode précédent, Comment résoudre les problèmes réels des utilisateurs avec une stratégie CRO. 

Dans ce nouvel épisode de notre série sur l’approche orientée données du marketing customer-centric, nous nous sommes entretenus avec Stephen Welch, Managing Director, et Ian Bobbit, Chief Analytics Officer chez Realise, afin de comprendre comment devenir une entreprise guidée par les données. Realise, qui fait partie du groupe Unlimited, aide les marques à prendre des décisions data-driven pour maximiser leur croissance.

Nous avons discuté de la manière dont les entreprises peuvent mieux se structurer pour devenir data-driven, des équipes, de l’organisation, de la tech stack et des KPIs à surveiller, ainsi que de personnalisation et de valeur vie clients.

Quels sont les principaux défis auxquels sont confrontées les entreprises qui veulent devenir data-centric ?

La première chose que Ian et Stephen ont voulu souligner est que la plupart des entreprises disposent déjà d’une grande quantité de données, mais que celles-ci sont parfois cloisonnées par les équipes. Le premier défi est de pouvoir consolider ces informations et de comprendre leur potentiel.

Un autre défi consiste à obtenir l‘adhésion des principales parties prenantes. Il faut qu’il y ait dans l’équipe un dirigeant qui souhaite tirer des enseignements des données. La présence d’une personne qualifiée, capable de gérer plusieurs équipes, aidera les entreprises à identifier les données qui décrivent leurs clients et leur comportement au jour le jour.

Donc, si nous savons que les données sont déjà là, l’autre défi est de s’assurer qu’elles sont utilisées pour tirer les bonnes conclusions. Souvent, les entreprises peuvent avoir une stratégie qui n’est pas fondée sur des preuves. Devenir data-centric, c’est être capable de reconnaître les KPIs impactants et les données sur le comportement de vos clients.

« Nous essayons de comprendre qui sont vos clients et comment ils interagissent avec votre entreprise. C’est pourquoi nous nous concentrons sur les points de contact avec eux, un élément qui nous intéresse vraiment », explique Stephen.

Transformer une entreprise pour qu’elle devienne guidée par les données

Il n’est pas facile de transformer une entreprise pour qu’elle soit véritablement guidée par les données. Les principales parties prenantes doivent être impliquées et les équipes doivent être capables de se parler. Ian et Stephen ont tous deux identifié les objectifs contradictoires des équipes comme l’une des raisons pour lesquelles les entreprises ne sont pas aussi efficaces qu’elles pourraient l’être.

« Ce que nous essayons vraiment de faire en devenant data-centric, c’est de fournir des informations plus riches et plus larges, comme le contexte autour du client qui montre ses besoins et ses comportements », explique Stephen. « Nous cherchons également à savoir comment engager l’entreprise au-delà d’un seul canal spécifique. »

L’étape initiale commence souvent par l’étude d’un périmètre riche en données, utilisé pour prouver l’efficacité du changement dans un domaine spécifique et obtenir l’adhésion des parties prenantes de l’entreprise, au sens large. Ensuite, il s’agit de poser aux dirigeants de l’entreprise des questions telles que : que veulent-ils atteindre ? Où veulent-ils arriver ? Où en sont-ils actuellement ? Tous ces éléments permettent d’identifier les données que l’entreprise concernée devrait examiner pour construire sa courbe de maturité des données.

La quête de la personnalisation

Nous savons, grâce à nos clients chez AB Tasty, que la personnalisation est l’une des caractéristiques les plus recherchées en matière de CX. Et ce sont les données qui permettent d’y parvenir. Selon Realise, l’une des raisons pour lesquelles il est si difficile de réussir, c’est que l’idée de « personnalisation » a une signification différente selon les personnes. Ian souligne qu’une fois que vous commencez à personnaliser, vous devez disposer des ressources nécessaires pour créer du contenu pour chaque segment différent, ce qui, à son tour, peut entraîner des flux de travail et des messages très élaborés.

« Cela demande énormément de données, de réflexion et de planification, car une fois que vous avez commencé à automatiser les chaînes personnalisées, cela devient assez vite compliqué », explique Stephen.

Ian et Stephen se réjouissent tous les deux de l’apparition sur le marché de nouvelles technologies permettant cela, mais ils invitent à la prudence quant à l’amélioration réelle des résultats des entreprises, de l’efficacité et de la satisfaction globale des clients.

La Valeur Vie Client

Ce qu’ils apprécient en tant que métrique est la CLV (« Valeur Vie Client »), complémentaire à l’examen de vos données d’une manière holistique. À l’approche de périodes plus difficiles pour les entreprises, il est très important de pouvoir se concentrer sur la valorisation de sa marque. Ian et Stephen sont enthousiastes à l’égard des marques qui se concentrent moins sur la valeur transactionnelle de leur marketing.

Stephen a parlé d’une marque qui a analysé les indicateurs de ses mailings sur une année pour calculer l’augmentation incrémentale, plutôt que de regarder la valeur transactionnelle de chacun : « Quoi que vous regardiez, si vous ne tenez pas compte de l’affinité et de l’engagement à plus long terme pour la valorisation future, vous manquez un truc ».

Les programmes de fidélisation des clients font également partie de la CLV et Realise travaille dur pour aider les entreprises à les améliorer. Il s’agit notamment de comprendre qui sont vos clients et qu’est-ce qu’ils attendent de votre marque, ainsi que d’identifier les indicateurs cibles que vous espérez atteindre grâce aux programmes de fidélisation. La mesure de la fidélisation peut être une tâche difficile et le coût de gestion de tels programmes est souvent élevé. Les entreprises doivent créer une analyse de rentabilité, avec des attentes et des indicateurs de réussite clairs.

Les KPIs d’une entreprise guidée par les données

Il n’existe pas deux entreprises identiques, mais nous avons demandé à Stephen et Ian de nous donner une idée des KPIs qu’ils recherchent pour obtenir cette vision globale dont ils ont parlé. Il est important de voir à quels rapports les équipes accèdent et quels indicateurs elles utilisent au quotidien. Pour savoir avec certitude que les entreprises envisagent une croissance future, il est essentiel de mesurer l’acquisition, le churn et le NPS.

L’engagement est également une mesure cruciale pour analyser la valeur vie clients (CLV). Stephen ajoute que les entreprises devraient également examiner leurs dépenses. Parfois, elles regardent le bénéfice d’une action particulière, mais ne font pas de comparaison pour voir si elles auraient pu obtenir davantage.

Chaque entreprise peut être différente, mais vous pouvez aborder la CLV avec un objectif différent à chaque fois – votre entreprise (combien de bénéfices elle réalise), votre client (comment il se comporte) et votre personnel (dispose-t-il des bons outils pour l’aider à prendre des décisions). 

 


 

Vous voulez en savoir plus sur les données ? Rendez-vous ici pour le huitième volet de notre série sur les données customer-centric ! 

L'article Comment devenir une entreprise guidée par les données est apparu en premier sur abtasty.

]]>
Construire une culture customer-centric grâce aux données https://www.abtasty.com/fr/blog/construire-une-culture-customer-centric-grace-aux-donnees/ Fri, 20 Jan 2023 14:29:34 +0000 https://www.abtasty.com/?p=106303 Nous vous invitons également à lire l’introduction de notre série sur les données customer-centric, ou l’article précédent, Mesurer son impact digital. Pour le cinquième volet de notre série sur l’approche data-driven du marketing client, nous avons rencontré notre partenaire Sophie […]

L'article Construire une culture customer-centric grâce aux données est apparu en premier sur abtasty.

]]>
Nous vous invitons également à lire l’introduction de notre série sur les données customer-centric, ou l’article précédent, Mesurer son impact digital.

Pour le cinquième volet de notre série sur l’approche data-driven du marketing client, nous avons rencontré notre partenaire Sophie D’Souza, Vice-Présidente de l’optimisation chez Spiralyze, et Rémi Aubert, co-CEO et co-fondateur d’AB Tasty, qui nous parlent de ce que signifie réellement une culture customer-centric, des raisons pour lesquelles il est si important pour les entreprises de la favoriser, des données qui permettent la création et l’entretien d’une telle culture, ainsi que les défis et les avantages qui en découlent.

 

Comment définiriez-vous une customer-centric ?

Tout au long de cette série, nous avons abordé les moyens d’utiliser et d’analyser les données, les indicateurs et l’expérimentation en général pour mieux comprendre vos clients, répondre à leurs besoins et forger des liens émotionnels avec eux. Toutes ces choses contribuent à atteindre l’objectif ultime pour les marques, à savoir construire une vision et une culture customer-centric.

Mais qu’est-ce qui définit une culture customer-centric ? Pour Sophie, « être centré sur le client signifie que le client est au cœur de l’entreprise. C’est l’ensemble des valeurs partagées, des attentes, des pratiques et des décisions qui guident et tiennent informés les membres des équipes sur les clients et leurs envies. Et pour parvenir à ceci, il faut veiller à ce que les données ne soient pas cloisonnées, qu’elles ne soient pas segmentées dans un service particulier comme la direction générale ou l’équipe customer success : elles imprègnent tous les aspects de l’entreprise, les systèmes formels et informels, les comportements, les décisions business et les valeurs tournent toutes autour du client. »

Selon Rémi, l’orientation client consiste également à “donner la priorité aux clients plutôt qu’aux prospects dans votre travail quotidien. C’est plus facile quand on est une petite entreprise, mais il est vital de garder cet état d’esprit en se développant. L’acquisition de nouveaux clients est importante, mais nous devons nous rappeler que nos clients existants nous ont déjà accordé leur confiance. C’est à nous de leur rendre la pareille en leur offrant des expériences positives, ou du moins un excellent support client. Le but est de maintenir ces expériences positives, et de transformer les expériences négatives en expériences positives pour les retenir.”

« Par-dessus tout, être centré sur le client signifie ne pas être mercenaire : c’est le fondement de la croissance organique, où le bouche-à-oreille des clients satisfaits se répand et transforme les prospects en nouveaux clients. »

 

Pourquoi la démocratisation des données est-elle importante ?

« La démocratisation des données est essentielle pour construire une culture customer-centric », explique Sophie. « Des données partagées, accessibles et qui ne sont pas cloisonnées à un seul département sont le meilleur moyen d’acquérir une connaissance du client. Il est tout aussi important de disposer d’un système pour collecter, stocker, interpréter et agir sur ces données chaque fois que cela est possible. »

« L’expérimentation constante sur les produits et les sites web a mis en lumière l’importance du feedback – à la fois qualitatif et quantitatif – et a prouvé sa valeur pour fournir des informations à l’organisation. Les entreprises comprennent désormais la signification d’une culture data-driven, et la diffusion de ces informations dans toute l’organisation est le moteur de l’orientation client. »

Rémi note qu’au cours des dix dernières années, l’accent a été mis sur la collecte des données. « Mais aujourd’hui, nous sommes dans une phase d’interprétation de  la data, afin d’agir sur elle. C’est une phase de maturité car nous connaissons les bons KPI à utiliser pour apporter de la valeur. Demain, nous serons capables d’automatiser ces données, mais peu d’organisations ont pour le moment atteint cette capacité. »

 

Quels types de données sont nécessaires pour construire une culture customer-centric ?

« Une culture customer-centric est un modèle d’entreprise axé sur les données, où les données qualitatives et quantitatives sont essentielles, et où l’expérimentation joue un rôle vital », explique Sophie. « Les données quantitatives nous donnent un indice remarquable sur la direction à prendre. Elles sont souvent dictées par la centricité du produit – comment les clients interagissent avec les produits et les actions qu’ils entreprennent. Les données qualitatives, quant à elles, sont dictées par les besoins des clients. En les associant, vous obtiendrez des tonnes d’informations précieuses. Vous pouvez les recueillir à partir de nombreuses sources différentes : l’engagement et la création de communautés par exemple, encourager les clients à laisser des avis, poser des questions sur les réseaux sociaux, etc. »

« Mais l’expérimentation est un élément central. Elle nous permet de mesurer directement la façon dont les individus qui viennent voir notre produit ou notre site web interagissent avec nous, et les actions à entreprendre selon leur comportement. »

Rémi est d’accord : « Même si nous comprenons l’aspect quantitatif ou l’aspect qualitatif de nos données, nous ne pouvons pas mesurer l’impact du comportement des clients si nous ne sommes pas capables de modifier ces comportements. C’est là que les tests et la personnalisation entrent en jeu. »

« C’est bien d’identifier les problèmes, mais si nous ne pouvons pas proposer des solutions et mesurer leur efficacité, nous ne pouvons pas adapter notre culture customer-centric à de nouveaux besoins ». La complémentarité entre les données quantitatives et qualitatives est essentielle. “Les données quantitatives nous aident à identifier les problèmes, tandis que les données qualitatives permettent généralement de trouver des solutions. »

Sophie est d’accord : « L’expérimentation nous permet de mettre le client au premier plan, car nous pouvons tester différentes solutions en fonction des problèmes que nous avons identifiés. Ainsi, plutôt que de déployer une idée que nous avons jugée en interne comme étant la meilleure, l’expérimentation permet au client de guider nos actions. De cette façon, nous savons que nous répondons à des besoins réels. »

 

Y a-t-il des problèmes liés à l’acquisition des données nécessaires ?

Selon Rémi, le principal problème est lié à une collecte de données défectueuse : « Nous voyons parfois des données biaisées en raison d’une collecte incomplète. Les données biaisées sont inutiles. Un autre problème que nous rencontrons souvent est celui de la collecte excessive : les gens collectent beaucoup plus de données qu’ils n’en ont besoin, puis se retrouvent perdus dans un déluge d’informations impossibles à analyser et dont ils ne peuvent pas tirer de conclusions. L’ennemi des bonnes données est le trop plein de données, car on ne peut pas les organiser. »

« Nous avons appris que trop de données est synonyme de désordre et de distraction », ajoute Sophie. « Il n’existe pas de système global qui soit suffisamment efficace pour traiter autant de données et les rendre exploitables. L’objectif des entreprises aujourd’hui, c’est de concevoir des systèmes pour capturer les informations dont nous avons besoin à notre échelle et les diffuser, tout en minimisant le risque issu de l’interprétation individuelle. »

 

Quels sont les défis à relever pour réussir la création d’une culture customer-centric ?

Rémi raconte l’histoire d’un client, bijoutier de luxe. « Il est très difficile pour des marques comme celle-là, qui ont des chartes graphiques et des lignes éditoriales strictes, d’être centrées sur le client, car elles ont peu de flexibilité pour tester. Ces marques sont très puissantes : vous ne pouvez pas faire la moindre modification sans validation par toute l’équipe. Ainsi, même si vous savez que vous pouvez améliorer le parcours ou l’expérience du client sur le site web, vous ne pouvez pas mettre en œuvre de changements car la politique de la marque l’interdit. Le résultat ? Même si vous avez des données prouvant qu’un changement donné améliorera la satisfaction des clients, l' »intégrité » de la marque ne le permettra pas. »

Sophie constate que de nombreux progrès ont été réalisés, mais que certains obstacles subsistent. « Pour être une organisation data-driven, il faut être ouvert d’esprit et être aussi ouvert à l’idée d’expérimentation : une culture customer-centric est fondée sur l’innovation et le changement constant pour répondre aux besoins des clients. Un grand défi aujourd’hui est le fait que, dans une organisation, tout le monde n’est pas sensible au rôle de la data, bien que l’expérimentation et la personnalisation des sites web et des produits ouvrent la voie à son adhésion. »

Rémi et Sophie s’accordent à dire que dans une organisation data-driven, tous les collaborateurs, et ceci à tous les niveaux, sont habilités à contribuer au projet, car ce sont les données et non l’expérience qui comptent. Un nouvel employé peut proposer une hypothèse de test tout aussi valable que celle suggérée par un CEO. C’est ce type de démocratisation qui se produit chez Hanna Andersson, un fabricant de vêtements pour enfants où tous les employés ont la parole et sont encouragés à soumettre des idées de test. Les meilleures sont mises en œuvre, comme dans cette étude de cas AB Tasty, où un petit changement dans l’image produit a eu un grand impact.  

 

Comment une culture customer-centric profite-t-elle aux entreprises/marques ?

Selon une étude de Deloitte et Touche, les entreprises axées sur le client sont 60 % plus rentables que leurs homologues axés sur le produit. Les entreprises qui placent le client au centre de leur organisation bénéficient d’une augmentation de la valeur vie client et d’une réduction du churn.

« Il y a de nombreux avantages concrets, notamment une augmentation de la rétention, de la fidélité des clients, des références… L’efficacité opérationnelle est un avantage majeur, et elle est alimentée par l’expérimentation. Cela signifie que nous ne nous contentons pas de deviner, mais nous consacrons notre temps là où il est le plus précieux : à répondre aux besoins réels des clients. »

« Ensuite, il y a l’innovation. Lorsque nous recevons des commentaires des clients, que ce soit en ligne ou hors ligne, les produits sont modifiés en conséquence. Cela nous permet d’être plus créatifs en proposant des solutions aux problèmes des clients plutôt que de petites itérations. »

Rémi ajoute qu’il y a également un avantage interne important à être customer-centric. « Lorsque vos expérimentations sont réussies et que vous avez augmenté la satisfaction des clients, vos clients sont heureux et vos équipes aussi. Cela renforce leur confiance dans le produit qu’ils ont développé. C’est très gratifiant. »

Sophie acquiesce avec enthousiasme : « Cela mobilise tout le monde autour du client. Quel que soit le rôle que vous jouez dans une organisation, vous pouvez voir le bénéfice de votre travail. »


 

Vous voulez en savoir plus sur les données ? Rendez-vous ici pour le sixième volet de notre série sur les données customer-centric ! 

L'article Construire une culture customer-centric grâce aux données est apparu en premier sur abtasty.

]]>
Mesurer son impact digital https://www.abtasty.com/fr/blog/mesurer-son-impact-digital/ Thu, 19 Jan 2023 10:50:23 +0000 https://www.abtasty.com/?p=106045 Si vous le souhaitez, vous pouvez retrouver l’introduction de notre série sur les données customer-centric ici ou lire l’épisode précédent, Créer des liens émotionnels avec les clients grâce aux données. Pour le quatrième volet de notre série sur l’approche data-driven […]

L'article Mesurer son impact digital est apparu en premier sur abtasty.

]]>
Si vous le souhaitez, vous pouvez retrouver l’introduction de notre série sur les données customer-centric ici ou lire l’épisode précédent, Créer des liens émotionnels avec les clients grâce aux données.

Pour le quatrième volet de notre série sur l’approche data-driven du marketing client, nous avons rencontré Filip von Reiche, CTO of Integrated Customer Experiences chez Wunderman Thompson, et Gaëtan Philippot, Data Scientist chez AB Tasty. Nous avons discuté des avantages et des inconvénients des vanity metrics, de leur différence avec les actionable metrics et du rôle de tous les différents indicateurs qui existent pour mesurer l’impact digital d’une marque.

 

Commençons par la transformation digitale. Qu’est-ce que c’est, et pourquoi les entreprises s’y intéressent-elles autant ces dernières années ? 

La transformation digitale, telle que définie par Salesforce, est le processus qui consiste à utiliser les technologies digitales pour créer de nouveaux processus business, une nouvelle culture et de nouvelles expériences client – ou modifier les processus existants – afin de répondre à l’évolution des besoins des entreprises et du marché. Elle a débuté à la fin du XXe siècle et a connu une accélération rapide au cours des deux premières décennies du XXIe siècle, se propageant à travers presque tous les secteurs d’activité.

Résister à la transformation digitale est risqué. TechTarget raconte l’histoire funeste de Blockbuster LLC, une entité autrefois internationale possédant des magasins de location de vidéos aux États-Unis et dans le monde entier. Mais sa présence et sa pertinence ont décliné précipitamment à partir de 2005 environ, lorsque Netflix a exploité les technologies émergentes et a capitalisé sur l’appétit des consommateurs pour le divertissement à la demande, fourni par les services de streaming alors nouvellement disponibles.  

Mais la transformation digitale peut aussi être considérée comme un mot à la mode, dit Filip, « dans le sens où les gens pensent que c’est quelque chose qu’ils doivent faire ». À l’origine, la transformation digitale a été motivée par la volonté des marques d’être plus compétitives – dans la manière dont elles gagnent des parts de marché, dans la manière dont elles sont perçues, etc. Et la transformation digitale était le moteur qui leur permettait d’atteindre ces objectifs, de réagir plus rapidement et de mesurer leur réel impact.

« Au départ, elle visait à donner aux marques une présence en ligne, et bien sûr, elle a atteint cet objectif. Mais au fil du temps, elle a acquis de nouveaux usages. Son dernier objectif est d’aider les marques à créer des expériences personnalisées en leur fournissant le bon contenu et le bon flux, ce qui leur permet d’avoir de meilleures conversations avec leurs clients, et conduit à plus de conversions. »

Pour Gaétan, « ce processus se base sur une logique de mimétisme : les gens disent “Amazon fait mille expériences par an, donc nous devons faire de même”, mais tout le monde n’a pas les vastes ressources d’Amazon, ou ne peut pas espérer les mêmes résultats. »

Mais si l’objectif est d’avoir des expériences de marque personnalisées, Amazon n’est pas un site web où les gens veulent passer beaucoup de temps. « Au contraire, les gens vont sur Amazon parce qu’ils peuvent y entrer, acheter ce qu’ils veulent et en sortir rapidement. C’est totalement impersonnel », explique Filip. « Cependant, si je passe plus de temps avec une marque, c’est parce que je veux un produit ou un service spécifique qu’elle propose, et j’attends une personnalisation de la part des marques avec lesquelles je suis engagé. »

Pour que la personnalisation soit un succès, il faut que vos perceptions soient constamment validées avant la mise en ligne d’un site web ou d’une campagne. “Plus de la moitié de toutes les campagnes que les clients réalisent à l’aide d’AB Tasty est liée à la personnalisation ou à l’expérimentation avec de la personnalisation”, remarque Gaétan. “Elles sont la base sur laquelle tout le reste est construit”.

 

Quelles sont les différences entre les vanity metrics et les actionable metrics ?

L’utilisation des vanity metrics varie selon les secteurs, les niveaux et les clients. La seule constante est que les vanity metrics sont très séduisantes car elles procurent ce que Filip appelle « une montée de dopamine qui illumine votre cerveau. Et dans certains cas, en fonction de ce que vous essayez d’obtenir avec votre personnalisation, cette « montée » peut être suffisante. Mais dans l’idéal, il vous faut savoir quel sera l’impact à long terme. »

Le problème est que cet impact n’est pas toujours facilement mesurable. « Prenons l’exemple de l’immobilier. Ce n’est malheureusement pas aussi simple que la cible voit un message personnalisé, la cible clique, la cible achète une maison. Ne serait-ce pas formidable ? En réalité, le laps de temps entre cette personnalisation initiale et l’achat peut être de 30, 60, 90 jours, voire plus. Dans certains cas, vous avez besoin d’une vanity metrics comme les pages aimées, les favoris, les partages, etc., comme indicateur pour vous dire où vont les choses. Mais il est toujours préférable d’avoir une mesure de conversion en arrière-plan pour vous dire ce que tout cela signifie vraiment », explique Filip. 

« C’est là que des analyses plus approfondies entrent en jeu. Si vous avez un client qui est engagé mais qui ne convertit pas, vous devez découvrir quel est l’obstacle et trouver un moyen de le contourner. Si vous pouvez proposer une personnalisation qui répond aux besoins du consommateur et fait tomber cette barrière, tant mieux. Mais vous devez toujours respecter la confiance que le consommateur a placée en vous, en acceptant de vous partager ses données essentielles à votre personnalisation. Vous ne pouvez pas simplement dire « Bonjour ! Nous avons vu que vous regardiez sur notre site web !”  C’est effrayant. Mais vous pouvez indiquer que vous, en tant que marque, êtes présent et à l’écoute des besoins de vos consommateurs. C’est un équilibre délicat. »

 

Les vanity metrics peuvent-elles être transformées en actionable metrics ?

Il convient de souligner que l’utilisation d’un indicateur « superficiel » ou d’une vanity metric est toujours justifiée lorsqu’il y a une réponse notable, qu’elle soit positive ou négative, car elle peut inciter une entreprise à creuser et analyser davantage. Pour ce faire, elle se tourne vers des actionable metrics et ainsi trouver des réponses.

Gaétan remarque : « Mais il est important de se rappeler que tout n’est pas immédiatement actionnable : parfois, le gain se fera plus tard. La valeur de chaque type d’indicateur varie selon le secteur et aussi selon la maturité du client. Par exemple, les clients e-commerce qui débutent testeront toutes sortes de choses avant de savoir quelles KPI sont les plus utiles et offrent les meilleurs résultats pour leurs activités. »

« Toute la discussion sur les indicateurs doit commencer dès que vous élaborez votre stratégie de personnalisation ou de test », ajoute Filip. « Vous aurez un objectif en tête : atteindre un certain type d’awareness ou d’engagement, ou un certain nombre de conversions, etc. Tout ce que vous testez et que vous voulez utiliser comme KPI doit s’aligner sur cet objectif. Si une vanity metric peut soutenir cet objectif, alors il est approprié. Si la conversion finale est nécessaire pour prouver une hypothèse, alors nous devons trouver comment l’obtenir. Parfois, cela peut être plus compliqué et impliquer des intégrations hors ligne, mais c’est généralement ainsi que cela fonctionne. »

 

Quelles questions les entreprises doivent-elles se poser pour trouver les bons indicateurs à suivre ?

Pour Filip, une question essentielle concerne la portée du projet que vous entreprenez. Mesurez-vous une campagne entière ou la décomposez-vous en plusieurs parties ? Un champ d’application étendu est plus facile à mesurer, ce qui signifie que moins de mesures sont nécessaires en général. Un champ d’application détaillé est plus complexe, car la mesure sur une base individuelle soulève des questions sur la manière de déterminer l’identité, de relier les conversions à des individus spécifiques, etc.

Mais la question la plus fondamentale est :  » Dois-je tester et personnaliser mes expériences ? « . Et la réponse de Filip est « Bien sûr que oui ! Mais il existe beaucoup de chemins différents possibles pour faire ce genre de choses. L’un d’entre eux consiste à demander à une société comme Wunderman Thompson de vous aider à effectuer une analyse, en jouant le rôle de consultant pour vous montrer ce qui fonctionne et ce qui ne fonctionne pas, les points de blocage, les points à améliorer, etc.

« Mais si vous préférez faire vous-même appel aux utilisateurs, gardez en tête que du point de vue de l’expérience client, vous devez tester et découvrir la meilleure façon d’interagir avec lui.  Comment pouvez-vous leur montrer que vous voulez les aider, mais sans être intrusif ? A titre de comparaison, nous pouvons prendre comme exemple l’expérience vécue en rentrant dans un magasin, en répondant à la question : « Comment voudrais-je, en tant que client, être accueilli, aidé, guidé ? ». Comprendre cela est la meilleure façon de commencer un cadre de personnalisation.”

 

Comment mesure-t-on la valeur vie client ?

La valeur vie client (CLV) est la marge de bénéfices qu’une entreprise s’attend à réaliser pendant toute la durée de sa relation commerciale avec un client moyen. Un article de CleverTap explique plus en détail : « Parce que la CLV est une projection financière, elle exige qu’une entreprise fasse des hypothèses éclairées. Par exemple, afin de calculer la CLV, une entreprise doit estimer la valeur moyenne du panier, le nombre moyen de transactions et la durée de la relation business avec un client donné. Les entreprises établies qui disposent de données historiques sur leurs clients peuvent calculer avec plus de précision la valeur vie client » Un peu brutal, mais c’est ainsi que cela fonctionne.

Un exemple visuel du calcul de la valeur vie client à l’aide des indicateurs de vente, de transactions et de rétention – qui peuvent tous être impactés par l’expérimentation. 

Customer Lifetime Value: What is it and How to Calculate | CleverTap

Source: CleverTap

Maintenant, où trouver ces précieuses données historiques sur les clients ?

« Les CDP jouent un rôle essentiel dans la mesure de la CLV, car elles peuvent combiner des données provenant de dizaines de sources différentes pour retracer tout l’historique des interactions d’un client avec une marque, depuis ses expériences web et mobile jusqu’à ses expériences en magasin et avec le service client. Avec ces données, vous pouvez mesurer combien de temps vous avez interagi avec ce client, quelle a été l’intensité de son engagement, quelles sont les choses que vous offrez et qui l’intéressent », explique Filip.

« De toute évidence, si un consommateur fait le choix de votre marque depuis très longtemps, il s’attend à un certain niveau de personnalisation de votre part. Il va s’attendre à l’accolade chaleureuse et à la conversation amicale que vous avez généralement avec une personne que vous connaissez depuis des années, et pas seulement à un bonjour rapide et à une conversation de courtoisie, que vous offrez à une personne que vous venez de rencontrer. La personnalisation mérite qu’on s’y attarde, car mieux vous connaissez vos clients, plus longtemps vous pouvez poursuivre votre conversation avec eux. Ceci se traduit par de la fidélité et de la rétention et, espérons-le, par des recommandations. »

Il existe des techniques pour maximiser la CLV, notamment la segmentation, la personnalisation, la diversification des points de contact, du cross-selling et du up-selling, pour n’en citer que quelques-unes.

Dans l’économie actuelle, où les marchés sont encombrés de concurrents qui se disputent les mêmes clients, l’engagement et la conversion sont essentiels au succès de toute entreprise.


 

Vous voulez en savoir plus sur les données ? Rendez-vous ici pour le cinquième volet de notre série sur les données customer-centric ! 

L'article Mesurer son impact digital est apparu en premier sur abtasty.

]]>