Mise à jour pour le remplacement de FID par INP (mars 2024)
Pour évaluer la performance d’une page web dans un environnement contrôlé (en laboratoire), nous nous appuyons généralement sur le score Google Lighthouse. Mais comment mesurer et évaluer l’expérience réelle des utilisateurs ? Suivre l’évolution de chaque métrique est un défi, d’autant plus qu’il manque souvent un score unifié.
C’est pourquoi nous sommes ravis de vous présenter le User eXperience Rating (UXR) : un score permettant d’évaluer l’expérience réelle des utilisateurs.
Dans cet article, nous allons décrire ce qu’est l’UXR, comment le mesurer, et comment Speetals peut vous aider à commencer.
Qu’est-ce que l’UXR ?
L’UXR (User eXperience Rating) est une nouvelle méthode pour mesurer et évaluer l’expérience utilisateur réelle en utilisant les données des sessions enregistrées par un outil de Real User Monitoring (RUM).
C’est un système de notation simple qui évalue la qualité des expériences vécues par les utilisateurs de votre site web. Inspiré par Google Lighthouse, l’UXR agrège toutes vos métriques en une seule valeur, vous permettant de visualiser facilement l’évaluation globale aux niveaux du domaine et des pages.
Chaque métrique est associée à un poids : plus une métrique est pondérée, plus elle influence le score global UXR (moyenne pondérée).
Contrairement au score Lighthouse, basé sur la moyenne pondérée des valeurs des métriques, l’UXR se base sur la distribution des pourcentages “bons” de chaque métrique. Par exemple, selon le CrUX (Chrome User Experience Report), 76 % des utilisateurs suivis ont bénéficié d’un LCP (Largest Contentful Paint) dans la catégorie “Bon”. Le poids UXR pour le LCP sera appliqué à ces 76 %.
Un bon score UXR signifie qu’un site web ou une page web offre une bonne expérience utilisateur.
Pondération et formule de l’UXR :
À partir du 12 mars 2024, la métrique INP (Interaction to Next Paint) remplacera le FID (First Input Delay). Pour nous aligner avec ce changement, nous mettons à jour la formule de l’UXR comme suit :
Metric | Weight |
Largest Contentful Paint (LCP) | 30% |
Interaction to Next Paint (INP) | 20% |
Cumulative Layout Shift (CLS) | 20% |
First Contentful Paint (FCP) | 10% |
Time To First Byte (TTFB) | 20% |
First Input Delay (FID) | 0 |
UXR = (Good_LCP x 30 %) + (Good_CLS x 20 %) + (Good_INP x 20 %) + (Good_FCP x 10 %) + (Good_TTFB x 20 %).
Pour utiliser la formule UXR, ouvrez ce modèle Google Sheets et faites votre propre copie.
Avant le 12 mars, la formule UXR utilisait les pondérations suivantes :
Metric | Weight |
Largest Contentful Paint (LCP) | 30% |
First Input Delay (FID) | 10% |
Cumulative Layout Shift (CLS) | 20% |
First Contentful Paint (FCP) | 10% |
Time To First Byte (TTFB) | 20% |
Interaction to Next Paint (INP) [experimental] | 10% |
Code couleur de l’UXR :
Nous suivons le même code couleur que Lighthouse :
- 0 à 49 (rouge) : Mauvais
- 50 à 89 (orange) : À améliorer
- 90 à 100 (vert) : Bon
UXR dans Speetals :
Prenons un exemple du score UXR pour le site Vinted, pour une audience basée en France. La capture d’écran ci-dessous, issue de Speetals, montre la distribution de chaque métrique pour le mois de janvier 2023 sur des appareils desktop.
UXR = 61/100
Nous pouvons également suivre l’évolution du score UXR dans le temps en cliquant sur le bouton “UXR over time”
Avec ce graphique, nous pouvons facilement comparer l’évolution du score UXR sur Mobile et Desktop. Dans l’exemple ci-dessus, le score UXR pour Mobile est mauvais (rouge), tandis que celui pour Desktop nécessite des améliorations (jaune).
=> Vérifiez le score de vitesse de votre site ici.
En quoi est-ce différent du score Lighthouse ?
L’UXR est un nouveau score conçu pour offrir une vision globale de l’expérience utilisateur. Les scores UXR sont calculés à partir de données réelles d’utilisateurs collectées sur le terrain, et non à partir d’expériences en laboratoire ou d’outils synthétiques.
Le score Lighthouse est basé sur des données de laboratoire (outils synthétiques) dans un environnement contrôlé et ne représente pas un ensemble de sessions utilisateurs. De plus, il est impossible d’appliquer le scoring Lighthouse aux données terrain, car les métriques utilisées ne sont pas les mêmes (par exemple, le Total Blocking Time (TBT) ne s’applique pas aux données terrain).
Différences dans la pondération :
Metric | Lighthouse (V10) weight | UXR weight |
Largest Contentful Paint (LCP) | 25% | 30% |
First Input Delay (FID) | NA | 0 |
Cumulative Layout Shift (CLS) | 25% | 20% |
First Contentful Paint (FCP) | 10% | 10% |
Time To First Byte (TTFB) | NA | 20% |
Interaction to Next Paint (INP) [experimental] | NA | 20% |
Speed Index (SI) | 10% | NA |
Total Blocking Time (TBT) | 30% | NA |
Time To Interactive (TTI) | 10% | NA |
Réflexions finales :
Ce que nous avons abordé ici est une nouvelle initiative pour mesurer et évaluer l’expérience réelle des utilisateurs. L’objectif de l’UXR est de rendre les données de Real User Monitoring (RUM) plus simples à analyser et à comparer dans le temps, tout en offrant un score global basé sur les données des utilisateurs.
Nous encourageons la communauté de la performance web ainsi que les autres fournisseurs d’outils à tester le score UXR, à l’évaluer et à partager leurs retours.
Un grand merci à Dave Smart et à toutes les personnes qui ont examiné la formule et les pondérations du score UXR.