Pratiques douteuses dans la publication des avis de consommateurs. Vers une norme francaise et internationnale.

http://www.performance-numerique.com/article-avis-de-consommateurs-la-publication-des-avis-de-consomateurs-114452051.html

 

La publication des avis est sans doute l’étape la
plus pernicieuse dans la gestion des avis. En effet, selon la manière
dont les avis sont présentés et expliqués, ils peuvent
aisément induire en erreur le consommateur et le tromper.

Prenons quelques exemples de pratiques pour lesquelles le doute est permis :

  1.  Le tri des avis
  2. L’affichage « arrangé » des avis
  3. Une information de détail qui ne correspond pas à l’information synthétique
  4. Des classements peu crédibles
  5. Des avis trop anciens

Je propose de détailler, avec des exemples, ces différents cas.

  1. 1.      Le tri des avis

Le tri des avis peut s’effectuer à différentes étapes du traitement des avis.

Quelques exemples :

  •  Des outils permettent de ne publier que les avis qui sont positifs, ou qui
    « arrangent ». Ces outils sont proposés en marque blanche, la plupart du temps.
  •  Sur certains sites, le professionnel qui est noté peut demander à ne plus
    être noté. C’est le cas de Pages Jaunes.
  •  D’autres sites utilisent les avis pour créer une pression sur les professionnels : cas de Yelp,
    qui vient de racheter Qype en Europe, qui a été soupçonné de
    chantage aux avis, aux USA : le professionnel devait devenir
    client pour que les avis les plus négatifs ne soient pas publiés.  

 

  1. 2.      L’affichage arrangé des avis

Il y a encore quelques mois, sur un site de vente de
produits high tech, chaque produit était affiché avec un nombre d’avis
incroyable : souvent plus de 100 avis. L’affichage
de ces avis s’effectuait par ordre décroissant, et par pages de
quelques avis (7 maximum de mémoire). Donc il était fréquent de devoir
parcourir plus de 40 pages d’avis pour voir des avis avec
des notes inférieures à 10/10. Cette pratique est révolue, mais…

Un autre site de produits high tech a mis en place
une pratique pour le moins questionnable. En effet, j’ai pris un exemple
pour l’illustrer au moment des fêtes de fin
d’année : un appareil photo, le Nikon D5100.

 

Cette copie d’écran permet de voir qu’il s’agit du premier produit promu par le site à gauche, au moment de Nöel.

Cet appareil est proposé en plusieurs tarifs,
dépendant de packages différents selon le nombre d’optiques qui
accompagne le boitier nu, ou selon les housses et accessoires
joints.

Ce produit est proposé en

-        1 package d’entrée de gamme, avec un
seul objectif, aux prix de 599, 644 et 703 euros

-        1 package de haut de gamme, avec deux
objectifs, aux prix de 699 et 812,90 euros

A partir du même appareil photo, je constate que les
3 offres les moins chères collectent des notes moyennes, sans plus, qui
sont les mêmes quel que soit le prix :

 

Les 3 offres affichent les 7 avis suivants, qui curieusement ont la même note :

 

Les deux offres de haut de gamme, par contre,
affichent des avis radicalement différents, qui n’ont aucun lien avec
les 7 premiers avis, et qui placent le niveau de satisfaction
vraiment au-dessus :

 

 

 

 

 

On pourrait imaginer que, puisque le package proposé
est différent, cela peut expliquer les écarts. Plusieurs questions
persistent cependant :

  1.  Il s’agit toujours du même appareil
  2.  L’objectif
    vendu dans le package
    d’entrée de gamme est le même que l’un des deux proposés dans le
    package haut de gamme. Le seul objectif de plus suffit-il à expliquer
    les écarts d’avis ? ou à expliquer que les avis
    soient différents ? 
  3.  Pourquoi les avis sont-ils
    présentés par « groupe d’offres » sinon pour favoriser la vente du package haut de gamme? 
  4.  Pourquoi les notes de la première
    série sont-elles toutes identiques autour de 3/5 ? 
  5.  … et celles de la seconde série toutes quasi identiques autour de 5/5 ?

Je laisse le lecteur se faire une opinion.

Autre exemple très fin : celui d'un site grand public féminin.

Le site présente des produits, avec la mise en avant, très tôt dans le parcours d’achat, des notes laissées par les internautes.

Ce qui est intéressant, c’est la façon dont les
notes sont affichées. Ainsi, ce produit est montré avec 4 étoiles et
demie. C’est normal, puisque la moyenne des notes affichées
est exactement de  4,63 /5 :

 

 

 

A contrario, ce produit qui obtient une note de 3,67 /5 est affiché avec 4 étoiles :

 

 

Qu’est ce qui justifie que ce produit ne soit pas
affiché avec 3,5 étoiles, ce qui correspondrait à la même règle
d’affichage que le produit précédent ? Il s’agit bien d’un
affichage trompeur pour le consommateur.

Par ailleurs, les avis s’affichent avec des titres
choisis par le site lui-même. Cela ne permet pas à un client qui
s’exprime de se distinguer en mettant en avant un titre
parlant. Cela nuit à la lecture des avis, et masque beaucoup le sens
exprimé par les clients :


 

 

  1. 3.      Une information de détail qui ne correspond pas à l’information synthétique

La note moyenne exacte n’est pas toujours affichée,
ce qui rend difficile pour le consommateur l’appréciation des avis, et
surtout en cas de notes proches, ne permet pas de
distinguer deux produits.

Sur le site précédent, par exemple, on peut supposer
que tous les produits avec des notes entre 3,5 et 4 sur 5 vont être
affichés avec 4 étoiles. Comment dans ce cas différencier
deux produits qui ont 3,51 pour un et 4,0 pour l’autre, si les notes
détaillées ne sont pas clairement affichées en chiffres ?

Autre exemple assez intéressant, celui d'un site de vente de produits high tech et électro ménager :

Ce qui ressort de cet exemple, c’est la différence
affichée entre la note générale et les deux notes du dessous : comment
un produit peut-il afficher 5/5 sans jamais
recueillir 5/5 aux notes détaillées ?

La note générale est-elle une note parmi d’autres,
recueillies dans le cadre de l’avis ? Dans ce cas, pourquoi son
affichage se distingue-t-il des autres notes, moins
favorables ?

  •  Ou
    bien cette note est une note de synthèse, calculée à partir de
    plusieurs autres notes, et alors elle
    pourrait s’afficher sous forme d’étoiles, là où les autres notes
    s’affichent sous forme de traits, mais alors il est difficile
    d’expliquer le 5/5 avec des notes détaillées inférieures à
    5/5.
  •  Ou bien c’est une note parmi d’autres dans un questionnaire, et alors son affichage doit être de même
    niveau. 

Ce procédé d’affichage est particulièrement trompeur
pour le consommateur, qui ne peut pas disposer d’un indicateur fiable
sur le produit noté.

 

  1. 4.      Des classements peu crédibles

Le recueil d’avis et de note sur des produits et des services permet de les classer.

Cela dit, même si aucun acteur ne va dévoiler ses
pratiques en matière de calcul de la note globale, il est bon de
préciser que tous ne sont pas égaux.

Sur ce point en particulier, le volume d’avis
collecté est important : en effet, dans le cas d'un acteur qui
calculerait une moyenne arithmétique simple sans tenir compte de
l’âge des avis, il découle plusieurs questions :

  • Comment apprécier le sérieux d’une note moyenne, portant sur des avis qui pour certains ont plus de 3 ans ?
  • Comment apprécier le classement, sachant que les
    fameuses moyennes tendent toutes à converger vers le même chiffre,
    lorsque le volume d’avis est élevé ? Il s’agit là d’un
    principe mathématique simple, qui rend le classement difficile
    lorsque le volume d’avis est élevé.

 

A Testntrust, la note synthétique, appelée SARA , obéit à 4 lois :

  1. La note est calculée à partir d’une série de questionnaires de 10 questions chacun au moins et portant
    sur une expérience précise;
  2. Le SARA est impacté par l’âge de chaque avis : un avis laissé aujourd’hui aura plus de poids
    qu’un avis laissé il y a 6 mois. Tous les avis sont effacés après 3 ans ;
  3. Un indice de confiance dans le consommateur qui s’exprime permet de limiter les effets de nuisance des
    avis malveillants ;
  4. Le SARA est équilibré, puisqu’il tient aussi compte de l’engagement des entreprises dans le dialogue avec leurs clients.

 

  1. 5.      Des avis trop anciens

A Testntrust, nous pondérons les avis selon leur
âge : la satisfaction des clients se vit et se mesure dans la durée, et
en continu. Il nous semble donc naturel que le poids
relatif d’un avis dans le SARA diminue rapidement avec le temps, et
tienne compte de la nature de la chose notée.

De même, il nous semble honnête de ne plus publier
les avis âgés de plus de 3 ans : quel intérêt cela fait-il en 2013 de
lire des avis de 2006 (7 ans) sur un hôtel ? Ou
encore de 2001 sur Pizza Hut ?

 Cette pratique est pourtant courante, comme en témoignent ces copies d’écran :

 

Laisser un commentaire