Bulletins de l'Ilec

Encore du chemin avant l’omniscience - Numéro 435

01/05/2013

Les ressources techniques et intellectuelles d’une nouvelle ère pour le marketing sont là, autour des données. Mais à l’échelon des entreprises, les ressources humaines de leur exploitation sont trop rares. Notamment dans la distribution. Entretien avec Christophe Benavent, professeur à l’université Paris Ouest.

Quand on parle d’« intelligence [du] consommateur », en liaison avec l’idée de « big data », s’agit-il de l’intelligence dont font preuve les consommateurs, ou de celle que le marketing déploie pour les connaître ?

Christophe Benavent : Intelligence du consommateur, oui. Ce qui complique un peu les choses, c’est que le consommateur est idiot et paresseux : idiot, car il n’est pas capable de traiter toutes les informations dont il dispose, et paresseux, car il ne fait pas l’effort de traiter cette information. Remarquons qu’il est raisonnable d’être idiot et paresseux, car si le consommateur voulait vraiment être intelligent, il se trouverait dans la situation de l’âne de Buridan, et il lui faudrait dix heures pour faire ses courses. Grâce aux moteurs de comparaison, le consommateur devient, si ce n’est intelligent, du moins malin. Il est assisté, augmenté.

Une autre catégorie d’intelligence a son origine dans la définition anglaise du mot « intelligence », qui distingue la capacité de compréhension du processus de renseignement. L’intelligence marketing prend son sens dans l’idée de renseignement, qui consiste à avoir l’information qu’il faut, où il faut, pour agir quand il faut. C’est une des vertus du big data. Les neuf mille collaborateurs de Burberry disposent de tablettes nourries par un système CRM1 dans lesquelles figurent tous les renseignements concernant leurs clients. L’intérêt ici du big data n’est pas de fournir les données qui établissent un modèle général de comportement, mais d’amener, dans un contexte précis, l’information, le renseignement, qui permettra au vendeur de faire la différence.

Toutes les données, directes (effets de l’acte d’achat ou de connexion), indirectes (avis, partages d’expériences…), comportementales, déclaratives, transactionnelles, sont-elles indifféremment exploitables ?

C. B. : Non, bien sûr, vouloir tout exploiter est un vieux fantasme. Les données dépendent principalement de leur mode de production et de leur qualité. Un questionnaire réalisé en sortie de caisses par des enquêteurs professionnels n’aura pas le même contenu ni la même qualité que le même questionnaire adressé sur des interfaces web. Exploiter ce que racontent les consommateurs sur les réseaux sociaux ne donne pas le même résultat qualitatif. Moins de 5 % des Français utilisent Twitter, et parmi eux ceux qui communiquent sur une marque ont des motivations particulières, ils ont en général une attitude favorable ou veulent se faire valoir auprès de leurs amis. Nous ne sommes pas en présence d’un échantillon au sens traditionnel, celui construit par les études. Il est donc très difficile de transformer ces données en informations. Il faut pour cela mettre en place des procédures de redressement et de filtrage. Aujourd’hui, nous avons beaucoup de sources de données, mais elles touchent des populations très différentes. Un vieux rêve des panélistes est d’avoir un seul point de stockage, à partir de sources de données diverses mais qui concernent les mêmes populations. Si la technologie est là, il manque encore une approche raisonnée de l’exploitation des données, et surtout les compétences humaines.

Faut-il s’attendre à une extension sans fin des points de contact, multipliant d’autant les sources de données ?

C. B. : Si les points de contact ne sont pas infinis en nombre, il faut s’attendre à une systématisation de ce qui existe déjà dans la grande consommation. Outre le magasin où de nouveaux points de contact se développent, comme les kiosques, les étiquettes électroniques – testées par Leclerc à Levallois –, les smartphones, les cartes de fidélité, les points de contact sont en aval et en amont. Ajoutons donc les sites comparateurs de prix, les plateformes de réseaux sociaux, les plateformes d’avis, etc. La difficulté ne vient pas du nombre mais des changements de ces plateformes. Par exemple, si en matière de réseaux sociaux leur nombre ne dépasse pas trois ou quatre par personne, avec le temps on constate des désaffections pour certains acteurs, l’apparition de nouveaux, tels que Tumblr, et une rationalisation des usages, particulièrement, aux Etats-Unis et en Grande-Bretagne, chez les jeunes. On semble s’orienter ainsi aujourd’hui vers de micro-messageries telles que Pheed.

Une donnée à T 0 peut devenir action à T 0 ; la synchronisation, l’instant personnalisé, est-elle le mode opératoire optimal pour un marketeur ?

C. B. : C’est la tendance, et le cœur de la problématique du big data. Le trigger marketing ou marketing activé par les consommateurs est une idée qui remonte aux années 1990. Techniquement, on est en mesure de le mettre en place : les étiquettes de communication en champ proche ou NFC (« Near Field Communication ») peuvent communiquer avec des téléphones eux aussi NFC qui disposent d’une fonction – Beam d’Android – permettant le transfert ou la récupération des informations.

Pour autant, aujourd’hui, tous les consommateurs ne sont pas équipés. Une réflexion est encore à mener sur ce type d’interaction, sur ce qu’on peut en faire. Il faudrait en outre modéliser le comportement des acheteurs au regard de ce nouvel outil. Enfin, il faut définir des règles et les introduire dans des moteurs de décision. L’effort ne porte pas tant sur la technologie que sur l’embauche d’analystes nombreux, et sur une connaissance fine des comportements. Seules les grandes entreprises pourront mettre en place de tels outils, du moins dans une première phase, car ils exigent un effort de recherche-développement considérable, qui va bien au-delà de la mise en place des infrastructures techniques.

Le marketing devient-il une science exacte en s’affranchissant du diktat de la moyenne (segmentation, panier moyen...) ?

C. B. : Le marketing n’est pas et ne sera jamais une science exacte. C’est une science humaine qui traite du comportement humain, où règne l’incertitude : aucune loi ne détermine précisément le comportement humain, qui est largement probabiliste. Jusqu’à présent, le marketing identifiait des comportements moyens. Le fait d’avoir des données plus fines peut amener ces moyennes à des unités plus petites, par exemple magasin par magasin. On ne raisonnera plus sur une moyenne nationale mais sur des moyennes locales. C’est ce que j’appelle « effet de granularité ». L’avantage du big data n’est pas de connaître mieux mais plus finement, avec un grain très fin. Pour autant, ce grain ne sera jamais l’individu mais celui de niveaux intermédiaires : le rayon, le point de vente… Les bonnes décisions ne sont plus globales mais locales. Pour exploiter ce niveau d’information, il faut des collaborateurs bien formés.

La grande distribution est-elle mieux placée que les industriels pour mener ce travail ?

C. B. : Oui et non. Oui, car une dizaine de centrales d’achat seulement suit, grâce à la caisse du magasin, tout ce qui se vend et s’achète. L’annonceur, lui, est aveugle, il achète donc des données à d’autres acteurs, tels que Symphony IRI. Ce sont ses lunettes. Il peut contourner le problème en donnant des cartes de fidélité à ses clients, mais l’effet reste limité. Tout le monde n’a pas un égal accès aux données. Mais si les distributeurs disposent d’un avantage, ils ont une culture de la donnée beaucoup moins avancée que celle des industriels. Ils n’ont pas historiquement de culture marketing.

Le métier d’un commerçant n’est pas tant de vendre que de bien acheter et de profiter des effets d’échelle. La concentration du commerce étant forte, l’avantage concurrentiel ne passe plus par la capacité à avoir des prix moins élevés que les autres, mais par celle de vendre plus cher, ou un peu moins « moins cher ». Donc de développer un véritable savoir-faire et une culture marketing profonde. Dans la distribution, deux modèles se distinguent : le commerce électronique d’Amazon et consort, qui repose sur la personnalisation (et le marketing) avec des techniques telles que le filtrage collaboratif et la capacité de fabriquer une boutique, un site par client, et le commerce moderne en dur, centré sur le volume des achats. Le secteur des biens culturel, avec Virgin ou la Fnac, est l’exemple éclatant de cette rivalité. Ces enseignes ne peuvent offrir des prix vraiment plus bas, et vendre une grande diversité de biens dans un espace restreint, tandis qu’en individualisant ce qu’il propose Amazon augmente ses chances d’être vu et élargit son espace d’attention.

Le « déluge de données » expose-t-il plus les marques au risque de fausses informations ou de piratage que le marketing traditionnel ?

C. B. : On peut estimer qu’un tiers des données qui circulent sur les réseaux sociaux sont erronées : à cause d’erreurs techniques ou de mensonges délibérés des consommateurs, qui veulent protéger leur vie privée. Mais au-delà, se pose également le problème de leur interprétation, du sens des mots, par exemple dans l’analyse des données textuelles, qui dépend du contexte. C’est le problème général du « TAL » (traitement automatique du langage). Des données, on en a beaucoup, il n’est pas sûr qu’on ait davantage d’informations. C’est sans doute un des enjeux principaux du big data : la fiabilisation des données et la capacité de les transformer en information. Par exemple, un prénom est un ensemble de données de quelques octets qui sous certaines conditions fournit une information sur l’âge. Les photos sont des données aussi, de plusieurs millions d’octets, qui peuvent donner la même information, à condition de disposer d’un algorithme permettant d’inférer l’âge à partir de la reconnaissance de la forme des visages.

Si une marque a le moyen de cibler en continu ses consommateurs potentiels (comme en mode boîte noire), a-t-elle encore besoin d’en conserver la mémoire (« connaissance du consommateur ») ?

C. B. : L’être humain est ce qu’est son histoire. Pour comprendre comment il agit, interpréter son comportement, on a besoin de connaître son passé. Et ce n’est pas suffisant, il faut en plus connaître son environnement. On a donc besoin d’une mémoire, pour historiciser les comportements. Lorsque par exemple les comportements sont saisonniers, et beaucoup dans notre consommation le sont, il faut au moins quatre ans pour le saisir. Cependant, dans la pratique statistique, on constate que beaucoup de phénomènes sont sans mémoire (on les appelle « processus poissoniens ») : il n’est pas nécessaire de savoir ce qui s’est passé hier pour savoir ce qui va se passer aujourd’hui. Il n’y a donc pas de réponse générale à la question de l’utilité de la mémoire, c’est affaire de contexte.

Le marketing pourrait-il céder à une ivresse des données ?

C. B. : L’ivresse de la mode des données, oui ! Au reste, une série de mythes se construit autour du discours du big data, qui peuvent conduire certains à surinvestir quand ils ne le devraient pas, quand d’autres sont freinés alors qu’ils devraient investir.

Big data et ses outils marquent-ils la fin du gaspillage de données ?

C. B. : Bien au contraire, c’est la porte ouverte aux gaspillages. C’est même la philosophie du big data, sa raison d’être : l’idée que la moindre action humaine peut laisser des traces que l’on recueille et qui seront un jour utiles. Toutefois, le stockage des données coûtant de moins en moins cher, c’est de moins en moins un gaspillage. C’est un gaspillage d’effort et non d’argent.

Les outils prédictifs à l’œuvre avec les mégabases de données sont-ils performants au-delà du court terme, ou myopes aux signaux faibles ?

C. B. : Les outils prédictifs utilisés aujourd’hui ont entre trente et cent ans ! Rien de neuf sous le soleil, excepté le vocabulaire. Ces outils, simplement, s’appliquent à un ensemble de données plus vaste. Règle d’or : l’étendue des données n’améliore pas la qualité d’un modèle, comme le démontre la théorie des sondages qu’on apprend en première année de sciences économiques. La précision ne dépend que de la taille des échantillons et elle évolue comme le carré de la taille de l’échantillon : chaque fois qu’on multiplie par quatre l’échantillon, on divise l’imprécision par deux. Pour une précision de plus ou moins 1% il suffit d’un échantillon de 10 000 individus représentatifs. En avoir un million ne sert à rien. Quant aux signaux faibles, ils n’appartiennent pas à la science mais à l’art divinatoire !

1. Gestion de la relation avec la clientèle (customer relationship management).

Propos recueillis par Jean Watin-Augouard

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à l'utiliser, nous considérerons que vous acceptez l'utilisation des cookies.