Micro-modélisation

-

Livres
202 pages
Lire un extrait
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

La prévision de ventes pour les nouveaux produits de grande consommation doit être profondément renouvelée suite aux évolutions rapides du domaine du traitement des données et de l'informatique en général. Plutôt que l'intention d'achat en cinq points, cet ouvrage propose une nouvelle approche basée sur la modulation de la probabilité d'achat dans le temps en fonction des actions commerciales. On y développe les raisons d'une critique radicale des leaders existants ainsi que les bases théoriques d'une approche alternative.

Sujets

Informations

Publié par
Date de parution 25 septembre 2014
Nombre de visites sur la page 28
EAN13 9782342028584
Langue Français

Informations légales : prix de location à la page 0,0098 €. Cette information est donnée uniquement à titre indicatif conformément à la législation en vigueur.

Signaler un problème
















Micro-modélisation









Alain Pioche













Micro-modélisation

Évaluer le potentiel d'une innovation




















Publibook
Retrouvez notre catalogue sur le site des Éditions Publibook :




http://www.publibook.com




Ce texte publié par les Éditions Publibook est protégé par les lois et traités
internationaux relatifs aux droits d’auteur. Son impression sur papier est
strictement réservée à l’acquéreur et limitée à son usage personnel. Toute autre
reproduction ou copie, par quelque procédé que ce soit, constituerait une
contrefaçon et serait passible des sanctions prévues par les textes susvisés et
notamment le Code français de la propriété intellectuelle et les conventions
internationales en vigueur sur la protection des droits d’auteur.





Éditions Publibook
14, rue des Volontaires
75015 PARIS – France
Tél. : +33 (0)1 53 69 65 55






IDDN.FR.010.0119807.000.R.P.2014.030.31500




Cet ouvrage a fait l’objet d’une première publication aux Éditions Publibook en 2014



Retrouvez l’auteur sur son site Internet :
http://alain-pioche.publibook.com

ou contactez le par e-mail : alain.pioche@interstat.fr



Introduction



Lancer un nouveau produit est une affaire risquée, tous les fabricants le
savent bien. En même temps, l'innovation est une impérieuse nécessité sans
laquelle une entreprise ne saurait subsister bien longtemps : le monde
environnant évolue rapidement, et l'entreprise doit s'y adapter en
permanence. Il existe depuis 1970 environ des procédures de réduction du
risque associé au lancement d'un nouveau produit qui ont fait leurs preuves
en aidant les entreprises à diminuer les pertes impliquées par de mauvais
lancements. Elles font partie aujourd'hui des processus de décision mis en
place systématiquement dans le cadre général de l'introduction de nouveaux
produits.

Ces procédures doivent être elles-mêmes réactualisées en permanence en
fonction des évolutions de leur environnement. Les systèmes de collecte et
de traitement de l'information ont explosé dans les années 1990, et
l'informatique d'aujourd'hui est très différente de celle qui dominait dans les
années 1970, lorsque les premiers modèles de prévision de volume de
ventes pour un nouveau produit ont été mis au point. Il y a là une évolution
dont l'ampleur soudaine n'est pas encore clairement perceptible par tous les
acteurs, et notamment par les utilisateurs de ces procédures de réduction du
risque dans les lancements de nouveaux produits.

Très schématiquement, on peut dire aujourd'hui que la
micromodélisation est devenue possible (et même facile) alors que toutes les
procédures précédentes ont été conçues comme des modèles
macroéconomiques. Nous reviendrons bien sûr en détail sur ce point fondamental
dont nous tenterons d'éclairer tous les aspects, puisque l'objet de cet ouvrage
est de démontrer que cette approche "micro" est à la fois meilleure et plus
sûre que l'ancienne approche "macro" qui prévaut encore aujourd'hui.

Comme toute innovation, l'apparition de la "micro-modélisation"
rencontre des résistances importantes chez les preneurs de décision : la
résistance à la nouveauté n'est pas nouvelle, et on la trouve paradoxalement
9 très développée dans ce milieu qui devrait en principe être le plus ouvert à
l'innovation. Il existe de nombreux exemples de cette résistance dans
l'histoire. En voici un parmi d'autres: au moment de l'arrivée des premiers
chemins de fer, les diligences représentaient un business florissant qui avait
derrière lui une expérience passée incomparablement plus longue. A cette
époque, les chemins de fer les plus rapides n'allaient pas à plus de 40 km/h,
et l'on se souvient tous des nombreuses courses qui ont eu lieu entre le train
et la diligence à l'issue desquelles il avait été impossible de les départager.

Il en va de même de l'approche en micro-modélisation (approche
"micro") : elle se présente à ses débuts sous la forme d'une proposition peu
compréhensible qui n'offre pas un avantage décisif immédiat par rapport à la
méthode traditionnelle dominante que l'on connaît fort bien et qui s'appuie,
elle, sur une longue tradition de réduction du risque associé au lancement
d'un nouveau produit.

Nous proposons dans cet ouvrage de montrer sur quelles considérations
théoriques et/ou empiriques cette nouvelle approche "micro" s'appuie, et
surtout quelles sont les importantes potentialités qu'elle recèle.
Plus précisément, nous allons développer les points suivants :
- L'approche traditionnelle dominante (approche "macro") doit être
sérieusement critiquée dans la mesure où elle occulte délibérément
plusieurs problèmes devenus aujourd'hui très importants, en raison
de son incapacité structurelle à leur apporter une solution correcte.
- Le véritable avantage de l'approche "micro" que nous décrivons en
détail dans ce qui suit est la capacité considérablement accrue par
rapport aux méthodes traditionnelles à simuler différentes
hypothèses alternatives aussi bien pour le produit lancé que pour les
produits concurrents, c'est-à-dire pour la catégorie dans son
ensemble. C'est un point essentiel sur lequel nous reviendrons en
détail. A ce moment, le marketing devient un véritable "jeu de
stratégie" au sens de la théorie des jeux qui recherche en économie
un comportement optimal dans une configuration donnée entre
plusieurs "joueurs" (c'est-à-dire les concurrents).
- Est-il encore possible aujourd'hui de prétendre atteindre un "taux de
validation" meilleur que ce qui est proclamé par les leaders actuels
de ce marché des modèles de lancement de nouveaux produits,
lorsqu'il s'agit de comparer ce qui a été prévu à ce qui a été réalisé
10 quelques mois plus tard ? La surenchère dans ce domaine n'a plus de
sens car les limites du raisonnable ont déjà été tellement largement
dépassées par ces annonces qu'il paraît peu crédible (et donc sans
intérêt) d'en rajouter encore un peu plus sur ce plan. Parler de
validations est devenu maintenant pour ces leaders une simple
réassurance purement verbale sans réelle garantie contre le risque.
La modélisation que nous proposons fera naturellement aussi bien
que les autres dans ce domaine, puisque la prévision simple d'un
1volume ne permet plus de différencier les approches entre elles . On
verra aussi que les validations annoncées par les grands leaders du
domaine sont elles-mêmes très discutables, et comment elles peuvent
être discutées.

En bref, nous allons montrer que cette approche "micro" contient tous les
éléments qui permettront dans le futur d'encore mieux maitriser le processus
d'adoption d'un nouveau produit par le consommateur et ainsi diminuer
significativement le risque de mettre sur le marché des produits qui peuvent
2s'avérer être des échecs coûteux pour les entreprises qui les lancent .

On s'intéressera en priorité aux produits de grande consommation vendus
dans la grande distribution, ce que les anglo-saxons appellent les "f.m.c.g."
(fast moving consumer goods) ou encore les "packaged goods" (produits
vendus sous emballage). Avant d'aller plus loin, il convient de préciser ce
qu'on entend par "nouveau produit" en distinguant plusieurs types de
situations :
- Au minimum il peut s'agir d'une nouvelle "mise en scène" d'une
gamme actuelle de produits déjà existants : nouveaux packs,
éventuellement nouveaux formats, nouvelles publicités. On veut
attirer de nouveaux acheteurs plus sensibles à la nouvelle
présentation, sans perdre les anciens acheteurs qui devraient
facilement reconnaître leur produit habituel dans cette nouvelle mise

1 D'après ce que nous en savons, évidemment : comme il est impossible de contrôler ce que
chacun prétend faire dans ce domaine, c'est devenu là aussi un royaume de l'intoxication
informationnelle. Il est parfaitement possible que ce qui est annoncé par certaines
approches soit en réalité beaucoup moins glorieux.
2 Nous reviendrons en détail sur cet aspect, dans la partie "validations", lorsque nous
analyserons en parallèle le risque pour l'entreprise d'arrêter de bons projets qui auraient
conduit à des succès commerciaux.
11 en scène. Ici, les nouveaux acheteurs du produit sont aussi bien des
acheteurs de produits concurrents que de nouveaux acheteurs de la
catégorie.
- Ou bien il peut s'agir d'une "extension de gamme": on ajoute à la
gamme actuelle de nouvelles variétés qui viennent l'enrichir et la
compléter. Avec ces nouvelles variétés on veut aussi attirer de
nouveaux acheteurs sans perdre les anciens acheteurs de la gamme.
On veut aussi éviter de "transférer" simplement les acheteurs des
variétés anciennes vers les nouvelles : c'est le risque de
"cannibalisation", qui est une forme particulièrement néfaste des
"sources de volume" (et donc à éviter).
- Il peut s'agir enfin d'un véritable "nouveau produit" (nouveau nom de
marque) qu'on veut introduire dans une catégorie existante : par
exemple, on veut lancer une nouvelle barre chocolatée, qui devra
d'abord se faire une place en prenant des volumes aux barres déjà
existantes, et peut-être aussi en accroissant le volume total de la
catégorie des barres chocolatées. Si le fabricant a déjà un ou
plusieurs produits dans cette catégorie, il voudra aussi attirer de
nouveaux acheteurs sans perdre les acheteurs de ces autres produits :
d'où l'importance grandissante des "sources de volume", que l'on
examinera plus en détail dans la suite.

La dernière possibilité concerne les nouveaux produits qui créent
euxmêmes une nouvelle catégorie de produits : nous allons examiner plus en
détail cet aspect de la question, sachant qu'elle recouvre des "non-dits"
essentiels et qu'elle concerne en définitive assez peu de produits réels bien
qu'elle soit largement mise en avant comme un argument péremptoire qui
justifierait à elle seule l'utilisation de l'approche "macro / monadique".
12


Les principes généraux
à l'origine de la modélisation "micro"



Brève description de l'approche dominante
Dans le monde réel de l'achat d'un produit nouveau et de sa
consommation, le consommateur procède en général de la façon suivante
3pour des produits qui ne sont pas des "produits d'impulsion ", c'est-à-dire
des produits qu'on achète sans préméditation, peut-être même sans réel
besoin, juste parce qu'ils sont là au moment de faire les courses et que leur
présence en donne soudainement l'envie :
- D'abord il décide d'acheter un produit de la catégorie (par exemple :
"aujourd'hui j'ai besoin de yaourt"). Il commence par voir le
nouveau produit dans le magasin où il s'est rendu pour faire ses
courses. Il peut avoir été exposé à une publicité préalable, ou bien
découvrir l'existence de ce produit dans le magasin au rayon des
produits de la même catégorie (les yaourts).
- S'il prend la décision d'acheter ce nouveau produit, il l'emporte chez
lui pour le tester (le goûter s'il s'agit d'un produit alimentaire,
l'essayer s'il s'agit d'un produit d'entretien ou d'hygiène / beauté).
- Lors de son achat suivant de la catégorie, il peut décider de
réacheter ce nouveau produit une seconde fois, surtout s'il a été
satisfait de son premier essai. S'il n'a pas été totalement satisfait de
cette première utilisation, il y a moins de chances qu'il l'achète à
nouveau sauf si la publicité lui apporte une information qu'il ne
possédait pas encore, auquel cas il peut décider de faire un second
essai.
- S'il continue à être satisfait, le consommateur peut intégrer ce
nouveau produit dans l'ensemble des marques qu'il achète

3 Les produits d'impulsion seront traités un peu plus loin, mais il nous faut développer
auparavant quelques-uns des aspects de la modélisation pour des produits ordinaires.
13 régulièrement lorsqu'il achète cette catégorie de produits. Ceci se
fera en général au détriment d'un produit existant, qui se verra
remplacé par le nouveau produit.

La modélisation (au sens le plus général du terme) va chercher à
reproduire ce comportement, soit au niveau "macro-économique" en
prédisant des taux (taux d'essai : proportion de consommateurs ayant essayé
le nouveau produit, ou encore taux de ré-achat, proportion de
consommateurs l'ayant acheté une seconde fois), soit au niveau
"microéconomique" en prédisant des probabilités individuelles de comportement
(probabilité d'essai, probabilité de ré-achat) qui, une fois agrégées,
redonneront les taux évoqués ci-dessus.

Très schématiquement, on peut dire que la prévision du volume de ventes
d'un nouveau produit par une approche "macro" est dominée encore
aujourd'hui par un schéma extrêmement simple dans son principe : on fait
une enquête auprès d'un échantillon représentatif de consommateurs auquel
on présente le nouveau produit sur une "planche-concept" qui comporte une
description complète du produit avec son prix. On administre à cet
échantillon une échelle d'intention d'achat, ce qui permet d'estimer le taux de
premier achat, c'est-à-dire avant d'avoir essayé le produit, au niveau du total
de l'échantillon.

Pour estimer le taux de ré-achat, on va donner le produit à essayer à
domicile à la partie de l'échantillon qui a manifesté son intention de l'acheter
une première fois (c'est-à-dire que les interviewés qui ont déclaré ne pas
vouloir du tout acheter ce nouveau produit sont éliminés dans la plupart des
enquêtes, sauf avis contraire qui sera étudié plus loin dans le cas des
"nonacheteurs de la catégorie"), et on revient un peu plus tard poser une nouvelle
question d'intention d'achat qui sera cette fois une intention de ré-achat.

On extrapole ensuite les résultats obtenus dans les deux phases de cette
enquête (forcément limitée dans le temps et dans l'espace) pour les deux ans
qui viennent et pour l'ensemble du territoire national. Cette phase
d'extrapolation nécessite de nombreux ajustements, sur lesquels nous allons
revenir plus en détail dans ce qui suit.

La domination de cette approche macro-économique dure depuis une
quarantaine d'années (en gros depuis 1970) sans qu'elle ait été sérieusement
14 remise en question en raison du caractère monopolistique des leaders de ce
marché ainsi que de la frilosité des grands Instituts de Marketing Research.

La présentation "monadique" du nouveau produit (c'est-à-dire lorsque le
nouveau produit est présenté seul) s'est confrontée à ses débuts à une
approche "concurrentielle" dont l'origine était un travail de recherche du
4M.I.T. dans les années 1960, qui cherchait à estimer une part de marché
plutôt qu'un volume. Cette méthode préconisait de présenter le nouveau
produit sur un linéaire reconstitué, au milieu de ses concurrents, un peu
comme dans un magasin.

Bien entendu, il est nécessaire dans la méthode concurrentielle de
préciser la catégorie dans laquelle le nouveau produit va prendre la part qui
lui revient.

A cette époque (les années 1960), le système de prévision associé à
l'approche "concurrentielle" présentait par ailleurs d'importantes lacunes qui
ne lui ont pas permis de l'emporter définitivement sur l'intention d'achat
"monadique", laquelle avait surtout le mérite d'être simple, compréhensible
par tout le monde et déjà très largement utilisée avant même qu'il soit
question d'extrapolation. En fait, l'utilisation de l'intention d'achat en tant
que prédicteur des ventes est apparue comme la suite naturelle de ce qui se
pratiquait depuis un moment déjà.

On trouvera dans ce qui suit les principales raisons qui sont à l'origine de
la nécessaire remise en cause de l'intention d'achat monadique, cette remise
en cause étant associée aux alternatives offertes par l'explosion
technologique de ces dernières années dans le domaine du traitement de
l'information.
L'approche concurrentielle est préférable à l'approche monadique
Reprenons un instant le débat ancien entre les deux écoles concernant la
façon de présenter le nouveau produit à un échantillon de consommateurs :
l'école "monadique" (majoritaire) lorsque le produit est présenté seul, en
dehors de tout environnement concurrentiel, et l'école "concurrentielle"

4 M.I.T. : Massachusetts Institute of Technology
15 (minoritaire), lorsque le produit est présenté au milieu d'autres produits qui
sont a priori ses concurrents.

On remarque tout d'abord que lorsqu'on utilise l'approche monadique, il
n'y a pas d'autre alternative que de demander immédiatement une intention
d'achat : celle-ci découle donc nécessairement d'une présentation monadique
du produit.

La "planche-concept" utilisée pour présenter le nouveau produit est très
complète et ne laisse aucun aspect dans l'ombre : on indique aussi
soigneusement que possible les caractéristiques du produit et ses principaux
bénéfices qu'on accompagne généralement d'une photo ou d'une illustration,
5ainsi que son prix . On présente également toutes les variétés disponibles,
puis on demande une intention d'achat pour la gamme ainsi que pour
chacune des variétés (lorsqu'elles ne sont pas trop nombreuses : sinon, on se
contente d'éliminer les variétés qui ne seront jamais achetées, et on demande
une préférence entre celles qui restent).

Apparemment, cette approche "monadique" ne semble pas nécessiter la
définition préalable d'une catégorie de produits concurrents à laquelle
appartiendrait le nouveau produit (ce qui est présenté comme étant un
avantage décisif de cette méthode), mais d'autres aspects plus cachés de la
modélisation monadique laissent à penser qu'il s'agit plutôt d'une position de
principe qu'on met en avant dans le discours, mais que la réalité
6effectivement mise en œuvre à tous les niveaux dans le modèle est assez
différente.


5 Il existe aussi une école qui demande l'intention d'achat du produit sans mentionner son
prix. Pour notre part, nous ne croyons pas à des mesures d'intentions réellement utilisables
dans une optique de prévision lorsque le prix n'est pas indiqué. Il existe des exemples
évidents.
6 Au contraire de ce qui est dit, le modèle monadique fait explicitement référence à une
catégorie de produits à laquelle appartient le nouveau produit au moins dans deux cas
précis : la prévision de l'accroissement de la catégorie de produits (le C.D.I., Category
Development Index) et la prévision des sources de volume. On reviendra en détail sur ces
deux aspects dans ce qui suit, mais on peut voir tout de suite que chacun d'eux fait référence
à un environnement concurrentiel dont le contour reste évidemment à définir dans
l'approche monadique.
16 On sait en modélisation du comportement d'achat du consommateur, que
plus la situation dans laquelle on recueille une intention est proche de la
situation réelle d'achat, meilleure est la qualité de la réponse obtenue,
c'està-dire plus prédictive du comportement d'achat réel.

Cette approche "monadique / intention d'achat" est évidemment très
7artificielle et s'éloigne considérablement de la réalité du comportement
d'achat: en effet, aucun consommateur n'est exposé juste avant d'aller faire
ses courses à une planche-concept qui montre exhaustivement tous les
bénéfices d'un produit avec son prix, le produit étant présenté seul, en
8dehors de tout univers concurrentiel . Une telle situation artificielle induit
obligatoirement dans les réponses obtenues en enquête des biais importants,
nombreux et le plus souvent inconnus : en conséquence, il faudra mettre en
œuvre dans l'extrapolation tout un arsenal de "correctifs" divers (et souvent
obscurs) pour tenter de redresser les résultats très fortement biaisés que l'on
obtient de cette façon.

Nous pensons au contraire qu'un nouveau produit prend sa place dans
une catégorie de produits préexistante où l'on trouve les produits
potentiellement concurrents de ce nouveau produit, et où chaque produit
concurrent lui "cède" une partie de ses propres volumes : on peut dire de ce
point-de-vue que notre approche découle en droite ligne de l'école
minoritaire concurrentielle.

Mais c'est aussi ce qu'on peut constater tous les jours dans les données
volumétriques que donne par exemple un panel de détaillants, et ceci pour
toutes les catégories de produits : les nouveaux produits ne viennent
pratiquement jamais en addition complète d'un marché existant, mais

7 C'est à notre avis un héritage de la situation de pré-test publicitaire : lorsqu'on veut tester
une publicité, il n'y a en effet pas d'autre moyen que d'exposer un échantillon de
consommateurs à cette publicité. Mais le pré-test ne se soucie pas d'extrapolation des
résultats, à la différence des modèles de prévision des ventes dont c'est le premier objectif.
8 Il existe cependant une exception : lorsqu'une démonstratrice en magasin présente le
nouveau produit à un consommateur et le fait goûter, on se rapproche de la situation
d'interview lorsqu'on expose à une planche-concept. On considérera dans la suite qu'il en va
de même lorsque le consommateur est exposé à une "mise en avant" importante (qu'il ne
peut manquer de voir) et que le produit est présenté de façon très attractive hors de toute
concurrence, puisqu'il est sorti du rayon.
17 s'établissent sur ce marché en se substituant partiellement à un certain
9nombre de produits concurrents .

Les données agrégées n'étant rien d'autre que le résultat final d'une
addition des processus individuels propres à chaque consommateur, il faut
donc formuler autrement la question du point-de-vue du consommateur : ce
nouveau produit est-il ou non susceptible de remplacer, en totalité ou en
partie, le produit habituellement utilisé pour satisfaire le même besoin ?

Lorsque le processus d'adoption du nouveau produit est conçu comme un
remplacement (total ou partiel) d'un produit concurrent, la question des
nouvelles catégories (c'est-à-dire celles qui "créent" à elles seules un
marché) est inévitablement avancée par les partisans de l'approche
monadique : lorsque le produit crée lui-même sa propre catégorie de
produits, il n'a pas de référents auxquels se comparer et l'approche
10concurrentielle ne tient plus. Seule l'approche monadique est possible ,
disent-ils.

A première vue cette remarque semble frappée au coin du bon sens, mais
les apparences sont souvent trompeuses et ces affirmations ne sont bien
évidemment pas à prendre pour argent comptant : en effet, dire ceci
implique plusieurs conséquences que les partisans de l'approche monadique
se gardent bien de mentionner et qu'il faut cependant avoir présent à l'esprit
pour que la réponse soit complète.

9 Cette idée de substitution n'est pas nouvelle : on se reportera à l'ouvrage de Frank M.
Bass, "Applications of the Sciences in Marketing Management" (New York: John Wiley &
Sons, 1968) pour une description plus complète des origines de cette idée. D'après les
économistes, la substitution est la manifestation concrète de la concurrence entre deux
produits, et on trouvera quantité d'ouvrages sur le sujet.
On se souviendra également que les tests de produit en "aveugle" sont le plus souvent
comparatifs (avec un concurrent "bien" choisi, en général le leader du marché) et qu'il
existe des règles empiriques qui fixent un objectif de score de préférence obtenu : on dit par
exemple qu'il faut une répartition 60 / 40 en faveur du nouveau produit pour qu'une
nouvelle formule ait des chances significativement plus élevées de remplacer une formule
existante. Le" micro-modèle" ne fait rien d'autre que d'étendre cette situation au produit
réel, tel qu'il sera présenté aux consommateurs.
10 Il y a eu de grands "spécialistes" de ce genre de raisonnement : pour obtenir des parts de
marché aussi proches de 100% que possible, certains chefs de produit considéraient que
leur produit créait à lui seul sa catégorie, et en conséquence obtenaient une part très
majoritaire de ce "marché".
18
Les différents éléments à prendre en compte sont les suivants :
- Lorsqu'on parle d'innovation en général, les premières choses qui
viennent à l'esprit sont naturellement les grandes révolutions
èmetechniques du XX siècle : automobile, aviation, cinéma,
téléphone, télévision, internet, etc. On notera toutefois qu'à l'époque
où elles sont apparues pour la première fois, toutes ces inventions
sont venues remplacer des méthodes plus anciennes utilisées pour
satisfaire des besoins fondamentaux : se déplacer, communiquer, se
distraire, s'informer, etc.
Les nouveaux produits que l'on considère ici ne sont pas, pour la très
grande majorité d'entre eux, les résultats directs d'inventions
majeures pouvant à terme influencer plus ou moins directement le
cours du développement de l'humanité. Bien qu'il soit évidemment
très flatteur de se situer a priori dans cet ensemble d'innovations, la
réalité quotidienne dont on s'occupe ici n'est pas aussi grandiose et se
situe dans des limites nettement plus étroites.
En bref, le nombre de produits effectivement nouveaux (au sens
d'une innovation qui sans être majeure est quand même assez
importante) est relativement limité et c'est fort heureux car les
procédures mises en œuvre par les modèles "macros" ne sauraient
s'appliquer correctement à de telles situations, en dépit de leurs
prétentions.
Pour illustrer notre propos, nous allons prendre l'exemple du café en
11poudre à ses débuts, lorsqu'il est apparu sur le marché . Il s'agissait
bien à l'époque d'une révolution technologique, qui a eu pour effet de
modifier en profondeur les habitudes de fabrication et de
consommation de café au sein des ménages.
Pour ce type de produit, les modèles "macros / monadiques" utilisant
l'intention d'achat ne sont pas les mieux placés pour établir une
prévision des volumes de vente : on va même montrer que les
modèles "micros / concurrentiels" sont beaucoup mieux placés,
contrairement à ce qu'affirment les modèles "macros".

11 Bien entendu, il y a eu beaucoup d'autres innovations apparues en France après la
seconde guerre mondiale : appareils électro-ménagers, céréales pour petit déjeuner,
récepteurs de télévision, fax, etc. qui relèvent pratiquement toutes de la modélisation
"micro" présentée ici.
19 Imaginons un instant une ménagère n'ayant jamais entendu parler de
café en poudre à qui l'on demanderait "Avez-vous l'intention
d'acheter ce produit…" en lui présentant une planche-concept sur
laquelle le nouveau produit "café en poudre" est très complètement
décrit avec tous ses attributs ainsi que son prix de vente.
L'interprétation correcte de la réponse devrait normalement se faire
(si l'on en croit les modèles "macros") en utilisant une base de
données aussi large que possible : or dans le cas particulier d'une
réelle innovation, la base de données fait précisément défaut par
définition. On peut bien entendu (et c'est ce qui se fait le plus
souvent) utiliser des pondérations issues de la super-base de données
que l'on obtient en réunissant toutes les bases de données de toutes
les catégories de produits dans tous les pays, mais cette "moyenne
des moyennes" risque d'être à peu près dépourvue de toute
signification réelle concernant le café en poudre au moment de sa
première introduction en France.
Les choses se détériorent encore davantage lorsqu'on demande :
"Tous les combien allez-vous acheter ce produit ?". Il n'est en effet
pas possible d'éviter cette question si l'on veut pouvoir estimer un
volume d'achat au bout d'un an ou deux. C'est précisément à ce
niveau que se situe le véritable "talon d'Achille" des modèles
"macros / monadiques" : l'estimation correcte d'une fréquence
d'achat par questionnement direct est pratiquement impossible dans
le cas d'un produit réellement nouveau (et, on va le voir dans ce qui
suit, reste aussi très fortement contestable dans les "bons" cas,
lorsque le nouveau produit est une amélioration d'un produit déjà
existant). Par conséquent, l'estimation d'un volume de ventes par un
modèle monadique reste pratiquement impossible sans recourir à des
artifices extérieurs.
En réalité, on ne peut pas "redresser" une intention d'achat obtenue
pour ce type de produit entièrement nouveau, dans la mesure où cette
opération ne peut se faire qu'en utilisant les résultats d'expériences
identiques précédentes, qui en l'occurrence n'existent pas. On se
trouve donc en face d'un résultat qu'on peut toujours ajuster de façon
"moyenne" mais dont l'incertitude globale reste en définitive
beaucoup trop grande en raison notamment de l'incertitude sur la
fréquence d'achat : c'est en effet une composante essentielle du
volume des ventes d'un produit de grande consommation qui connaît
un succès lors de son introduction sur le marché.
20 A l'opposé, le modèle "micro" pose au consommateur une question
très différente. Après avoir présenté la planche-concept on
demande : "Sur les 10 prochaines fois où vous allez faire du café
chez vous, combien de fois pensez-vous utiliser ce nouveau produit à
la place des produits que vous utilisez habituellement ?". On
recherche par cette question à savoir dans quelle mesure le nouveau
produit va remplacer, en totalité ou en partie, les habitudes
précédentes. On doit donc comprendre ici "les produits concurrents"
dans un sens plus large, c'est-à-dire au-delà de la simple concurrence
de produits similaires qui en l'occurrence n'existent pas encore.
Connaissant par ailleurs la fréquence de fabrication de café dans ce
ménage particulier, on pourra en déduire une fréquence d'utilisation
du café en poudre qui à son tour devrait permettre d'aboutir à une
fréquence d'achat beaucoup plus réaliste que celle qui découle de la
question directe "Tous les combien…" et donc aux volumes de vente
recherchés pour ce nouveau produit.
On rejoint ainsi la véritable origine du processus d'adoption d'un
nouveau produit, puisque dans presque tous les cas on a vu qu'il
s'agit de remplacer une méthode ancienne par l'utilisation d'un
produit nouveau.
- Pour justifier la présentation "monadique" du produit, il est souvent
fait état des très importantes "bases de données" accumulées au cours
des années passées dans le monde entier et qui seraient utilisées pour
établir les prévisions, sans toutefois préciser clairement comment
elles sont utilisées (ni même si elles le sont effectivement). Une
utilisation acceptable serait selon nous :
. De prendre en compte uniquement les "bonnes validations",
c'est-à-dire lorsque la prévision correspond raisonnablement à
12ce qui a été observé sur le marché quelques mois plus tard .
Ceci restreint considérablement le champ des données
réellement utilisables par rapport aux quelques 50 000 tests
annoncés par les uns ou les autres : on admet qu'il est possible
de tabler sur environ 1 500 validations dans le monde entier
depuis que ces modèles existent commercialement. Si on se

12 Un simple test n'apporte aucune information pour les suivants tant qu'il n'a pas été
validé : il vient simplement enrichir la collection (et aussi le collectionneur). Seule la
confrontation avec ce qui a été réalisé permet de constituer une base de données ayant un
minimum de valeur statistique.
21 limite aux tests récents (moins de 3 ans) faits en France pour
une catégorie de produits déterminée, on risque assez souvent
de trouver moins de 10 tests validés dans la fameuse "base de
données", ce qui est bien insuffisant à constituer un corpus
13réellement utilisable dans un processus d'estimation .
14. D'utiliser les procédures statistiques habituelles pour estimer
les valeurs des paramètres à utiliser, en faisant l'hypothèse que
ce qui a été observé dans le passé pour des produits "proches"
(et ici on voit apparaître encore une fois que la catégorie de
produits est un angle de vision évidemment incontournable,
même pour les tenants de l'approche monadique) va s'appliquer
aussi pour le nouveau produit.
L'estimation statistique étant très risquée et parfois même
impossible à partir d'un trop faible nombre d'observations, on
comprend mieux maintenant pourquoi il a été jugé préférable
d'utiliser des coefficients identiques dans tous les tests pour
pondérer l'échelle d'intention d'achat, quitte à faire porter
ailleurs (sur d'autres éléments, ou bien même sur rien de
précis) les ajustements nécessités par l'ampleur des
surestimations induites dans l'approche monadique.
On a vu qu'il n'y avait pas de bases de données disponibles pour les
véritables nouveaux produits : on vient de montrer que même s'il y

13 On peut faire très grossièrement le décompte suivant :
- Sur les 1500 validations faites dans le monde depuis que ces modèles existent, la
moitié datent probablement de moins de 3 ans et sont donc assez récentes, soit 750.
- Ces validations ayant été faites dans tous les pays, on peut considérer que 40% ont été
faites en Europe, soit 300, le reste ayant été fait essentiellement en Amérique (Nord et
Sud) et un peu en Asie.
- En admettant que le marché français représente 1/3 de l'Europe, il y aurait donc en tout
100 validations récentes utilisables en France.
- Ces 100 validations concernent en principe toutes les catégories de produit,
alimentaire et entretien. En considérant seulement 20 catégories de produit ayant
réalisé au moins un STM dans les 3 ans, il y aurait donc en moyenne 5 validations
utilisables pour ré-estimer les paramètres des modèles "macro / monadiques". Même
parler de "base de données" paraît fortement exagéré…

Bien entendu ces chiffres sont seulement des estimations d'une réalité que les modèles
"macro / monadiques" gardent soigneusement cachée et dont ils ne font état que pour
clamer leur grande expérience, sans précision.
14 Une régression simple aurait déjà le mérite de fournir des estimations plus sérieuses des
coefficients à utiliser pour pondérer les 5 points de l'échelle d'intention d'achat.
22 en avait, elles seraient de toutes façons inutilisables dans une
approche statistiquement correcte.

Le consommateur auquel on s'adresse ne débute pas sa vie de
consommateur au moment où on lui présente un nouveau produit, même si
celui-ci offre un indéniable caractère d'originalité. Ce consommateur
consomme déjà différents produits dans le même but, et la décision qu'il va
devoir prendre est en réalité la suivante : vais-je continuer à acheter le
produit que j'ai acheté jusqu'ici et ignorer ce nouveau produit, ou bien au
contraire vais-je changer mon comportement et adopter ce nouveau produit
à la place du produit que j'utilisais précédemment ?

On remarquera que la pertinence de cette question est implicitement
reconnue par les utilisateurs de l'approche monadique, puisqu'ils demandent,
suite à l'intention d'achat initiale monadique, si ce nouveau produit viendra
"à la pace ou en plus" des produits habituellement utilisés de façon à estimer
15les sources de volume de ce nouveau produit , ce qui est bien le propre
d'une approche concurrentielle.

Il y a donc une contradiction de principe, à notre avis inévitable, entre
une approche monadique qui soi-disant ignore toute concurrence, et les
questions nécessaires à la prévision des sources de volume faisant référence
à un univers concurrentiel qui doit être clairement précisé pour que les
réponses obtenues soient fiables.

L'approche concurrentielle n'est rien d'autre que la traduction
logicomathématique du comportement réel d'achat d'un consommateur, lorsque
celui-ci décide (ou non) de substituer le nouveau produit à son produit
habituel : c'est là-dessus que se fonde la supériorité de l'approche "micro /
concurrentielle".

15 Cette question des sources de volume étant à la fois beaucoup plus complexe et de plus
en plus centrale, nous y consacrerons un chapitre entier pour essayer d'en voir toutes les
conséquences. Si la question "simple" de l'approche monadique pouvait peut-être être
suffisante dans les années 1970, elle est devenue largement insuffisante aujourd'hui, et les
aménagements successifs apportés à l'approche monadique au cours du temps vont tous
dans le sens d'une approche de plus en plus concurrentielle.
23 La question de la définition de la catégorie de produits
D'après les partisans de l'approche "monadique / agrégée", définir une
catégorie de produits à laquelle appartiendrait le nouveau produit est une
sorte de "péché originel" qu'ils ont été bien inspirés de ne pas commettre :
au contraire, ils soutiennent que ne pas avoir à définir de catégorie de
produits à l'avance est un avantage incontestable, qui démontrerait à
l'évidence la supériorité de l'approche monadique sur l'approche
concurrentielle.

Il est vrai que ne pas avoir à définir de catégorie de produits à l'avance
est toujours "ça de moins à faire", et que les partisans du moindre effort y
trouveront tout naturellement leur compte : c'est en partie ce type de facilité
qui a rendu cette approche si populaire.

A l'appui de cette approche "monadique", on cite toujours les produits "à
cheval" sur plusieurs catégories : par exemple, on mentionnera les "tranches
de yaourt" qui sont une tranche de lait gélifié entre deux tranches de
chocolat, produit utilisé pour le goûter des enfants. Voici un produit que l'on
pourrait peut-être utiliser à la place d'un yaourt, mais aussi d'un autre dessert
pour enfant, par exemple. On pourrait bien entendu trouver d'autres
exemples.

En réalité, ceci revient à dire encore une fois la même chose, mais d'une
autre façon : l'approche monadique sous-entend que le nouveau produit n'a
pas de concurrence bien définie, et en tous cas qu'elle "est dans la tête du
consommateur" lorsque celui-ci déclare une intention d'achat (et donc varie
d'un consommateur à l'autre).

Devant une telle attitude, il faut être pragmatique et ramener ces
affirmations pseudo-théoriques à ce qu'elles sont en réalité, c'est-à-dire des
tentatives obstinées de faire passer pour des vérités premières les distorsions
inévitables imposées par un modèle de moins en moins adapté à la réalité
d'aujourd'hui.

Examinons un instant les faits suivants :
- La "part de marché" est une des notions de base du marketing. Il est
évident que cette notion fait appel à la définition d'une catégorie de
produits (c'est-à-dire d'un ensemble de produits concurrents les uns
avec les autres), ce qui ne semble pas poser de problèmes
24 insurmontables aux panels (distributeurs et consommateurs)
lorsqu'ils publient leurs résultats chaque mois.
- Ces résultats ne faisant pas régulièrement l'objet de protestations
vigoureuses de la part des fabricants qui les achètent, il y a deux
possibilités :
. Ou bien ces résultats ne sont en réalité jamais lus par les
responsables du Marketing chez les fabricants, et on serait
alors en droit de demander leur suppression pure et simple en
échange d'une diminution des coûts,
. Ou bien ils sont pertinents et les fabricants continuent à les
acheter pour cette raison. Il semble bien que cette seconde
affirmation soit la bonne : supprimer la part de marché
reviendrait à amputer gravement le Marketing en le privant
d'une de ses composantes essentielles.
- Si la définition d'une catégorie de produits concurrents coule de
source lorsqu'il s'agit de définir une part de marché dans un panel,
pourquoi en va-t-il différemment lorsqu'il s'agit d'un nouveau
produit ?
La réponse est très simple : l'approche "monadique / agrégée" ayant
été dominante dans le domaine des nouveaux produits pendant de
nombreuses années, elle a réussi à imposer sa propre façon
d'envisager la détermination du volume des ventes des nouveaux
produits comme un "standard" de ce marché, même si pour cela elle
a dû ignorer, tordre ou contredire quelques principes de base
élémentaires : en effet, dès qu'un produit est lancé sur le marché, il
trouve tout de suite sa place dans une catégorie de produits qu'il était
donc bien facile de prévoir à l'avance.
Dans la mesure où tout le monde y a trouvé jusqu'ici son compte, les
fabricants, les panels ainsi que les auteurs des modèles "monadiques
/ agrégés", cette situation risque de se prolonger encore longtemps si
rien ne se passe. La vraie question est donc : à y regarder de plus
près, tout le monde y trouve-t-il bien son compte, et notamment chez
les fabricants ? On verra plus loin dans la discussion sur les
validations que ce qui est publié aujourd'hui est en effet très
insuffisant, et que pour s'en contenter il faut volontairement fermer
les yeux sur à peu près tout le processus.
- Le rapprochement des panels avec le domaine des nouveaux produits
nécessite clairement une définition des catégories de produits qui soit
25 compatible entre tous les acteurs du marché : on va voir dans ce qui
suit comment ce rapprochement doit être fait. Il peut arriver que la
définition de certaines catégories soit parfois un peu délicate et
demande des arbitrages entre différentes possibilités, mais la plupart
du temps les solutions trouvées en finale sont acceptées par tous.
Pourquoi en irait-il différemment pour les nouveaux produits ?
- Certains des problèmes qui se posent aux fabricants ne peuvent pas
trouver de réponse en dehors de la définition préalable d'une
catégorie de produits : c'est notamment le cas des sources de volume.
Et laisser libres les réponses à la question "si vous ne trouviez pas ce
nouveau produit dans le magasin où vous faites vos courses, que
feriez-vous ?" revient à ouvrir la porte à toutes les réponses
16fantaisistes qui passent par la tête des interviewées , sans aucune
limite. Résultat : la plupart de ces réponses sont inutilisables. Ca
n'est pas non plus une bonne solution.
- La substitution d'un produit par un produit concurrent pour le même
usage est à la base de toutes les activités marketing : les situations où
il n'y a pas de concurrence sont des situations extrêmes dans laquelle
l'indigence domine largement une consommation où il y a très peu
de produits disponibles. Dans les pays occidentaux, la concurrence
est la règle générale de fonctionnement de marchés hautement
compétitifs. Faudrait-il ignorer la concurrence seulement pour les
nouveaux produits, qui représentent cependant une part importante
de l'activité marketing d'un fabricant, et ne la considérer que pour les
produits existants en faisant comme s'ils n'avaient jamais été
"nouveaux" ?
- Lorsque le consommateur va faire ses courses dans un magasin, il se
trouve face à un rayon dans lequel presque tous les produits
concurrents sont présents. Si le choix du produit à acheter était déjà
fait avant d'entrer dans le magasin, la présence de produits
concurrents rendrait simplement plus difficile la recherche du
produit désiré : elle serait donc nuisible, au mieux inutile. Si tel était
le cas pour la plupart des consommateurs, il n'y aurait pas lieu de

16 En voici un exemple : "si je ne trouve pas tel plat cuisiné en rayon, je change mon idée
de menu et je m'oriente vers d'autres produits". On arrive ainsi à "remplacer" une pizza
surgelée par du thon en boîte. Et quelle peut bien être la signification d'une telle réponse en
termes de concurrence et de sources de volume ?
26 faire des promotions dans les magasins car elles seraient inopérantes
(ceci est aussi vrai pour toutes les actions faites en magasin).
On observe au contraire que les actions en magasin sont de plus en
plus efficaces et que le distributeur est devenu un intermédiaire actif
dans la vente d'un produit, ce qui veut dire que le choix final se
déroule en magasin pour beaucoup de consommateurs. Et comme ce
type de choix en magasin va représenter une part de plus en plus
importante à l'avenir, la concurrence entre produits utilisés pour les
mêmes usages devient encore plus rude et donc impossible à ignorer.
Les produits d'impulsion (achetés parce qu'ils sont là), seront
considérés comme faisant partie d'une catégorie de produits unique
qui regroupe toutes les variétés proposées dans ce contexte : bonbons
divers et variés, chewing gums et autres produits pour enfants,
rochers au chocolat, etc. Tout ce qui vient d'être dit s'applique à ce
type de produits : fréquence d'achat de la catégorie, probabilité
d'achat la prochaine fois que l'on va faire des courses, quantité
achetée par acte d'achat, etc.

Pour se résumer, on voit que la définition d'une catégorie de produits ne
soulève aucun problème dans la très grande majorité des cas, et qu'elle peut
soulever des problèmes mineurs dans un nombre limité de situations
particulières avant d'aboutir à une solution acceptable.

Ignorer la concurrence est à l'opposé du Marketing dans son ensemble, et
ne peut que générer des contradictions que les modèles "monadiques /
agrégés" s'emploient à masquer derrière un rideau bien commode qu'ils
appellent "bases de données". Il est donc indispensable d'aller y regarder de
plus près, et de questionner vigoureusement cette approche dans son
ensemble : c'est ce que nous allons faire maintenant.
La décomposition de l'intention d'achat permet de réduire fortement la
sur-déclaration en enquête
Le principe de base de notre approche "micro" est d'estimer la fréquence
d'achat du nouveau produit pour un individu donné : achètera-t-il ce
nouveau produit une fois, deux fois, trois fois, etc. au cours de la première
année ? Une fois cette fréquence obtenue pour chaque individu, il suffit
27 ensuite de sommer les achats individuels pour obtenir le volume recherché
au niveau du total de l'échantillon.

On obtient cette fréquence d'achat individuelle en décomposant
l'intention d'achat traditionnelle d'un nouveau produit en ses deux
principaux éléments constitutifs qui sont, pour chaque consommateur :
- La fréquence d'achat de la catégorie à laquelle appartient le nouveau
produit, quelle que soit la marque choisie à chaque acte d'achat. C'est
pour nous la pierre angulaire de la modélisation, sur laquelle repose
l'ensemble de l'édifice.
- La probabilité d'acheter le nouveau produit à chaque fois que le
consommateur achète la catégorie, que l'on appellera dans la suite
"probabilité d'achat" individuelle.

La multiplication de ces deux quantités donne le nombre d'actes d'achat
du nouveau produit pour chaque individu de l'échantillon pendant une
période donnée.
Exemple. On veut lancer une nouvelle barre chocolatée sur le
marché. Si un individu fait 6 achats par an de barres chocolatées et si
sa probabilité d'acheter le nouveau produit est 0.2 à chaque fois qu'il
achète une barre chocolatée, sa fréquence d'achat probable sera de
6 H 0.2 L 1.2 actes d'achat par an pour le nouveau produit.
On sait que la question d'intention d'achat conduit à une surestimation
parfois très importante, et que pour cette raison il est nécessaire d'ajuster les
déclarations des interviewés. Grâce à cette décomposition, on voit bien
maintenant que cette surestimation est en partie due à l'impossibilité pour les
interviewés de déclarer correctement leur fréquence d'achat de la catégorie
de produits. En fait, cette incapacité s'étend même à des produits existants
achetés régulièrement, ainsi qu’on a pu l’observer maintes fois dans nos
études : on peut penser que l'incertitude associée à un nouveau produit rend
le questionnement direct sur sa fréquence d'achat encore plus incertain.

Il ne s'agit pas d'un mensonge délibéré de la part des interviewés, mais
simplement de l'impossibilité pour l'esprit humain de percevoir le temps
comme un phénomène linéaire où ce qui s'est passé la veille a autant
28 17d'importance que ce qui s'est passé il y a 3 ou 6 mois . C'est cette
impossibilité qui induit la plus grande partie de la forte surestimation de
l'intention d'achat, puisque dans l'intention d'achat les deux aspects ci-dessus
sont confondus, à savoir la fréquence d'achat de la catégorie et la part des
achats faits avec le nouveau produit.

Dans cette optique, on se rend compte de la naïveté (pour ne pas dire
plus) de la question directe posée au consommateur "Et tous les combien
allez-vous acheter ce produit ?" parmi les questions qui suivent la
présentation monadique du produit. Espérer une réponse qui ait un peu de
sens relève bien davantage de l'acte de foi aveugle que de l'approche
rationnelle d'un comportement de consommation. D'où les nombreux et
importants ajustements nécessaires là également, et toujours aussi obscurs.

Dans un modèle "micro", le principe général de détermination d'une
fréquence individuelle d'achat ou de ré-achat est simple :

Fréquence individuelle d'achat = fréquence individuelle d'achat de la
catégorie × probabilité individuelle d'achat du nouveau produit (c'est-à-dire
"part que le nouveau produit va prendre dans les achats de la catégorie à
chaque acte d'achat")

L'avantage de cette façon de procéder est qu'elle ne nécessite plus de
poser une question directe pour déterminer la fréquence d'achat (du genre :
tous les combien allez-vous acheter ce produit ?), et donc qu'elle n'implique
plus l'obligation de procéder à des ajustements importants et obscurs pour
parvenir à une estimation finale à peu près réaliste du volume des ventes.
Au contraire, la fréquence d'achat est ajustée de façon naturelle et
totalement limpide pour tous en utilisant les résultats des panels
(distributeurs et consommateurs). C'est ce qui est développé dans ce qui suit.

17 On trouvera plusieurs aspects de ce point de vue développés dans l'ouvrage de Jacques
Desabie, "Théorie et pratique des sondages", Dunod (1971). La déformation de l'échelle
des temps par la mémoire est aujourd'hui un peu mieux connue qu'à l'époque, mais on
retrouve ici encore les biais majeurs engendrés par cet "effet télescopique".
29 �


Il faut introduire le temps via la fréquence d'achat
Une autre insuffisance de l'intention d'achat est qu'elle ne précise pas
l'horizon temporel du futur acte d'achat. J'ai effectivement l'intention
d'acheter ce produit, mais quand ? Est-ce lors de mon prochain acte d'achat
de la catégorie (c'est-à-dire dans 2 ou 3 jours), ou bien plus tard, dans 2 ou 3
mois ? Il est vrai qu'en ne précisant pas la catégorie de produits à laquelle ce
nouveau produit appartient, il devient plus difficile d'introduire le temps
dans la question d'intention d'achat.

Il est cependant évident que le temps est un élément clé de la
modélisation des ventes d'un nouveau produit : puisque le temps est absent
de l'intention d'achat, il faut quand même bien le réintroduire d'une façon ou
18d'une autre . Ce sera fait le plus souvent en se servant de la question
"naïve" ci-dessus (Et tous les combien allez-vous acheter ce produit ?), en
espérant qu'elle voudra bien donner des réponses qui ont un sens. Mais
comme ça n'est presque jamais le cas, il faudra là aussi intervenir par des
ajustements adéquats.

Cet aspect de la modélisation dominante est fort peu mis en avant, mais
19c'est la pièce maîtresse des volumes auxquels on parvient en finale : c'est

18 Il existe des modèles qui ne se soucient pas beaucoup du temps, et qui préfèrent établir
une prévision "lorsque le marché est stabilisé suite à l'introduction du nouveau produit". Si
une telle perspective pouvait avoir un sens il y a une quarantaine d'années, il n'en a
malheureusement plus du tout aujourd'hui, où la stabilisation du marché risque fort de ne
jamais se produire compte tenu des ampleurs croissantes des actions multiples et
simultanées de tous les acteurs de ce marché.
En fait il s'agit plutôt d'une "illusion de stabilité" : si par exemple on regarde la mer d'un
avion qui vole à haute altitude, on a l'illusion d'une surface plane très légèrement ridée par
endroits. Une telle description est de fort peu d'intérêt pour quelqu'un qui aurait envie de
lancer un nouveau navire sur la mer… C'est toute la différence qui existe entre une
approche macro-économique qui ne tient pas compte du temps et une approche
microéconomique qui en tient compte. Il est clair que c'est la seconde qui sera la plus utile au
fabricant qui veut lancer un nouveau produit.
19 Une grande partie des modèles "macro / monadiques" s'appuient sur une fonction
particulière (la "geometrical stretched function") de la forme L� : 1 � ; E�. P qui
donne la pénétration ; à l'instant t en fonction des valeurs de 3 paramètres � , � et pour
les consommateurs ayant acheté au moins 1 fois, au moins 2 fois, au moins 3 fois, etc. Les
paramètres et sont des paramètres de calage du modèle. La véritable base théorique
de cette approche repose sur le fait que le paramètre est une fonction de l'intervalle de
temps entre deux achats consécutifs d'un ré-acheteur. Ceci a été démontré et/ou repris par

30 malheureusement la partie le plus "incertaine" de la prévision, celle qui
prête le plus le flanc à la critique et à la contestation, et donc aussi à la
manipulation.

Nous proposons de déterminer non plus des "taux" au niveau agrégé
(taux d'essai, taux de ré-achat au bout d'un an, par exemple) mais de
déterminer des "probabilités individuelles d'achat et de ré-achat" du nouveau
produit à chaque période de temps. Bien entendu, une fois ces fréquences
individuelles agrégées au sein d'une population ou d'un échantillon, on
retrouvera les "taux" bien connus, mais nous allons voir que la probabilité
individuelle par période de temps recèle d'importants avantages par rapport
à la détermination des taux agrégés.

Une fois déterminée cette probabilité d'achat individuelle à chaque
période (après tous les ajustements nécessaires) elle est ensuite modulée
selon les différentes actions envisagées pour le nouveau produit :
- Actions de distribution
- Actions de communication (publicité, promotions)
- Actions sur le prix

Nous allons détailler tous les aspects de cette modulation, mais il y a
encore quelques précisions à apporter au préalable sur les ajustements de la
fréquence d'achat de la catégorie.

de nombreux auteurs, et notamment par Kalwani, Manohar and Alvin J. Silk (1980),
“Structure of Repeat Buying for New Packaged Goods,” Journal of Marketing Research,
17 (August), 316–22. Il ne s'agit pas d'un "léger détail" dont on pourrait éventuellement se
passer car c'est le fondement même de cette approche. Le problème inhérent à toutes ces
méthodes vient du fait que la question directe :"Tous les combien avez-vous l'intention
d'acheter ce produit ?" donne de très mauvaises estimations de la fréquence d'achat du
nouveau produit, et qu'il faut ensuite dépenser beaucoup d'énergie pour tenter de redresser
correctement la réponse obtenue en enquête (ce qu'on ne parvient pratiquement jamais à
faire).
31


Mise en cohérence des panels



Pourquoi il est nécessaire de mettre les panels en cohérence
Nous avons dit ci-dessus que la fréquence d'achat de la catégorie était à
la base de tout l'édifice de l'approche "micro / concurrentielle". En
conséquence, la question se pose concrètement de déterminer cette
fréquence d'achat pour la catégorie à laquelle appartient le nouveau produit
qu'on va tester. Puisqu'on va déterminer le volume de ce nouveau produit à
partir de déclarations d'intention de fréquence d'achat, il est indispensable de
s'assurer en premier lieu que la connaissance de la fréquence d'achat d'un
produit permet bien dans la réalité de calculer son volume de ventes.

Nous allons développer dans ce qui suit les points suivants :
- Il existe des mesures permanentes de la fréquence d'achat des
principales catégories de produits "f.m.c.g." (produits alimentaires,
d'entretien et d'hygiène/beauté), faites essentiellement par les panels
de consommateurs.
- Malheureusement, ces mesures ne permettent pas de recalculer
exactement les volumes de ventes observés par ailleurs par les panels
de distributeurs pour les produits existants, mais en donnent
seulement une approximation. Parfois même, l'approximation est
assez éloignée d'une valeur "vraie" des volumes, la rendant
difficilement acceptable.
- En conséquence, il a été nécessaire de développer des méthodes
particulières pour tenter de réconcilier toutes ces mesures. Lorsque
ces mesures sont réconciliées, on peut déduire directement et sans
approximation le volume des ventes et la fréquence d'achat de la
catégorie à laquelle appartient le nouveau produit, et passer de l'un à
l'autre.
33 Bref rappel des définitions essentielles des concepts utilisés par les
panels (consommateurs et détaillants)
Bien que notre objectif ne soit pas de décrire en détail l'ensemble du
fonctionnement des différents panels disponibles en France aujourd'hui, il
est nécessaire de rappeler certains concepts de base auxquels il sera fait
appel tout au long de cet ouvrage.

Le panel de consommateurs est constitué d'un échantillon représentatif
20permanent de ménages à qui l'on demande de déclarer
systématiquement quels ont été les achats du ménage. Le traitement de cette
information aboutit aux mesures essentielles suivantes :
- La pénétration d'un produit pendant une période donnée (la période
la plus fréquemment utilisée est d'un an). Il s'agit de la proportion de
ménages ayant acheté le produit au moins une fois au cours de la
période. Bien entendu ce produit a pu être acheté plusieurs fois par
un même ménage au cours de cette période.
- Le taux de ré-achat. Pour cela, on va compter le nombre de ménages
ayant acheté le produit au moins 2 fois pendant la période que l'on
rapporte au nombre d'acheteurs précédent pour donner le taux de
premier ré-achat, ou plus simplement le taux de ré-achat. Ce taux est
en général un indicateur du succès d'un produit sur son marché
lorsque celui-ci est stabilisé, en dehors des circonstances
particulières qui l'affectent temporairement (promotions importantes
par exemple).
- Les taux de ré-achat successifs. Moins utilisés que le taux de premier
ré-achat, ils se déduisent tout aussi facilement d'un comptage des
ménages ayant acheté le produit au moins 3 fois, 4 fois, etc. au cours
de la période, que l'on rapporte toujours à la même base d'acheteurs
au moins une fois pendant la même période. On pourra parler d'un
ième taux de n ré-achat : ce sera simplement le nombre de ménages
ayant acheté au moins : JE 1 ; fois le produit au cours de la période
rapporté au nombre d'acheteurs.

20 Les panels de consommateurs ont différents type d'échantillons permanents : ménages
(c'est le principal échantillon), femmes, hommes, mères de bébés, automobilistes, etc. Dans
le cas présent, nous nous intéressons au seul échantillon de ménages, sauf mention
contraire. Tout ce qui est dit pour cet échantillon de ménages peut être étendu facilement
aux autres échantillons, moyennant les adaptations indispensables.
34 - La fréquence d'achat. C'est le nombre moyen d'actes d'achat réalisé
par l'ensemble des acheteurs durant la période. C'est l'élément
essentiel sur lequel repose le volume d'un produit pendant une
période de temps. On remarquera que la distribution des actes d'achat
contient à la fois la pénétration ainsi que les différents taux de
réerachat, et en particulier le taux de 1 ré-achat : il suffit pour cela
d'intégrer la valeur "0" dans la distribution du nombre d'achats faits
pendant la période, c'est-à-dire de compter les consommateurs qui
n'ont pas acheté le produit (les non-acheteurs).
La pénétration s'en déduit immédiatement à chaque période :
éé AJ % L 100 F L NKLKNPEKJ @A %
- La quantité moyenne achetée à chaque acte d'achat. Il s'agit d'un
simple comptage des déclarations des participants au panel.

Ces critères sont souvent appelés "composantes des ventes" : ils ne sont
pas indépendants les uns des autres puisqu'ils sont en réalité tous contenus
dans la distribution des actes d'achat (sauf les quantités). La fréquence
d'achat est la moyenne de cette distribution après exclusion des
nonacheteurs : c'est le concept central au cœur du comportement du
consommateur.

Un panel de détaillants est constitué d'un échantillon représentatif
21permanent de magasins sur le territoire français , qui renseigne sur :
22- La présence ou non des différents produits . Les résultats sont
consolidés au niveau du total de l'échantillon, et aboutissent au
concept de DV (Distribution Valeur). La définition de la DV étant
centrale, il est nécessaire de la rappeler succinctement ici. Un
exemple très simplifié permettra de mettre en lumière l'essentiel de
la définition en comparant les hypothèses H (1) et H (2).


21 Ce qui est dit ici est aussi valable pour un recensement exhaustif des magasins.
22 On rappelle qu'il s'agit ici essentiellement de "packaged goods" (produits sous
emballage).
35 Type de Nombre de CA moyen de CA total de Présence CA des Présence CA des
magasin magasins de la catégorie la catégorie du magasins du magasins
chaque type dans chaque dans chaque produit où le produit où le
faisant partie type de type de H (1) produit (1) H (2) produit
du panel magasin (en magasin est présent (2) est
000 Euros) présent
A 1 1 000 1 000 0 0 1 1 000
B 3 100 300 1 300 0 0
C 10 10 1001000
D 100 1 1001000
Total 114 1500 500 1 000

DV du produit dans l’hypothèse H (1) = 500 / 1 500 = 33.3%
DV du produit dans l’hypothèse H (2) = 1 000 / 1 500 = 66.7%

Dans cet exemple, le panel est constitué de 114 magasins de tailles
très inégales : un magasin de type A (un hypermarché de grande
taille), 3 supermarchés (type B), 10 grandes supérettes (type C) et
100 petits magasins de proximité (type D).
La taille d'un magasin est donnée par son CA (chiffre d'affaires)
annuel de toutes les catégories de produits "f.m.c.g.". Les disparités
èmedonnées ci-dessus en 3 colonne ont naturellement été très
exagérées pour faciliter la compréhension du concept.
La présence du produit est égale à "1" lorsque le produit est présent,
"0" sinon. Par exemple, le produit dans H (1) n'est pas présent dans
l'hypermarché A, alors que le produit dans H (2) n'est présent que
dans ce seul magasin.
La DV se calcule comme le rapport entre le CA des magasins où le
produit est présent et le CA total de la catégorie. On voit qu'être ou
non présent dans le magasin de type A (hypermarché) est
déterminant pour la DV, la présence dans les autres magasins étant
plus secondaire : la pondération par la taille des magasins est
indispensable.
- Différentes actions promotionnelles liées au magasin, sans pour
autant prendre en compte la totalité des activités promotionnelles du
produit. Le panel permet de distinguer plusieurs sortes d'activité
promotionnelles : les MEA (Mises En Avant), les prospectus, les
réductions de prix, les stop-rayon, etc.
- Les prix des différents produits. Le panel distingue entre le prix
"fond de rayon", c'est-à-dire le prix standard que paye un
consommateur lorsqu'il achète le produit en dehors de toute
promotion, et le prix "en promotion" (parfois noté "réduction de
36 prix"). C'est généralement le cas des MEA, qui sont le plus souvent
assorties d'une baisse du prix de vente par rapport au prix "fond de
rayon".

Toutes ces variables viennent naturellement s'ajouter à la mesure du
volume de ventes. Ce volume peut être le cas échéant réparti selon les
différentes variétés du produit. Bien entendu, ces mesures sont périodiques :
si la saisie de l'information est faite à la semaine, l'information elle-même
23est le plus souvent publiée par périodes de 4 semaines .

On notera que le panel de détaillants n'est aucunement basé sur
l'interrogation de consommateurs, mais sur la seule observation des achats
en magasin. C'est un point de doctrine essentiel des panels de détaillants :
moins on se base sur les déclarations des consommateurs et meilleure est la
fiabilité des résultats auxquels on aboutit.
La compatibilité des panels entre eux, une condition à la fois nécessaire
et impossible
Remarquons tout d'abord qu'il n'est pas possible de prévoir directement
un volume pour un nouveau produit (directement voulant dire ici "sans
intermédiaire"), dans la mesure où il n'existe aucun élément antérieur sur
lequel appuyer cette prévision. La prévision de volume d'un nouveau produit
est donc nécessairement fondée sur la prévision d'une partie au moins des
composantes des ventes.

Par exemple, l'un des principaux modèles conçus aux USA dans les
années 1970 repose sur la prévision de la pénétration en fin de première
erannée combinée dans le temps avec une prévision du taux de 1 ré-achat
pour obtenir un volume final.


23 Les panels considèrent 13 périodes de 4 semaines dans l'année. Pour rattraper le temps
qui passe et ne pas laisser les choses dériver trop loin par rapport au calendrier réel basé sur
la rotation de la Terre, des années de 53 semaines doivent être introduites de temps en
temps (un peu comme les années bissextiles introduisent un jour supplémentaire tous les 4
ans).
37 Notre point de vue sur cette question est fondé sur les deux observations
suivantes :
- La prévision de volume doit être basée sur la prévision de la
fréquence d'achat et de la quantité moyenne achetée par acte
24d'achat qui, combinées dans une règle simple aisément vérifiable
par tous, aboutit au volume du produit.
- Pour cela il faut d'abord s'assurer que les composantes des ventes
données par les panels de consommateur sont complètement
cohérentes et redonnent bien, après combinaison entre elles par cette
même règle, les volumes des produits existants et en premier lieu le
volume de la catégorie de produits.

La première chose est donc de définir la règle de combinaison des
composantes des ventes qui sera utilisée pour aboutir à un volume de
25ventes . Au niveau le plus élémentaire, celui d'un seul consommateur, le
volume annuel est donné très naturellement par la multiplication du nombre
d'achats faits dans l'année par la quantité moyenne par acte d'achat. Si par
exemple le consommateur a réalisé 4 actes d'achat dans l'année et qu'à
chaque fois il a acheté un flacon de 250ml du produit, il aura acheté au total
un litre de produit dans l'année.

Passer au niveau de l'ensemble des consommateurs faisant partie de
l'échantillon du panel signifie simplement sommer le nombre d'achats faits
dans l'année par les consommateurs de l'échantillon.

Comme le panel utilise un échantillon représentatif de la population des
ménages français, l'extrapolation à la population du volume annuel de la
catégorie obtenu sur l'échantillon se fait directement par :


24 On remarquera que le taux de ré-achat n'est pas considéré ici comme une composante des
ventes essentielle qui puisse servir à établir une prévision de volume. Il est préférable
d'utiliser la fréquence d'achat et faire une prévision de cette fréquence plutôt que de faire
er erune prévision d'un taux de 1 ré-achat. En conséquence, le taux de 1 ré-achat sera
simplement déduit des prévisions de la fréquence d'achat et ne constituera plus une
information capitale en tant que tel.
25 La combinaison de la pénétration avec le taux de ré-achat pour donner un volume n'est ni
simple ni directe, et ne permet pas de se rendre compte facilement et immédiatement de la
cohérence des composantes des ventes entre elles, telles qu'elles apparaissent dans un panel
de consommateurs.
38 L
B
8L 0 H L H B H 3

8 : Volume annuel du produit (France entière)
0 : Nombre de ménages français
: Pénétration annuelle de la catégorie de produits (proportion de
foyers ayant acheté au moins une fois au moins un produit de la
catégorie)
: Fréquence d'achat de la catégorie (nombre moyen d'achats faits
dans l'année par l'ensemble des acheteurs de l'échantillon)
3 : Quantité moyenne achetée par acte d'achat, quelle que soit la
marque achetée.

L'utilisation d'un échantillon représentatif permet de prendre directement
les valeurs de , B et3 observées sur l'échantillon et de les appliquer à la
population.

Exemple. Ci-dessous les données du panel de consommateurs concernant
une catégorie de produits de "boissons énergétiques".

Nombre de ménages (en milliers) : N 25 890
Pénétration annuelle : p 14.343%
Fréquence moyenne : f 4.245
QA /acte en litres : Q 3.335
Volume recalculé à partir
des composantes des
Volume en milliers de litres : V 52 572
ventes données par le
panel consommateurs

La règle de combinaison des composantes des ventes est particulièrement
simple : il suffit de multiplier entre eux les quatre premiers chiffres pour
obtenir le cinquième, c'est-à-dire le volume total. On vérifie que l'on a bien
(aux arrondis près) :

52572 L 25890 H 14.343% H 4.245 H 3 .335

Suite à une ancienne compétition perdue avec les panels de détaillants
pour la fourniture de volumes statistiquement fiables, le panel de
consommateur ne publie plus de volumes mais seulement des indicateurs de
39 26volume tels que le "QA / NA", c'est-à-dire la quantité moyenne achetée
27par acheteur . Toutefois, cet indicateur est de peu d'intérêt dans une optique
de modélisation, puisqu'il ne prend pas en compte la fréquence d'achat du
consommateur.
Lorsqu'on rapproche d'un côté le volume donné par le panel de
consommateurs et de l'autre le volume donné par le panel de détaillants pour
la même période, on constate dans tous les cas une différence plus ou moins
grande entre ces deux instruments, censés pourtant mesurer la même
réalité : en bref, ils ne s'accordent jamais.

Il y a quantité de raisons pouvant expliquer cet état de fait, sur lesquelles
nous ne reviendrons pas ici. D'un point de vue opérationnel, et c'est notre
optique dans notre approche de modélisation, nous adopterons la position
suivante :
- Le volume donné par le panel de détaillants est nettement plus
proche du "vrai" volume que celui implicitement donné par le panel
de consommateurs. Par-là, nous ne faisons que suivre les avis de la
grande majorité des utilisateurs des deux panels pour des produits
"f.m.c.g.".
- En conséquence, il est nécessaire ce "redresser" les données fournies
par le panel de consommateurs pour rendre les composantes des
ventes complètement cohérentes avec les volumes donnés par le
panel de détaillants.

Ce redressement des données issues du panel de consommateurs
nécessite de faire les deux hypothèses suivantes :
- Les quantités par acte sont correctement mesurées dans le panel, et
ne seront donc pas modifiées. On pense en effet qu'une fois acceptée

26 Les panels de consommateurs semblent ignorer les volumes de ventes, comme si le but
final poursuivi n'était pas là. Ils disent vouloir avant tout mesurer périodiquement les
composantes des ventes (pénétration, fréquence et quantités par acte). Il ne faut pas oublier
cependant que les composantes des ventes doivent être cohérentes, c'est-à-dire redonner les
volumes selon la règle : L 0 H L H B H 3 .
27 Bien entendu, il existe une relation simple entre le "QA par acte d'achat" et le" QA/NA".
Cette relation est la suivante : QA/NA = QA par acte × fréquence d'achat.
40