PREVISION DES VENTES

Transcription

PREVISION DES VENTES
PREVISION DES VENTES
Polycopié du produit multimédia
Auteur : Régis Bourbonnais
Université de Paris-Dauphine
Octobre 2001
Régis Bourbonnais - Prévision des ventes
Sommaire
Chapitre 1 : LA PREVISION DES VENTES : QUELQUES REFLEXIONS PRELIMINAIRES
1.
Pourquoi élaborer des prévisions des ventes ?........................................................................ 4
1.1. La prévision conditionne l'optimisation.......................................................................... 4
1.2. L'obligation de prévoir est liée aux délais de réaction.................................................... 4
2. Ce qui caractérise un problème de prévision .......................................................................... 5
3. Qui prévoit ?............................................................................................................................ 6
3.1. Le processus d’élaboration de la prévision..................................................................... 6
3.2. La prévision comme une aide à la décision.................................................................... 7
Chapitre 2 : LA DECOMPOSITION D’UN HISTORIQUE DES VENTES
1.
2.
La notion d'historique ............................................................................................................. 9
Le calcul des statistiques de base et la présentation des données ......................................... 10
2.1. Le calcul des statistiques de base.................................................................................. 10
2.2. La présentation des données ......................................................................................... 11
3. L'analyse de série chronologique et la prévision .................................................................. 14
3.1. Les étapes de la prévision des ventes............................................................................ 14
3.2. Recherche et correction de valeur s anormales.............................................................. 15
3.2.1
La détection des valeurs anormales ...................................................................... 15
3.2.2
La correction des valeurs anormales..................................................................... 17
3.3. Le schéma de décomposition ........................................................................................ 18
3.4. La tendance ................................................................................................................... 20
3.5. La saisonnalité............................................................................................................... 22
3.5.1
Pourquoi analyser une saisonnalité ? .................................................................... 22
3.5.2
La correction des jours ouvrables ......................................................................... 22
3.5.3
Le calcul de la saisonnalité ................................................................................... 23
3.5.4
Test sur la saisonnalité .......................................................................................... 30
3.5.5
Famille de saisonnalité.......................................................................................... 32
3.6. La composante cyclique ................................................................................................ 33
3.7. Le facteur résiduel......................................................................................................... 33
Chapitre 3 : PRINCIPALES METHODES (1) : LES METHODES FONDEES SUR LE
LISSAGE EXPONENTIEL
1.
Caractéristiques des méthodes de lissage.............................................................................. 34
1.1. Principes de base........................................................................................................... 34
1.2. Formulation................................................................................................................... 34
1.3. Rôle de la constante de lissage...................................................................................... 36
2. Le lissage simple : le modèle stationnaire ............................................................................ 38
3. Le lissage exponentiel double : le modèle linéaire ............................................................... 39
4. Les modèles de Holt et Holt–Winters................................................................................... 42
4.1. Le modèle de Holt......................................................................................................... 42
4.2. Le modèle avec tendance et saisonnalité (modèle de Holt–Winters) ........................... 42
Régis Bourbonnais - Prévision des ventes
5.
Comment choisir le coefficient de lissage ?.......................................................................... 45
5.1. Principes généraux ........................................................................................................ 45
5.2. Valeur de α qui minimise la somme des carrés des erreurs de prévision..................... 45
5.3. Procédure de régulation d'un coefficient de lissage ...................................................... 46
5.3.1
Principes généraux ................................................................................................ 46
5.3.2
Les variables de contrôle ....................................................................................... 47
5.3.3
Application............................................................................................................ 50
Chapitre 4 : PRINCIPALES METHODES (2) : BOX-JENKINS ET MODELE CAUSAL
1.
La corrélation et le corrélogramme ....................................................................................... 54
1.1. La corrélation ................................................................................................................ 54
1.1.1
Mesure du coefficient de corrélation linéaire ....................................................... 54
1.1.2
Limites de la notion de corrélation ....................................................................... 56
1.2. Le corrélogramme et la fonction d'autocorrélation....................................................... 56
1.3. Introduction à la méthodologie de Box et Jenkins ........................................................ 60
1.3.1
Typologie des modèles.......................................................................................... 60
1.3.2
Le problème de la stationnarité............................................................................. 62
1.3.3
Recherche de la représentation adéquate .............................................................. 62
2. L'approche exogène .............................................................................................................. 65
2.1. La notion d'ajustement et le modèle de régression simple............................................ 66
2.2. La modélisation à plusieurs variables : l'économétrie .................................................. 67
2.3. Interprétation statistique d'un modèle ........................................................................... 68
2.4. Exemples d’estimation économétrique à l’aide des outils sur tableur Excel ................ 71
2.5. La sélection de variables explicatives........................................................................... 74
1. Mesure de la qualité d'une prévision..................................................................................... 79
Chapitre 5 : EVALUATION DES METHODES DE PREVISION
1.1. Les indicateurs de mesure............................................................................................ 79
1.2. La prévision est-elle biaisée ? ....................................................................................... 80
1.3. Convergence de la prévision......................................................................................... 81
1.4. Détection de la cause de l'erreur ................................................................................... 82
1.5. Quelle erreur de prévision est admissible ? .................................................................. 83
1.6. La simulation................................................................................................................. 83
2. Evaluation synthétique de la qualité de la prévision............................................................. 84
2.1. Calcul d’un indice pondéré ........................................................................................... 84
2.2. Evaluation graphique .................................................................................................... 85
3. Procédures d'évaluation ........................................................................................................ 87
3.1. Durée de la mesure........................................................................................................ 87
3.2. Comparaisons de prévisions ......................................................................................... 88
3.3. Exemples d’outils d’alerte ............................................................................................ 89
Régis Bourbonnais - Prévision des ventes
Chapitre 1
LA PREVISION DES VENTES : QUELQUES REFLEXIONS
PRELIMINAIRES
Nous examinons dans ce chapitre introductif en quoi l'obligation de prévoir la demande dépend
de l'organisation même de l'entreprise et de son secteur d'activité. Nous présentons ensuite
comment aborder la prévision des ventes dans l'entreprise : comment la caractériser en terme de
problème et de solution. Puis nous proposerons quelques définitions permettant de distinguer les
notions de prévision et d'objectif. Enfin nous montrons que ce problème de prévision est transversal
par rapport aux fonctions de l'entreprise.
1. Pourquoi élaborer des prévisions des ventes ?
Cette question peut sembler triviale, cependant elle mérite réflexion et s'avère plus complexe
qu’il n’y paraît dans sa réponse. Deux points sont abordés.
1.1. La prévision conditionne l'optimisation
La prévision de la demande est à la base de l’optimisation de la chaîne logistique. Quel que soit
le type d’organisation d’une entreprise (flexibilité et réactivité) et son degré d’intégration dans le
pilotage des flux, deux éléments sont essentiels pour déterminer le calcul d'un approvisionnement
optimal :
− la prévision de consommation,
− la fiabilité attendue de cette prévision.
La prévision de consommation détermine de manière directe une partie du niveau
d'approvisionnement ; il s'agit de couvrir au minimum le besoin pour un certain délai.
La fiabilité attendue de cette prévision, ou la crédibilité de la prévision, permet de dimensionner
de manière optimale le niveau du stock de sécurité.
1.2. L'obligation de prévoir est liée aux délais de réaction
Toutes les entreprises ne sont pas dans l'obligation de prévoir, du moins dans le cadre de leur
système de pilotage des flux.
Le cas extrême est représenté par les entreprises qui travaillent « à la commande », c'est-à-dire
celles dont le délai de livraison accepté par ses clients est supérieur au délai d'approvisionnement
des matières auprès des fournisseurs et au délai de production. Quelques entreprises sont dans ce
cas : notamment celles du secteur aéronautique, des travaux publics, des chantiers navals. Pour
elles, le problème de la prévision des ventes, à court et moyen terme, ne se pose pas.
A l'opposé, figure la grande majorité des entreprises du secteur de la grande consommation. Le
délai de livraison est de quelques jours, voire de quelques heures (répartiteur pharmaceutique) ; le
stockage des produits finis est alors impératif sous peine d'être en rupture. Les conséquences sont le
risque de la perte de la vente et la dégradation de l'image de marque.
Pour optimiser le niveau de stock, l'obligation de prévoir la demande s'impose.
Le Tableau 1 illustre l'arbitrage que l'entreprise est en mesure d'effectuer : flexibilité ou
stockage. Souvent, on cherche à résoudre un problème de prévision qui peut trouver sa solution
plus facilement par un accroissement de la réactivité et/ou de la flexibilité. Cependant, ce choix
souvent n’existe pas pour l’entreprise, il est imposé par les délais de livraison que les fournisseurs
exigent.
Régis Bourbonnais - Prévision des ventes
Tableau 1 – Pourquoi prévoir ?
Approvisionnement
matière
Fabrication
à la commande
à la commande
sur prévision
à la commande
sur prévision
sur prévision
sur prévision
sur prévision
Emballage
personnalisation
à la
commande
à la
commande
à la
commande
sur prévision
Stock
⇒
Aucun
⇒
matière
⇒
semi-finis
⇒
produits finis
Quelques définitions préliminaires
2. Ce qui caractérise un problème de prévision
La première approche de la prévision consiste à en mesurer les spécificités. Pour envisager une
typologie des problèmes de prévision en terme d'horizon, de type de produit ou de secteur, ou en
terme de but opérationnel, il est utile de dégager quelques traits qui différencient
fondamentalement :
– le secteur d'activité,
– l'utilisation opérationnelle,
– la (ou les) fonction(s) utilisatrice(s) de la prévision,
– l'horizon.
L'approche est très dépendante du secteur d'activité : on ne prévoit pas des livraisons de ciment
par les mêmes méthodes que des ventes de savons. Les causalités économiques sous-jacentes sont
différentes suivant que le secteur est plus ou moins en amont dans le circuit industriel donc plus ou
moins proche de la demande finale, suivant que le produit est stockable ou non, qu'il donne lieu à
un marché de renouvellement (télévision) ou non (acier), que le produit est standardisé ou non.
Tous ces éléments jouent un rôle dans la définition d'une typologie de trois grands secteurs, qui
dans cet ouvrage sont étudiés dans les différents chapitres de la deuxième partie (approche
sectorielle).
Nous pouvons distinguer :
– le domaine des biens industriels intermédiaires (acier, produits chimiques, matériaux de
construction) qui dépendent étroitement de l'environnement économique général, et de l'évolution
de la demande dans de grandes branches (bâtiment, automobile ...).
L'influence de la firme, par sa politique volontariste sur le marché, est assez limitée : le
problème du prévisionniste est alors de savoir quand se passera le retournement de conjoncture ;
– le domaine des produits de grande consommation est à l'extrême opposé : l'influence de la
conjoncture générale est relativement faible ; ceci est largement compensé par une forte sensibilité
à l'environnement concurrentiel. Le prévisionniste doit déterminer quel sera le volume des ventes
compte tenu de l'action marketing de la firme et de celle de ses concurrents ;
– à mi-chemin se situent les biens de consommation durables (automobile, électro-ménager,
télévision, etc.). Sensibles à la fois à la conjoncture économique générale et à des variables
marketing (efforts promotionnels, effets de mode, par exemple), ils sont l'objet de méthodes de
prévision différentes. Ce qui caractérise ces marchés est la présence juxtaposée d'une demande de
premier équipement et d'une demande de renouvellement.
Régis Bourbonnais - Prévision des ventes
3. Qui prévoit ?
3.1.Le processus d’élaboration de la prévision
La responsabilité d'élaboration de la prévision est très variable d'une entreprise à l'autre.
Quelques phrases issues d’interviews en entreprise sur ce sujet :
« Les commerciaux sont les mieux placés car ils sont en contact permanent avec les clients,
cependant leur manque de recul et, surtout, de motivation par rapport aux travaux administratifs
font que nous ne tenons plus compte de leur avis ».
« Les hommes de marketing connaissent bien leur marché, malheureusement ils confondent
leurs désirs avec la réalité ».
« Les logisticiens sont isolés du marché et des clients. Ils ont l'œil rivé sur les stocks et préfèrent
la rupture au sur-stock. Cependant, par leur habitude de mesurer les flux de sortie, ils ont un sens
aigu des chiffres. Ce sont les seuls réellement obligés à élaborer des prévisions ».
Ces trois affirmations sont révélatrices de l'état d'esprit de chacun.
La solution traditionnelle est de laisser à l'homme du terrain (vendeur, représentant, directeur
régional, etc.) le soin de réaliser des prévisions. Les arguments favorables sont nombreux : en
contact perpétuel avec le produit et les acheteurs, il a le sens du marché ; il est également le premier
intéressé à bien prévoir puisqu'il sera jugé sur l'écart entre sa réalisation et sa prévision.
Mais les défauts sont manifestes :
– d'une part cela revient, comme nous venons de le voir au point précédent, à confondre
prévision et objectif, l'homme de terrain faisant un mélange entre ce qu'il suppute de l'évolution du
marché et ce qu'il pense pouvoir faire auprès de la clientèle ;
– d'autre part, il existe une forte tendance à la prévision « marginale ». Il suffit que le dernier
client, rencontré avant d'émettre la prévision, ait passé une commande importante, ou que le jour
précédent ait été très faste, pour que la prévision pour les 3 ou 6 mois à venir devienne très
optimiste. Et inversement.
L'expérience prouve que la prévision des hommes de terrain est souvent biaisée (les écarts sont
systématiquement positifs ou négatifs), pour deux raisons :
– le tempérament personnel du prévisionniste intervient non seulement suivant qu'il est optimiste
ou pessimiste, mais aussi suivant sa préférence pour des écarts potentiels positifs ou négatifs. Ainsi
un vendeur peut, par prudence, émettre des prévisions très « conservatrices », alors qu'un autre ne
craindra pas les écarts négatifs, souhaitant au contraire être « entraîné » par sa prévision ;
– le système de gestion prévisionnelle biaise très sensiblement les prévisions des individus. Si
par exemple les moyens sont affectés aux directions régionales de vente en fonction de la prévision,
ils auront tendance à l'optimisme. Si les primes sont liées à la réalisation de l'objectif, ils auront
tendance au pessimisme.
Nous appellerons prévision entre guillemets (« prévision ») ce type de données bâtardes, à michemin entre un objectif réel et une véritable prévision. Leur mauvaise qualité ne met pas en cause
la performance des hommes du terrain et leur capacité à effectuer un apport essentiel dans un
système de prévision : elle condamne tout système de gestion prévisionnelle qui biaise d'emblée les
données d'entrée qui lui sont nécessaires.
Souvent lorsque des écarts trop importants apparaissent sur les « prévisions », l'entreprise est
tentée de ne plus accorder sa confiance aux hommes de terrain, qui se voient ainsi disqualifiés par
rapport à une tâche qui ne leur semblait pourtant pas la moins intéressante. En conséquence,
l'entreprise recourt à des profils entièrement opposés : la prévision devient l'affaire de statisticiens,
qui ne seront pas suspects d'implication dans le fonctionnement interne de la firme. On assiste alors
Régis Bourbonnais - Prévision des ventes
au développement de ce que l'on peut nommer familièrement « la méthode des matheux » :
l'application aveugle d'une méthodologie statistique à des prévisions de ventes en est une bonne
illustration. Les ventes deviennent une série chronologique, suite abstraite de nombres, à laquelle il
importe d'ajuster le meilleur modèle.
L'éloignement de toute référence concrète aboutit à deux conséquences :
– une autosatisfaction méthodologique : le souci de la modélisation (comment identifier la
structure du modèle ? quelle méthode d'estimation statistique utiliser ? etc.) va rapidement déborder
et provisoirement dominer celui de la prévision. Le but, bien prévoir, disparaît devant les moyens
de l'atteindre, la qualité du modèle statistique est une fin en soi. Si la liaison entre les deux était
biunivoque et directe, cela ne poserait pas de problème. Un bon modèle au sens statistique
donnerait automatiquement une bonne prévision. Malheureusement l'expérience prouve que parfois
tel n'est pas le cas ;
– une coupure avec les utilisateurs, due à l'absence de langage commun, et à l'éloignement des
rationalités, mathématique et explicite pour les uns, intuitive et implicite pour les autres. Cette
coupure provoque un scepticisme face aux modèles dès que le moindre écart se révèle entre
prévisions et réalisations.
L'utilisation d'une pure méthodologie statistique a rarement pu aboutir à l'installation durable
d'un système de prévision dans une entreprise. Entre ces deux écueils, que faire ? Même si cela peut
apparaître difficile aux uns et aux autres : développer une coopération entre ces deux approches, en
établissant des systèmes de prévision qui ne sont pas simplement des modèles de traitement
statistique, mais qui associent les utilisateurs en intégrant des variables significatives par rapport à
leurs schémas de référence.
Le plus souvent, c'est la fonction logistique qui est en charge de la prévision ; et pourtant les
hommes de logistique ne sont pas les mieux placés du fait de leur isolement vis à vis du marché.
Mais l'obligation de fournir des prévisions quantitatives et fines aux fournisseurs ou à la production
fait qu'ils sont jugés responsables en cas de problème.
De manière idéale, l'élaboration de la prévision doit se faire en commun au sein d'un comité
réunissant l'ensemble des fonctions citées précédemment. Chacun doit s'engager sur des chiffres
et à ce titre en est responsable. Ainsi, le risque de focaliser tous les problèmes – ruptures ou surstocks – auprès d'une unique personne, « le prévisionniste », est très fortement diminué.
L’objectif est de disposer, au sein d’un même outil, de toutes les informations susceptibles
d’améliorer le processus d’élaboration de la prévision des ventes.
Des capteurs « informations terrains » (vendeurs) indiquent, via un micro-ordinateur portable,
leur prévision en fonction des actions promotionnelles planifiées ainsi que toutes informations
susceptibles d’influencer les ventes (nouveau client, référencement, promotion client …). Ces
informations sont consolidées au niveau central et directement accessibles par le responsable
commercial. Cette prévision est ensuite confrontée à la prévision marketing et à la prévision
statistique lors du « Comité Prévision ».
3.2. La prévision comme une aide à la décision
La vision que l'on a de l'apport du prévisionniste est souvent un peu magique : elle s'appuie sur
un besoin irrationnel qui prend ses racines dans des époques reculées. La divination était à
l'honneur dans les civilisations méditerranéennes avant l'ère chrétienne : le christianisme mit fin
aux méthodes divinatoires qu'il considérait comme liées aux cultes païens. Ainsi, Saint Augustin se
dressa contre l'illusion des horoscopes et arriva à la conclusion suivante : « Il n'y a donc point d'art
divinatoire. C'est par hasard qu'on prédit vrai ».
L'utilisation directement opérationnelle de la prévision n'est pas souhaitable : elle apparaît plus
comme un outil d'aide à la décision qu'un substitut complet de la réflexion personnelle. L'utilisation
Régis Bourbonnais - Prévision des ventes
directe, sans une étape de validation, de données prévisionnelles serait dangereuse même si parfois
cette étape peut être réduite comme par exemple pour une application de gestion de stock et
d'approvisionnement. De plus c’est la conjonction de l'utilisation d'un système de prévision
formalisé et de la capacité de réflexion du prévisionniste qui permet d'améliorer notablement la
qualité finale de la prévision.
La prévision a doublement hérité des techniques divinatoires : d'une part elle satisfait le même
besoin irrationnel et immense de connaître l'avenir, d'autre part elle se pare d'un côté magique en
utilisant l'outil mathématique, ésotérique comme l'était l'hépatoscopie ou l'astrologie, même si elle
justifie son efficacité par la rationalité de l'outil. L'utilisateur attend beaucoup de la prévision ; cet
espoir constitue pour le prévisionniste à la fois un atout et un risque : l'intérêt qui existe lors de la
mise en place du système peut être suivi d'une déception si les premiers résultats ne correspondent
pas à l'attente.
L'apport d'un système de prévision se situe à deux niveaux :
– dans la durée – c'est-à-dire à la suite de nombreuses émissions de prévisions – pour sa capacité
à réduire significativement la marge d'incertitude. Exprimé en termes statistiques, on pourra
considérer comme une bonne performance de réduire de moitié l'écart-type de l'erreur de
prévision ;
– ponctuellement, savoir anticiper les retournements de conjoncture. Ou alternativement : savoir
prédire si un retournement observé récemment a un caractère durable ou non.
L'entreprise peut attendre beaucoup de la prévision à condition de bien l'utiliser. Il faut à tout
prix éviter la vision passéiste qu'entraîne le sentiment que la prévision est ce que la firme subira
inévitablement. Elle est bien au contraire un outil d'aide à la décision : elle doit servir à l'entreprise
à agir sur son futur et non à le subir.
Régis Bourbonnais - Prévision des ventes
Chapitre 2
LA DECOMPOSITION D’UN HISTORIQUE DES VENTES
Dans ce chapitre, nous allons aborder ce qui caractérise d'un point de vue statistique les données
servant de base à l'étude prévisionnelle, en examinant la notion d'historique et de série
chronologique. L'examen des données est le préalable à toute étude quantitative, que ce soit dans un
but d'analyse ou de prévision.
Nous traiterons ensuite en détail de l'analyse de série chronologique : Qu’est-ce qu’une
observation anormale ? Comment la corriger ? Comment calculer une tendance ? Comment retirer
une saisonnalité ? En définissant un schéma de décomposition, nous pouvons retirer d'un historique
les effets répétitifs qui peuvent être facilement extrapolés, afin de dégager un terme résiduel
représentant les fluctuations erratiques de la chronique.
1. La notion d'historique
Une série chronologique est composée d'un historique, c'est-à-dire d'une suite de valeurs
ordonnées dans le temps à périodicité constante : par exemple, l'indice mensuel des prix à la
consommation de la France entière publié par l'INSEE en base 100 en 1980. La « suite » des
valeurs de janvier 1995 jusqu'à septembre 2000 au mois le mois représente l'historique de l'indice
des prix à la consommation. Les ventes mensuelles, pour un article, de mars 1997 à février 2000
serviront de base historique afin d'élaborer la prévision.
Un historique doit réunir certaines propriétés :
• Il ne se compose que de valeurs connues et calculées, qui sont effectivement réalisées.
• Il est représentatif de ce que l'on cherche à prévoir. Un historique des livraisons ne permet pas
de prévoir la demande !
• Il est homogène dans le temps. Pour reprendre notre exemple d'indice de prix, toutes les
valeurs sont en base 100 en 1980 et correspondent au même mode de calcul et de collecte
statistique.
• Il comprend un nombre minimal d’observations. Il semble logique d'écrire que plus
l'historique est long, meilleure sera la qualité de l'analyse et par voie de conséquence de la
prévision. La longueur minimum d'un historique, c'est-à-dire son nombre de valeurs, est variable
selon le but recherché et la périodicité des données.
Si l'objectif est de fournir des prévisions de périodicité mensuelle à un horizon de 6/12 mois,
nous considérons alors que le minimum de valeurs disponibles est de 3 ans, soit 36 observations
mensuelles, alors que la dimension souhaitable d'un historique se situe aux alentours de 4/5 ans
(surtout en ce qui concerne le calcul de coefficients saisonniers significatifs).
Cette dimension permet d'atteindre un niveau élevé de signification statistique, elle représente un
échantillon suffisant pour qu'il ne s'éloigne pas trop de la population totale qu'il est censé
représenter et offre une cohérence économique satisfaisante.
Régis Bourbonnais - Prévision des ventes
Le nombre d'observations composant un historique est fonction de la périodicité des données.
Ainsi, pour une prévision hebdomadaire à un horizon de 15 semaines, il faut disposer de 156
observations, soit 3 ans.
Il ne sert à rien de vouloir remonter trop loin dans le temps ; en effet, des modifications de
structure de la chronique (telles que la tendance ou la saisonnalité, ou la corrélation avec des
indicateurs) apparaissent avec le temps et risquent de venir perturber la prévision à court terme,
voire même de la dégrader.
Dans un cadre de périodicité différent (bimestre, trimestre, quadrimestre ou annuel), nous
pourrons retenir moins de réalisations car une valeur plus agrégée représente une quantité
d'informations supérieure. En d'autres termes, une donnée annuelle est évidemment moins fine que
les douze données mensuelles qui la composent, mais elle contient néanmoins une quantité
d'informations, disponible pour l'analyse, infiniment supérieure à n'importe quel chiffre mensuel.
C'est ainsi que des modèles économétriques élaborés à partir de statistiques annuelles sont
couramment estimés sur une dizaine d'années, alors qu'il est illusoire d'estimer un modèle de
prévision mensuelle sur dix mois.
2. Le calcul des statistiques de base et la présentation des données
2.1. Le calcul des statistiques de base
Dans ce paragraphe, nous présentons les modes de calcul des statistiques simples :
caractéristique de valeur centrale et caractéristique de dispersion.
− La moyenne
La formule générale de la moyenne d'une série chronologique de terme général xt pour laquelle
nous disposons de n observations est :
n
∑x
t
x=
t =1
n
Le calcul de la moyenne présente un intérêt limité : deux séries des ventes peuvent avoir une
moyenne identique alors que leur allure générale est très différente. Egalement dans le cas de séries
ayant une forte tendance soit à la hausse soit à la baisse, la moyenne variera fortement à chacune
des nouvelles réalisations. C'est pourquoi il est préférable de présenter avec la moyenne un
coefficient permettant de prendre en compte la dispersion.
− La dispersion
La variance d'une série chronologique permet d'évaluer la dispersion autour de la moyenne.
Nous devons distinguer deux cas, selon que nous sommes en présence de toute la population de
façon exhaustive ou que nous disposons seulement d'un échantillon de réalisations considéré
comme représentatif de la population totale.
La formule de la variance (Var) dans le cas d'une population connue totalement (variance
théorique) est :
∑ (x − x )
2
t= n
t
Var(x) =
t =1
n
La formule de la variance dans le cas d'un échantillon (variance empirique) est donnée par :
Régis Bourbonnais - Prévision des ventes
∑(
t =n
Var(x) =
x −x
t
t= 1
)
2
n−1
Dans le cas du calcul de la variance d'une série chronologique, la deuxième formule est la seule
retenue ; en effet, nous ne connaissons pas toutes les valeurs, aussi bien les réalisations futures que
celles qui sont très éloignées dans le passé ; la série chronologique constitue donc un échantillon
représentatif de la série des ventes vraie mais inconnue.
Dans la littérature statistique ou économique, on préfère présenter la racine carrée de la variance
appelée écart-type (σx) :
σx = Var (x )
Cet écart-type est l’un des indicateurs fondamentaux de la difficulté à prévoir1 une chronique, il
présente l’avantage de s’exprimer dans la même unité que l’historique. Pour pouvoir interpréter sa
valeur, il convient de le rapporter à la moyenne.
− Coefficient de variation
Le coefficient de variation se définit comme étant le rapport de l'écart-type à la moyenne calculé
à partir de la série brute :
σx
CV =
x
Il rend compte de la difficulté prévisionnelle d'un historique. Plus il est élevé, plus la variance de
la série est importante rapportée à la moyenne et, donc, plus la tâche du prévisionniste est a priori
délicate.
Nous pouvons classer les historiques des ventes en fonction de ce coefficient :
− inférieur à 0,5 : a priori facile à prévoir,
− compris entre 0,5 et 1 : de dispersion moyenne,
− supérieur à 1 : la variance de la série est importante rapportée à sa moyenne et donc, cette série
peut s'avérer difficile à prévoir.
Néanmoins le coefficient de dispersion de la série brute ne préjuge pas complètement des
difficultés ultérieures : une série fortement fluctuante peut être largement « expliquée » par des
coefficients saisonniers très marqués et/ou par un facteur explicatif très influent.
2.2. La présentation des données
Lorsque le prévisionniste dispose d'un historique, le premier réflexe qu'il doit avoir est de tracer
le graphique de la série chronologique appelée aussi courbe représentative du phénomène. Cela
permet de visualiser l'évolution de la chronique, de déceler les accidents éventuels (pics ou creux),
et d'en tirer une tendance générale.
Pour aider à une meilleure visua lisation du graphique, il est possible d'appliquer à la série des
valeurs brutes une transformation ou un filtre. Une transformation logarithmique 2 « écrase » les
1
Nous pouvons noter que si l'écart-type de l’historique est significativement supérieur à celui de l’écart-type de
l’erreur de prévision, le système de prévision est performant.
2
Attention aux valeurs négatives ou nulles.
Régis Bourbonnais - Prévision des ventes
valeurs fortes afin de se ramener à une échelle plus restreinte, elle est utilisée pour des séries
affectée d'une tendance très forte. Le graphe est alors en échelle semi-logarithmique.
Appliquer un filtre consiste à calculer depuis la série brute une autre série, appelée série filtrée,
déduite de la première à partir d'un processus dynamique. Alors que pour une série transformée, il
est possible pour chacune de ces valeurs de revenir à la série initiale (par exemple, le passage aux
exponentielles pour une chronique préalablement transformée par les logarithmes). Pour une série
filtrée, il s'avère impossible de recalculer la série initiale, même en disposant du type de filtre
employé.
Le filtre le plus employé est la moyenne mobile qui permet d'écrêter les pics et les creux afin de
mieux déceler la tendance de fond de la chronique. Il s'agit de calculer une moyenne sur un certain
nombre de valeurs de la série et de l'affecter à un mois donné.
Soit xt le terme général de la série brute, la réalisation à la période t, par exemple la vente
observée en octobre 2000. La série filtrée MMt à l'aide d'une moyenne mobile, par exemple, d'ordre
3 a pour expression : MMt = (x t-1 + x t + x t+1 ) / 3
Il est à noter que cette moyenne mobile d’ordre trois ne peut être calculée que pour t = 2 à n – 1
(n étant le nombre d’observations), car on ne dispose pas d’observations précédant x 1 et suivant xn .
Graphiquement, nous observons que la moyenne mobile se trouve au barycentre des trois
observations (cf. Graphique 1).
Graphique 1 – Moyenne mobile d’ordre 3
xt
MMt
x t-1
•
x t+1
xt
t-1
t
t+1
t
Le choix de l’ordre de la moyenne mobile dépend de l’objectif recherché. Plus l’ordre est élevé,
plus la série est lissée et les phénomènes de court terme sont alors gommés, au risque de perdre en
réactivité ; seul reste le mouvement de fond (la tendance). L'inconvénient réside alors dans la perte
plus grande d'informations en début et fin d'historique. Une mention particulière concerne la
moyenne mobile d’ordre douze qui, pour des séries historiques de périodicité mensuelle, représente
l’évolution des consommations (ou des ventes) hors phénomènes saisonniers.
Dans les publications statistiques et les revues d'information économique (BMS3 , l'Expansion, Le
Nouvel Economiste, ...), la plupart des graphiques représentent des phénomènes filtrés par moyenne
mobile sur 3 mois. Ceci a pour effet de rendre la courbe plus lisse, de «gommer » les fluctuations
en répartissant d'un mois sur l'autre les valeurs extrêmes ; d'où le terme de lissage des données ou
de courbe lissée lorsqu'on procède à un filtrage par moyenne mobile.
Les formules générales de filtrage par moyenne mobile sont les suivantes :
3
Bulletin Mensuel de Statistique de l’INSEE.
Régis Bourbonnais - Prévision des ventes
– Si l’ordre correspond à un nombre impair (2 m + 1),
1
2m + 1
MMt =
i= m
∑x
t + i
i =− m
– Si l’ordre correspond à un nombre pair (2 m), il nous faut recourir à un artifice de calcul
afin de faire correspondre le terme central x t à la valeur de la moyenne mobile MMt.
MMt =
1 1
x
2 m  2
t − m
+
i = m −1
∑
x
t + i
+
i = − m +1
1
x
2
t + m



Nous voyons que, pour des raisons de commodité des calculs, il est préférable de retenir des
moyennes mobiles d'ordre impair4 .
Le Tableau 2 présente un exemple de calcul d’une moyenne mobile d’ordre trois et d’une
moyenne mobile d’ordre six, ainsi que la moyenne, l’écart-type et le coefficient de variation.
Tableau 2 – Exemple de calcul de moyennes mobiles et de coefficients de variation
temps
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Consommation
100,00
89,00
99,00
56,00
147,00
87,00
56,00
140,00
147,00
156,00
99,00
138,00
100,00
251,00
156,00
147,00
98,00
134, 00
127,00
185,00
Moyenne
Ecart-type
CV
125,60
44,11
0,35
MM3
MM6
96,00
81,33
100,67
96,67
96,67
94,33
114,33
147,67
134,00
131,00
112,33
163,00
169,00
184,67
133,67
126,33
119,67
148,67
92,67
93,25
101,50
113,83
118,17
118,42
126,33
139,25
149,25
149,25
148,42
148,00
149,92
146,67
125,00
28,28
0,23
128,21
21,09
0,16
Exemple de calculs :
Pour t = 10 (moyennes mobiles d’ordre 3 et 6 à la dixième période)
MM310 = (147 + 156 + 99) / 3 = 134
4
La technique des moyennes mobiles est très utilisée par les chartistes afin d’analyser l’évolution des marchés
financiers (cf. Béchu et Bertrand, 1997). Dans ce cas particulier, la valeur de la moyenne mobile est indiquée en face de
la dernière observation sans se préoccuper d’un quelconque centrage.
Régis Bourbonnais - Prévision des ventes
MM610 = (56/2 + 140 + 147 + 156 + 99 + 138 + 100/2) / 6 = 126,33
Nous observons que le coefficient de variation de la série brute est supérieur à celui de la série
lissée MM3 qui lui-même est supérieur à celui de la série MM6 ; nous retrouvons bien la mécanique
du lissage qui écrête les pics et les creux.
3. L'analyse de série chronologique et la prévision
3.1. Les étapes de la prévision des ventes
L'étude des phénomènes économiques a distingué depuis longtemps divers types d'évolution, qui
peuvent éventuellement se combiner :
– La tendance (Tt) correspond à une variation lente s'effectuant dans un sens déterminé qui se
maintient pendant de longues périodes.
– Le cycle (Ct) est un mouvement d'allure quasi périodique comportant une phase croissante et
une phase décroissante. En conjoncture, il est représenté par le cycle de Kitchin d’une période de 4
à 5 ans. Dans la plupart des travaux sur les séries temporelles, la tendance et le cycle sont regroupés
en une seule composante.
– La composante saisonnière (St) correspond à des variations s'effectuant régulièrement au cours
de la semaine, du mois, du trimestre, etc. Elle tient aux saisons, à des habitudes sociologiques et
aux rythmes de l'activité humaine.
– Les fluctuations accidentelles (Rt) sont des mouvements erratiques, de fréquences élevées,
présentant une allure générale plus ou moins stable. Elles résultent des influences, que toutes sortes
d'événements exercent sur la grandeur en cause, si nombreuses que l'on a renoncé à (ou que l'on ne
peut) les étudier toutes dans le détail.
Certaines séries statistiques présentent l'un ou l'autre de ces mouvements à l'état pur. Mais la
plupart d'entre elles ont une allure plus complexe. Il est possible d'y déceler par exemple une
croissance générale et certaines variations saisonnières auxquelles se superposent des fluctuations
accidentelles. Remarquons que ces différentes composantes s’entendent pour des séries
économiques liées à la conjoncture, le plus souvent mensuelles ou trimestrielles. Dans le domaine
de l’entreprise, les composantes sont conservées mais les périodicités sont parfois différentes
(hebdomadaire, par exemple).
L’objectif de toute méthodologie prévisionnelle est de décomposer les ventes, que l’on cherche à
prévoir, en composantes fondamentales afin de les isoler, puis de les extrapoler indépendamment
les unes des autres. La prévision finale est obtenue en réagrégeant tous ces phénomènes.
Le Schéma 1 illustre les étapes classiques de la prévision des ventes.
Régis Bourbonnais - Prévision des ventes
Schéma 1 – Les étapes de la prévision des ventes
Détection et correction des valeurs anormales
Analyse de la saisonnalité
Correction des jours ouvrables
Calcul des coefficients saisonniers
Analyse de l'historique hors phénomènes accidentels
ou répétitifs
Lissage exponentiel
Modèle explicatif
Tendance par régression
Prévision par lissage, modèle explicatif
ou tendance
Prévision par réagrégation des composantes
Ajout de la saisonnalité et correction des jours ouvrables
Prévision de la série des ventes
3.2. Recherche et correction de valeurs anormales
Préalablement à tout traitement statistique sur un historique de ventes, il convient d'effectuer une
partition entre :
− une activité régulière et habituelle, qualifiée par l'homme d'expérience de normale ;
− un événement accidentel, imprévisible, qualifié alors d’anormal.
Ces « consommations anormales » sont observées fréquemment dans la grande consommation,
mais aussi dans d'autres secteurs. Les demandes exceptionnelles provenant de l'exportation ou
d'importantes centrales d'achat, ou encore des aléas de la distribution (grèves des transports par
exemple) peuvent perturber fortement le processus habituel.
Il s’agit d’un phénomène non répétitif et qui revêt un caractère exceptionnel : par exemple, une
vente promotionnelle n’est pas anormale car elle fait partie de la « vie normale » de l’entreprise.
Le problème est donc double : d'une part, identifier l'observation jugée anormale et, d'autre part,
la corriger afin de neutraliser ses effets.
3.2.1 La détection des valeurs anormales
Plusieurs méthodes existent sans toutefois qu'aucune ne donne entière satisfaction. Nous
présentons succinctement quatre techniques, le lecteur intéressé par les développements
mathématiques et une description de la littérature dans le domaine se reportera à la référence citée.5
− La méthode de l'intervalle de confiance
Cette méthode suppose la normalité des observations 6 ; sa mise en œuvre est très simple. Elle
consiste à calculer l'écart-type de l’historique des consommations, puis à filtrer toutes les
observations qui sortent d'un intervalle de confiance déterminé.
5
Vallin (1984).
L’hypothèse que les observations suivent une loi normale (la fameuse courbe en « cloche ») entraîne une symétrie
de la distribution par rapport à la moyenne.
Régis Bourbonnais - Prévision des ventes
6
Soit σx l'écart-type de la série, nous pouvons calculer l'intervalle de confiance de la manière
suivante :
IC = x ± 1,96 × σx
où 1,96 est la valeur de la loi normale pour un seuil de confiance de 0,05.
Toute observation extérieure à cet intervalle est considérée comme anormale.
Cette méthode pose des problèmes d'application lorsque les séries sont très saisonnières. En
effet, les mois forts ou faibles risquent de « sortir » de l'intervalle de confiance et donc d'être
détectés.
En reprenant les données du Tableau 2, l’intervalle de confiance est donné par :
IC = 125,60 ± 1,96 × 44,11 soit IC = [39,14 ; 212,05]
L’observation de la période t = 14 (x14 = 251) est extérieure à l’intervalle de confiance, elle est
donc détectée comme douteuse.
− La méthode du test de moyenne
Cette méthode suppose, là encore, la normalité des observations. Pour tester la conformité de
l'observation xt, on applique un test de comparaison de moyennes entre deux échantillons :
– l'un réduit à un seul élément, l'observation x t que l'on désire tester ;
– l'autre est composé des n – 1 éléments de l’historique (n étant le nombre d'observations).
Nous calculons la statistique suivante (dite du Student empirique) :
x −x
t
t cal =
∑ (x − x)
2
j
j ≠t
( n − 1)(n − 2 )
Si t cal > t lu (valeur de référence lue dans une table de Student pour n – 2 degrés de liberté et un
risque α fixé à 0,05), alors l'observation est considérée comme anormale ; dans le cas contraire
(t cal < tlu), l'observation est classée comme normale.
En reprenant les données du Tableau 2 et en appliquant cette formule à l’observation t = 14,
nous trouvons les éléments suivants :
∑ (x − x)
2
132
= 16,32
22362
j ≠t
19 × 18
t cal = 16,32 > tlu =2,101 (α = 0,05 et pour un nombre de degrés de liberté de 20 – 2 = 18)
x = 119 (hors l’observation x 14) ;
j
= 22 362 ; t cal =
Le résultat de ce test corrobore le précédent, l’observation t = 14 est anormale.
− La méthode du double intervalle de confiance
Cette méthode est une extension de la première et est utilisée pour des séries dont la saisonnalité
est très marquée. Elle consiste à calculer un intervalle de confiance pour chaque année et pour
chaque mois (ou trimestre). Une observation est considérée comme douteuse si elle «sort » à la fois
de l'intervalle de confiance année et de l'intervalle de confiance mois (trimestre). Le Tableau 3
illustre cette méthode.
Régis Bourbonnais - Prévision des ventes
Tableau 3 – Calcul d'un double intervalle de confiance
T1
T2
T3
T4
MOYENNE
ECART -TYPE
IC1
IC2
Année 1
164
198
85
179
156,5
43,00
72,21
240,79
Année 2
168
201
98
197
166
41,27
85,10
246,90
Année 3
197
209
100
216
180,5
46,97
88,44
272,56
Année 4
223
245
119
260
211,75
55,14
103,67
319,83
Année 5
298
309
124
267
249,5
74,08
104,31
394,69
MOYENNE
210
232,4
105,2
223,8
ECART -TYPE
48,91
41,82
14,36
34,53
IC1
114,13
150,44
77,06
156,11
IC2
305,87
314,36
133,34
291,49
IC1 et IC2 sont les bornes de l'intervalle de confiance.
Chaque observation est comparée à l'intervalle de confiance de l'année et du trimestre à laquelle
elle appartient. Si elle est extérieure à au moins deux intervalles, l'observation est classée comme
étant anormale. Par exemple, la valeur du deuxième trimestre 1989 (Année 3) est comparée à
l'intervalle de confiance de son trimestre [150,44 ; 314,36] et de son année [88,44 ; 272,56]. Elle
appartient aux deux intervalles de confiance. Nous pouvons conclure qu'elle est donc normale.
Cette dernière méthode fonctionne d'autant mieux que le nombre d'observations est important.
Elle est donc particulièrement adaptée aux séries de périodicité mensuelle.
Ces trois méthodes supposent que les observations suivent une loi de Gauss. Or, les séries de
ventes obéissent rarement à une telle loi qui impose la symétrie de la répartition par rapport à la
moyenne. Cependant, malgré cette limite, ces tests sont les plus utilisés car ils ont un caractère
opérationnel simple.
– Détection par régression
Le principe consiste à constituer une variable muette7 relative à l'observation que l'on désire
tester. Cette variable est composée de 0 sauf pour la période de l'observation potentiellement
anormale, pour laquelle on indique 1. Si le coefficient estimé par régression de cette variable est
significativement différent de 0, alors l'observation est anormale.
Cette méthode, la plus rigoureuse sur le plan statistique (aucune hypothèse sur la distribution des
observations), est efficace pour tester ponctuellement une observation, mais reste lourde à mettre en
œuvre dans le cas d'un traitement « industriel », c'est-à-dire automatisé, portant sur de très
nombreuses séries des ventes.
3.2.2 La correction des valeurs anormales
L'objectif est de neutraliser les effets de l'observation anormale en la remplaçant par une autre.
Nous allons donc préciser les différentes procédures permettant de déterminer cette nouvelle
valeur.
7
Nous revenons plus en détails sur cette technique qui suppose de connaître le modèle de régression multiple et son
interprétation (cf. chapitres 4 et 6).
Régis Bourbonnais - Prévision des ventes
– Intervention humaine
Le plus simple et le plus logique consiste à laisser au gestionnaire la responsabilité de la
modification ; en effet, c'est lui – par sa connaissance des causes – qui est le mieux placé pour
connaître la part d'anormalité qui existe dans une observation. Cependant, en cas de références
logistiques nombreuses (plus d’une centaine), le gestionnaire du système se trouve dans
l’incapacité matérielle de consacrer le temps nécessaire à cet exercice.
– Intervalle de confiance
L'observation détectée comme anormale est ramenée à la limite haute ou basse de l'intervalle de
confiance. Cette méthode est simple dans son fonctionnement et facilement automatisable.
Cependant il ne s'agit pas d'une véritable neutralisation car les bornes de l'intervalle sont une limite
théorique qui n'a aucune existence et peut donc venir perturber par la suite le calcul des coefficients
saisonniers.
– Valeur estimée par prévision
Cette méthode consiste à remplacer l'observation anormale en t par la valeur prévue en t – 1, à
l'aide du modèle de prévision, pour cette même période. Il s'agit d'effectuer une simulation de
prévision et non pas de remplacer l'observation détectée par sa valeur ajustée car celle-ci incorpore
une partie de l'information défectueuse.
L'avantage de cette méthode réside dans la neutralisation totale de l'observation puisqu'elle est,
par construction, conforme au modèle, mais sa contrepartie est une lourdeur informatique accrue.
3.3.Le schéma de décomposition
La technique de décomposition–composition repose, bien évidemment, sur un modèle qui
l’autorise. Ce modèle porte le nom de schéma de décomposition. Il en existe essentiellement trois
grands types :
– Le schéma additif qui suppose l’orthogonalité (indépendance) des différentes composantes. Il
s’écrit : xt = Tt + St + Rt . Dans ce schéma, la saisonnalité est rigide en amplitude et en période.
– Le schéma multiplicatif : x t = Tt × St + Rt , dans lequel la composante saisonnière est liée à la
tendance (saisonnalité souple avec variation de l’amplitude au cours du temps).
– Le schéma multiplicatif complet : x t = Tt × St × Rt (interaction générale des trois
composantes). Il est actuellement le plus utilisé en économie. Il est commode puisque le logarithme
de la chronique conduit au schéma additif.
Régis Bourbonnais - Prévision des ventes
Graphique 2 – Exemple de schéma additif
210
190
170
150
130
110
90
70
50
T1 T2 T3 T4 T1 T2 T3 T4 T1 T2 T3 T4 T1 T2 T3 T4 T1 T2 T3 T4
Graphique 3 – Exemple de schéma multiplicatif
70
60
50
40
30
20
10
T4
T3
T2
T1
T4
T3
T2
T1
T4
T3
T2
T1
T4
T3
T2
T1
T4
T3
T2
T1
0
Le schéma additif (cf. Graphique 2) correspond à une chronique dont le profil saisonnier ne se
modifie pas au cours du temps et dont la tendance est peu marquée.
Le schéma multiplicatif (cf. Graphique 3) rend compte de séries chronologiques dont l'amplitude
du profil saisonnier évolue au cours du temps proportionnellement à la valeur de la tendance. Ce
schéma se ramène au précédent par passage au logarithme (Log (ab) = Log a + Log b)
Log(xt) = Log (Tt × St × Ct × Rt) = Log Tt + Log St + Log Ct + Log Rt
Nous allons étudier successivement ces quatre composantes fondamentales en insistant
particulièrement sur les deux plus importantes : tendance et saisonnalité.
Régis Bourbonnais - Prévision des ventes
3.4. La tendance
Lorsque nous observons un graphe de série chronologique, mentalement nous déduisons une
tendance. Notre but ici est de donner des méthodes de calcul simple permettant de connaître avec le
maximum de précisions la tendance à moyen terme de la chronique. Pour estimer la tendance,
plusieurs procédés élémentaires viennent à l'esprit. En faisant par exemple le rapport des 2 valeurs
extrêmes, un pourcentage total d'augmentation est calculé, ce qui nous permet de définir un
accroissement mensuel moyen. Le choix des observations extrêmes est arbitraire. Il ne s'impose
pas : d'autres observations pourraient être sélectionnées. De plus, on est certain de ne pas tirer le
meilleur parti de l'historique, puisqu'un grand nombre de valeurs sont ignorées, en ne prenant que
deux observations.
Afin de mieux estimer la tendance, il est nécessaire de faire appel à la statistique mathématique
qui fournit un certain nombre d'outils de calcul.
– Tendance par moyenne mobile
Nous avons défini précédemment ce qu'est une moyenne mobile et son effet de lissage sur les
courbes. En retenant un ordre de moyenne mobile élevé, nous réduirons les fluctuations de la
chronique (plus l'ordre est élevé, plus les fluctuations de la courbe lissée sont amorties).
Les moyennes mobiles présentent deux défauts en tant que technique pour la détermination de la
tendance. En premier lieu, elles conduisent à une série plus courte que la série traitée. La tendance
n'est obtenue que pour la période allant de la (m + 1)-ième observation à la (n – m)-ième.
En second lieu, aucun principe n'apparaît naturellement pour l'extrapolation d'une tendance
déterminée par moyenne mobile. Si l'on veut faire des projections, il faut introduire un modèle plus
explicatif pour la représentation de la tendance.
Aussi les moyennes mobiles sont-elles employées soit dans des travaux purement descriptifs
d'histoire économique, soit lorsqu'il s'agit d'éliminer (c'est-à-dire soustraire terme à terme) la
tendance en vue de l'étude de telle ou telle particularité de la composante résiduelle, par exemple en
vue de l'étude des cycles de l'activité.
– Tendance par régression
Le but est d'estimer une tendance à l'aide d'un polynôme :
xt = a0 + a1 t + a2 t 2 + a3 t3 ...
En retenant un polynôme de degré 1 : x t = a 1 t + a0 , on considère que la tendance est linéaire
(Graphique 4) et peut être représentée à l'aide d'une droite correspondant à l'ajustement des
moindres carrés.
Le but est d'estimer la tendance à long terme de la chronique à l'aide d'une droite (ou par un
polynôme de degré plus élevé) estimée par un ajustement des moindres carrés. La technique des
Moindres Carrés Ordinaires (MCO) fournit non seulement les estimateurs de a1 et a0
respectivement notés â1 et â 0, mais aussi les écarts-types des coefficients et permet ainsi d’effectuer
les tests associés (tests des paramètres cf. chapitre 3). Cette méthode postule des paramètres a1 et a0
constants dans le temps et la prévision porte le nom d’extrapolation de la chronique. Elle reste utile
pour estimer les tendances « lourdes » des phénomènes économiques, « toutes choses étant égales
par ailleurs ».
Les coefficients de ce polynôme sont estimés à l'aide des formules suivantes :
t= n
aˆ1 =
∑ (x
t =1
t
− x)(t − t )
t= n
∑ (t − t )
t =1
aˆ 0 = x − a1 t
2
Régis Bourbonnais - Prévision des ventes
n = nombre d'observations.
La prévision calculée en n (dernière observation) à l’horizon h est donnée par :
x n+h = â 1 (n + h) + â 0
h = horizon de prévision
Les tableurs fournissent directement, par l’appel de fonctions statistiques, les estimations de
cette droite de tendance. Pour un exemple d’utilisation cf. Fichier Web.
Graphique 4 – Exemple d'ajustement par une droite de tendance
25000
20000
15000
10000
VENTES
N
S
J
M
M
Anné4-J
N
S
J
M
M
Anné3-J
N
S
J
M
M
Anné2-J
N
S
J
M
M
0
Anné1-J
5000
TENDANCE
L’équation de la droite ajustée est : Tt = 243,39 t + 4986,32
Par rapport à une valeur d’origine de 4986,32, les ventes augmentent – en moyenne sur la
période – de 243,39 unités par mois. La prévision consiste donc à extrapoler cette tendance
d’évolution.
Le choix du degré de polynôme dépend de plusieurs critères, dont l'horizon de prévision, les
ruptures de tendance dans la «vie » du produit et l'historique disponible. Les fonctions du tableur
(insertion d’une courbe de tendance) permettent d’estimer différentes formes de fonctions.
L'avantage de la méthode d'estimation de tendance par régression réside dans sa facilité et sa
souplesse d'utilisation (choix du degré de polynôme). Cependant ce modèle connaît deux limites
fortes :
– il utilise le temps comme unique variable de synthèse,
– les paramètres estimés sont fixes sur la totalité de la période.
Régis Bourbonnais - Prévision des ventes
3.5. La saisonnalité
3.5.1 Pourquoi analyser une saisonnalité ?
Le problème est maintenant d'interpréter une série éventuellement affectée d'un mouvement
saisonnier. On veut apprécier l'évolution de cette série en faisant abstraction de ce mouvement.
Avant d'examiner les méthodes d'étude de la saisonnalité, il faut comprendre les inconvénients
que présente pour l'analyse conjoncturelle une méthode souvent employée en pratique, celle qui
consiste à comparer le dernier mois (ou trimestre, etc.) observé au mois (ou trimestre, etc.)
correspondant de l'année précédente ou bien à comparer directement l’évolution des ventes d’un
mois sur l’autre. Le but est de déterminer l'évolution récente du phénomène. Mais les résultats
risquent d'être relativement erronés pour deux raisons :
– la tendance moyenne entre un mois (ou trimestre, etc.) et le mois (ou trimestre, etc.)
correspondant de l'année précédente peut différer très sensiblement de l'évolution récente ;
– une comparaison assise sur deux observations est affectée par les causes accidentelles qui ont
pu agir sur le phénomène à ces dates précises. Un jugement correct sur la tendance conjoncturelle
doit reposer sur une analyse de la série observée et non seulement sur la considération de deux
observations, aussi judicieux que soit leur choix.
La saisonnalité des ventes d’un article cache la véritable évolution des ventes, les ventes d’une
série brute ne sont donc pas interprétables.
Par ailleurs, il est plus facile de prévoir les ventes hors phénomènes saisonniers :
– la tendance « vraie » peut être calculée,
– l’impact réel des facteurs explicatifs (publicité, promotion ...) peut être mis en évidence.
3.5.2 La correction des jours ouvrables
Avant de calculer les coefficients saisonniers, il convient de pratiquer une correction des jours
ouvrables (CJO) afin de tenir compte du nombre de jours effectivement travaillés dans un mois
donné. Par exemple, le mois de février comporte en général moins de jours ouvrables que le mois
de mars. Nous devons différencier suivant qu'il s'agit de production (très liée aux jours ouvrables),
de livraisons (moins liées) ou de commandes (très peu liées aux jours ouvrables).
Dans le secteur industriel, cette influence est assez faible du fait de l'anticipation des entreprises
qui livrent par avance leur client. Dans le secteur des biens de grande consommation, la
répercussion des jours ouvrables sur les ventes au consommateur est forte du fait de la fermeture
des commerces.
Cette correction s'effectue de la manière suivante :
Soit MJO le nombre moyen de jours ouvrables, par mois dans l'année (environ 21).
La série CJO est égale à : (x t × NJO) / MJO × 100
avec :
x t observation du mois t pour la série brute,
NJO nombre de jours ouvrables pour le mois t.
Régis Bourbonnais - Prévision des ventes
3.5.3 Le calcul de la saisonnalité
Il n'existe pas de méthode parfaitement satisfaisante d'estimation des coefficients saisonniers :
quelle que soit la méthode retenue, le risque d'incorporer dans la saisonnalité des fluctuations dues
à des valeurs erratiques (appelées indifféremment valeurs aberrantes ou valeurs anormales) est
toujours présent. Lors du calcul de la saisonnalité, il convient de faire un certain nombre de choix
concernant le type de coefficients saisonniers (additifs/multiplicatifs, fixes/glissants) que nous
allons présenter. Les coefficients saisonniers sont légèrement différents selon la méthodologie
suivie. Pourtant, ils doivent toujours respecter certaines règles.
a) Le principe de la conservation des aires
La moyenne de la série brute doit être égale à la moyenne de la série CVS (Corrigée des
Variations Saisonnières). En effet, l'analyse de saisonnalité a pour but une nouvelle répartition du
profil intra-annuel de l’historique, sans modifier le niveau atteint en cumul annuel : les moyennes
annuelles de la série brute et de la série CVS doivent être identiques. Ce principe de base est appelé
le principe de la conservation des aires.
b) Choix du schéma de décomposition
Nous avons vu qu’il existe deux schémas de décomposition :
– Additif xt = Tt + St + Rt (dans ce schéma la saisonnalité est rigide en amplitude et en période)
– Multiplicatif xt = Tt × St × Rt (interaction générale des trois composantes)
Dans le cas d'un schéma additif, les coefficients sont exprimés dans la même unité que la
chronique ; par exemple pour une série de livraison d'acier en millier de tonnes, si le coefficient du
mois d'août est de – 125 cela signifie qu'au mois d'août on livre en moyenne 125 milliers de tonnes
d'acier en moins. Dans ce schéma d’analyse, les coefficients saisonniers ne tiennent donc pas
compte de la tendance de la série.
La somme des coefficients doit être égale à zéro afin de respecter le principe de la conservation
des aires.
Dans le cas d'un schéma multiplicatif, les coefficients saisonniers sont des pourcentages (par
exemple, si le coefficient du mois d'août est de 0,82 en moyenne on livre 18 % en moins en août).
Dans ce schéma d’analyse, les coefficients saisonniers intègrent donc la tendance de la série. C’est
le schéma utilisé de manière classique.
La somme des coefficients est égale au nombre de facteurs saisonniers (la moyenne8 doit être
égale à 1) : dans un cadre mensuel la somme est égale à 12, pour une série trimestrielle la somme
est égale à 4 afin de respecter le principe de la conservation des aires.
Le choix du schéma de décomposition dépend de l’historique. Si la tendance est peu marquée,
l’un ou l’autre des deux schémas de décomposition restitue des résultats quasiment identiques. En
revanche, si la tendance est marquée, il convient de retenir un schéma multiplicatif dont les effets
saisonniers s’adaptent automatiquement – ce sont des pourcentages – au profil de l’historique.
Le seul effet pervers à utiliser des coefficients saisonniers multiplicatifs est rencontré lorsque la
série des ventes est affectée par une saisonnalité très marquée ; dans certaines industries, les ventes
peuvent être nulles certains mois de l’année. La division ou la multiplication par des valeurs très
8
C’est, en fait, le produit des coefficients saisonniers qui doit être égal à 1, cette approximation est valable si les
coefficients saisonniers ne sont pas trop dispersés.
Régis Bourbonnais - Prévision des ventes
faibles amplifie le mouvement saisonnier et peut engendrer une série CVS comprenant des valeurs
aberrantes.
c) Coefficients fixes ou glissants ?
• Coefficients fixes : les coefficients calculés sont les mêmes quelle que soit l’année d’analyse.
• Coefficients glissants :les coefficients évoluent tous les ans.
Un mouvement saisonnier est répétitif d’une année sur l'autre, et doit se répéter à l’identique. Il
nous semble donc impropre de calculer des coefficients différents par année.
Cependant, dans certaines circonstances où une réflexion économique suggère une évolution des
comportements, il peut être intéressant d’intégrer une saisonnalité glissante.
En calculant un coefficient pour chaque mois, le risque d'incorporer une partie de « bruit » dans
la saisonnalité s'intensifie. En effet, la distinction entre saisonnalité et résidu sera plus difficile à
effectuer en l'absence d'une contrainte de rigidité des coefficients saisonniers. Par exemple si, pour
des raisons climatiques, une année a été particulièrement propice à la consommation de bière, une
saisonnalité glissante répercutera cette saisonnalité l’année suivante sans aucune raison a priori, ne
connaissant pas la température à l’avance.
Un autre risque mérite d’être souligné : la confusion possible entre la saisonnalité réelle et une
saisonnalité fictive créée par l’entreprise. Il s’agit des entreprises effectuant à la même période de
chaque année des promotions ou des variations de tarif. Le calcul des coefficients saisonniers
attribue à la saisonnalité cette “ sur-vente ” due à la politique volontariste de l’entreprise. Un
problème surgit alors lorsque l’entreprise modifie la date des promotions ... Dans ce cas,
l’utilisation des coefficients saisonniers glissants permet d’intégrer plus rapidement cette
modification.
Sauf, réflexion marketing motivant une évolution ou modification prévues des habitudes des
consommateurs, on utilise des coefficients saisonniers fixes.
d) Méthodes de calcul
Il n'existe pas de méthode parfaitement satisfaisante d'estimation des coefficients saisonniers.
Quelle que soit la méthode retenue, le risque d'incorporer dans la saisonnalité des fluctuations dues
à des valeurs erratiques ou à des habitudes promotionnelles est toujours présent.
Cependant, le cas le plus classique consiste à calculer des coefficients saisonniers fixes selon un
schéma multiplicatif.
Les coefficients saisonniers sont légèrement différents selon la méthodologie suivie. Nous allons
présenter deux exemples de calcul à partir du même historique (il s’agit des ventes d’un produit
festif, donc fortement saisonnier) en explicitant les différentes phases.
A) Analyse de saisonnalité selon un schéma additif et des coefficients fixes
Les Tableau 4 et Tableau 5 illustrent le calcul des coefficients saisonniers selon un schéma
additif et des coefficients fixes.
Régis Bourbonnais - Prévision des ventes
Tableau 4 – Analyse de saisonnalité : tableau de calcul selon un schéma additif
DATES
Année 1 -J
F
M
A
M
J
J
A
S
O
N
D
Année 2 -J
F
M
A
M
J
J
A
S
O
N
D
Année 3 -J
F
M
A
M
J
J
A
S
O
N
D
MOYENNE
E-T
CV
VENTES
401,60
395,70
451,00
427,60
496,80
467,70
352,30
182,10
522,20
687,20
1080,3
1391,6
263,90
289,90
337,00
374,00
292,70
398,60
421,70
173,80
522,10
642,40
984,20
1307,6
393,40
316,20
428,60
467,60
501,00
487,40
463,30
165,90
595,10
698,10
1012,00
1380,00
549
325
0,59
MM12
ECART
566
555
546
539
529
517
517
520
519
518
512
504
506
513
517
525
538
550
556
557
560
565
569
573
-213
-373
-24
148
552
874
-253
-230
-182
-144
-219
-106
-84
-339
5
117
446
757
-162
-241
-131
-97
-68
-85
Ventes CVS
607,17
628,85
605,58
545,92
637,88
560,96
498,96
535,99
529,76
552,48
579,05
573,50
469,47
523,05
491,58
492,32
433,78
491,86
568,36
527,69
529,66
507,68
482,95
489,50
598,97
549,35
583,18
585,92
642,08
580,66
609,96
519,79
602,66
563,38
510,75
561,90
549
51
0,09
Tableau 5 – Analyse de saisonnalité : coefficients provisoires et définitifs
COEF
PROVISOIRE Sp
(-253,31 – 162,17) / 2 = -207,74
(-229,85 – 240,77) / 2 = -235,31
(-182,40 – 131,08) / 2 = -156,74
(-143,53 – 97,45) = -120,49
(-218,96 – 67,52) = -143,24
(-105,56 – 85,30) = -95,43
(-213,30 – 84,35) / 2 = -148,83
(-373,36 – 338,75) / 2 = -356,05
(-24,10 + 4,64) / 2 = -9,73
(147,88 + 117,22) / 2 = 132,55
(551,72 + 446,45) / 2 = 499,08
(874,40 + 754,47) / 2 = 815,94
DEFINITIF
S1
S2
S3
S4
S5
S6
S7
S8
S9
S10
S11
S12
SOMME
MOYENNE
-25,99
-2,17
0,00
0,00
-205,57
-233,15
-154,58
-118,32
-141,08
-93,26
-146,66
-353,89
-7,56
134,72
501,25
818,108
Le Tableau 4 présente les différentes phases de calcul :
Etape 1 : Estimer la tendance par une moyenne mobile9 d’ordre 12 (colonne MM12).
9
Nous pouvons aussi calculer la tendance à l’aide d’une droite de régression sur le temps.
Régis Bourbonnais - Prévision des ventes
En appliquant la formule présentée en 1.1, nous ne pouvons pas calculer les six premières
valeurs de MM12 (de janvier à juin de l’année 1), ainsi que celles de la fin de l’historique (juillet à
décembre de l’année 3). MM12 ne contient plus de composante saisonnière.
Exemple de calcul pour janvier de l’année 2 :
MM12 J-Année2 = (0,5 × 352,30 + 182,10 + 522,20 + ... + 398,6 + 0,5 × 421,7) / 12 = 517,20
Etape 2 : Calculer les écarts à la série observée.
Nous calculons les écarts observés entre la série brute et la moyenne mobile :
et = xt – MM12t
Exemple de calcul pour janvier de l’année 2 : eJ-Année2 = 263,9 – 517,21 = – 253,31
Etape 3 : Rassembler les écarts relatifs aux mêmes mois pour les différentes années et calcul de
la moyenne.
Dans le Tableau 5, nous calculons dans la première colonne les coefficients saisonniers
provisoires. Il s’agit de rassembler les écarts relatifs au même mois et de calculer la moyenne de
ces écarts, ces nombres sont des coefficients saisonniers provisoires, car leur somme n’est pas
égale à 0.
1 er mois : e13 , e25
2 ème mois : e14 , e26
...
12 ème mois : e12 , e24 .
⇒ S 1P = (-253,31 – 162,17) / 2 = – 207,74
⇒ S2P = (-229,85 – 240,77) / 2 = – 235,31
⇒ S 12P = (757,47 + 874,40) / 2 = 815,94
Etape 4 : Calculer S = S1P + S 2P + ... + S 12P
Les coefficients saisonniers sont ensuite normés afin que leur somme soit nulle.
Si S = 0, les S1P , S 2P , ..., S 12P sont les coefficients saisonniers définitifs.
Si S ≠ 0, les 12 coefficients définitifs sont donnés par :
S1 = S 1P – S / 12 ; S2 = S 2P – S / 12 ; ... ; S12 = S 12P – S / 12
Exemple : S = – 25,99 d’où S2 = – 235,31 – (-25,99 / 12) = – 233,15
Etape 5 : Calcul de la série CVS
La série CVS est calculée par différence entre la série brute et le coefficient saisonnier du mois
considéré.
Pour le mois de janvier de l’année 2, la vente CVS est égale à : 263,90 – (– 205,57) = 607,17
Régis Bourbonnais - Prévision des ventes
Le Graphique 5 présente la série brute et la série CVS. Nous remarquons que la
désaisonnalisation a réduit considérablement la variance de la série (ceci étant illustré par la baisse
du coefficient de variation, cf. Tableau 4) et que les ventes, hors saisonnalité, s’avèrent stables et de
prévision aisée.
Graphique 5 – Analyse de saisonnalité : coefficients saisonniers fixes et additifs
1600.00
1400.00
1200.00
1000.00
800.00
600.00
400.00
200.00
VENTES
Ventes CVS
B) Analyse de saisonnalité selon un schéma multiplicatif et des coefficients glissants
Le Tableau 6 présente le calcul des coefficients saisonniers à partir du même historique que
précédemment, selon un schéma multiplicatif et des coefficients glissants.
Régis Bourbonnais - Prévision des ventes
D
N
S
O
J
A
J
A
M
F
M
D
Année 3-J
N
S
O
J
A
J
A
M
F
M
D
Année 2-J
N
S
O
J
A
J
A
M
F
M
Année 1-J
0.00
Tableau 6 – Calcul des coefficients saisonniers glissants et multiplicatifs
DATES
Année 1-J
F
M
A
M
J
J
A
S
O
N
D
Année 2-J
F
M
A
M
J
J
A
S
O
N
D
Année 3-J
F
M
A
M
J
J
A
S
O
N
D
VENTES
401,60
395,70
451,00
427,60
496,80
467,70
352,30
182,10
522,20
687,20
1080,3
1391,6
263,90
289,90
337,00
374,00
292,70
398,60
421,70
173,80
522,10
642,40
984,20
1307,6
393,40
316,20
428,60
467,60
501,00
487,40
463,30
165,90
595,10
698,10
1012,10
1380,00
MOYENNE
E-T
CV
549,24
320,46
0,58
MM12
565,60
555,46
546,30
539,32
528,58
517,20
517,21
519,75
519,40
517,53
511,66
504,16
506,05
512,55
517,46
525,17
537,75
550,13
555,57
556,97
559,68
565,05
568,53
572,71
RAPPORT
0,51
0,56
0,65
0,72
0,57
0,79
0,62
0,33
0,96
1,27
2,04
2,69
0,51
0,56
0,65
0,72
0,57
0,79
0,83
0,34
1,01
1,22
1,83
2,38
0,71
0,57
0,77
0,83
0,88
0,85
0,83
0,34
1,01
1,22
1,83
2,38
NORME
0,52
0,57
0,66
0,74
0,59
0,81
0,64
0,34
0,98
1,30
2,09
2,76
0,54
0,59
0,68
0,76
0,60
0,83
0,88
0,36
1,06
1,29
1,92
2,50
0,70
0,56
0,75
0,81
0,87
0,84
0,82
0,33
0,99
1,20
1,80
2,34
Ventes CVS
768,55
692,73
678,74
577,77
847,99
577,63
552,28
542,38
533,44
526,62
516,13
505,02
491,94
494,37
494,03
492,25
486,67
479,53
481,33
487,51
492,18
499,52
511,49
523,26
565,43
566,86
569,62
575,08
578,62
582,88
565,85
497,94
600,28
580,85
562,82
590,90
558,07
79,42
0,14
Les différentes étapes de calcul sont les suivantes.
Etape 1 : Estimer la tendance par moyenne mobile.
Cette étape est identique à celle du schéma additif.
Etape 2 : Calculer le rapport entre la série observée et la moyenne mobile.
Nous sommes en schéma multiplicatif, nous effectuons donc le rapport entre la série brute et la
moyenne mobile.
S tP = x t / MM12t
En ce qui concerne les six premiers mois et les six derniers mois, la moyenne mobile d’ordre 12
ne peut pas être calculée. Afin de compléter cette colonne, on intègre la valeur du même mois de
l’année suivante pour les six premiers mois et la valeur du même mois de l’année précédente pour
les six derniers mois.
Etape 3 : Normer les coefficients (conservation des aires).
Régis Bourbonnais - Prévision des ventes
Les coefficients saisonniers sont ensuite normés afin que leur moyenne, pour une année donnée,
soit égale à 1.
Nous normons les coefficients saisonniers année par année afin que leur somme soit égale à 12.
Calcul de S = S1P + S 2P + ... + S 12P
S1 = ( S 1P × 12 / S) ; S2 = ( S 2P × 12 / S) ; ...; S12 = ( S 12P × 12 / S).
Etape 4 : Calcul de la série CVS
La série CVS est calculée par le rapport entre la série brute et le coefficient saisonnier du mois
considéré.
Exemple de calcul pour février de l’année 2.
Calcul de la somme des 12 coefficients provisoires de janvier à décembre de l’année 2 :
S = 0,51 + 0,56 + 0,65 + ... + 2,38 = 11,41
Sfev-Année 2 = (0,56 × 12) / 11,41 = 0,59
Pour le mois de février de l’année 2, la vente CVS est égale à : 289,90 / 0,59 = 494,37
C) Analyse de saisonnalité selon un schéma multiplicatif et des coefficients fixes (Fichier Web).
Le lecteur analysera lui-même les résultats à partir du fichier Excel.
e) Autre méthode de désaisonnalisation : CENSUS
En 1954, Shiskin, spécialiste des cycles économiques, propose une méthode de
désaisonnalisation utilisant, de façon itérative, plusieurs moyennes mobiles. Shiskin, chercheur au
« Bureau of Census » des Etats-Unis, a donné le nom de Census-1 à cette méthode. Depuis 1954,
elle a connu de nombreuses améliorations : Census-2, Census-3 et en 1967 Shiskin associé à Young
et Musgrave a proposé la version Census × 11 qui est, actuellement, la méthode la plus utilisée pour
désaisonnaliser les chroniques (notamment par l’INSEE). Il convient de noter l’amélioration
apportée à cette technique en 1979 par Dagum qui propose la version Census 11 ARMMI.
CENSUS II permet une analyse de saisonnalité par des moyennes mobiles en particulier à l'aide
des formules de Spencer (moyenne mobile d'ordre 15). Il est largement diffusé et son emploi s'est
généralisé dans beaucoup d’organismes d’études statistiques mais peu en entreprises. Dans la
méthode CENSUS II, des coefficients saisonniers glissants sont calculés en vue d'intégrer des
modifications de structure de la saisonnalité. Ceci est donc critiquable comme nous l’avons
souligné.
Comme la méthode Census est bâtie à partir d’itérations successives de moyennes mobiles
d’ordre différent pour mieux appréhender l’extra saisonnalité de la chronique ainsi que les
fluctuations de la saisonnalité, elle fait perdre de l’information à l’extrémité terminale de la
chronique. C’est pourquoi la méthode Census ne peut être employée que pour des séries de ventes
longues (10 ans), ce qui en limite l’utilisation opérationnelle en entreprise.
Comme nous pouvons l'entrevoir, l'analyse de saisonnalité reste un traitement relativement
complexe qui nécessite rapidement des moyens informatiques. C'est une étape importante de la
Régis Bourbonnais - Prévision des ventes
démarche prévisionnelle, car les coefficients saisonniers permettent de répartir un niveau annuel
escompté à l'intérieur de l'année.
f) Une première prévision par extrapolation de la tendance et de la saisonnalité
Le Graphique 6 illustre une prévision calculée par l’extrapolation de la tendance et de la
saisonnalité. Pour les calculs de la tendance et de la saisonnalité déjà présentés, le lecteur se réfère
au fichier Excel.
Graphique 6 – Prévision par extrapolation de la tendance et de la saisonnalité
1600
1400
1200
1000
800
600
400
200
VENTES
N
S
J
M
M
Année 4-J
N
S
J
M
M
Année 3-J
N
S
J
M
M
Année 2-J
N
S
J
M
M
Année 1-J
0
PREV
3.5.4 Test sur la saisonnalité
Avant de corriger une chronique de ces variations saisonnières, il convient d'élaborer un test
permettant de détecter l'existence d'une saisonnalité. Le test le plus communément employé est
celui de Fisher par analyse de la variance du facteur mensuel (ou trimestriel) par rapport à la
variance totale de la série.
La question posée est la suivante : l'adjonction d'une saisonnalité à la tendance contribue-t-elle à
améliorer de manière significative l'explication de la série brute ? Cela revient à comparer :
– la somme des carrés des écarts – entre prévision et réalisation – du modèle à tendance seule,
– à la somme des carrés des écarts du modèle à tendance et saisonnalité.
Pour répondre à cette question, nous recourons à un test de Fisher exposé ci-après.
a) Calculer la somme des carrés des écarts du modèle avec tendance simple.
Estimation de la droite de tendance : Tt = â1 t + â0 , puis calcul de :
n
U* =
∑ (x - T )²
t
t
t =1
Régis Bourbonnais - Prévision des ventes
Pour U*, le nombre de degrés de liberté10 est donc ddlU* = n – 2 (n = nombre total
d'observations) car nous avons estimé deux paramètres a0 et a1 .
b) Calculer la somme des carrés des écarts du modèle avec tendance et saisonnalité.
Estimation des coefficients saisonniers St , puis calcul de :
U** =
n
∑ (x - (T
t
t
× S t))²
t =1
Pour U**, le nombre de degrés de liberté est donc ddlU** = n – 2 – 11 car nous avons estimé
deux paramètres a0 et a1 et 11 coefficients saisonniers (le douzième se déduit des onze autres
d’après le principe de la conservation des aires).
c) Calculer la valeur du Fisher empirique.
F* = ((U* – U**)/11) / (U** / (n – 13))
La valeur du F* empirique, calculé à partir de l'historique, est à comparer à la valeur du Fisher
théorique donnée par la table de la loi11 de Fisher-Snedecor aux degrés de liberté correspondants
(v1 = ddlU* – ddlU** = 11 ; v2 = ddlU** = n– 13 ).
Si F* > F lu alors la série est saisonnière, sinon la série n'est pas saisonnière.
Dans le cas de chroniques relativement longues (4 ans en données mensuelles), F lu peut être
approché par 2 ; cela évite une lecture systématique de la table pour un risque d'erreur très faible.
Le Tableau 7 illustre la méthode de calcul.
10
La notion de degrés de liberté correspond au nombre de valeurs restant réellement à disposition après une
procédure d’estimation statistique. Si un échantillon comprend 10 observations et qu’on dispose en plus de la moyenne
de cet échantillon, on ne peut choisir librement les valeurs que pour 9 de ces observations, la dixième se déduisant de la
valeur de la moyenne. Le nombre de degrés de liberté est donc de n – 1 = 9.
11
Les tables statistiques sont en fin d’ouvrage.
Régis Bourbonnais - Prévision des ventes
Tableau 7 – Test de détection de saisonnalité
DATES
Année 1-J
F
M
A
M
J
J
A
S
O
N
D
Année 2-J
F
M
A
M
J
J
A
S
O
N
D
Année 3-J
F
M
A
M
J
J
A
S
O
N
D
VENTES
401,60
395,70
451,00
427,60
496,80
467,70
352,30
182,10
522,20
687,20
1080,3
1391,6
263,90
289,90
337,00
374,00
292,70
398,60
421,70
173,80
522,10
642,40
984,20
1307,6
393,40
316,20
428,60
467,60
501,00
487,40
463,30
165,90
595,10
698,10
1012,10
1380,00
SOMME
19773
Tt
418
426
433
441
448
456
463
471
478
486
493
500
508
515
523
530
538
545
553
560
568
575
583
590
598
605
613
620
628
635
643
650
658
665
673
680
ECART CARRE
269
889
324
167
2381
149
12256
83177
1953
40682
344920
794059
59584
50894
34595
24491
60169
21577
17237
149529
2106
4477
160973
514254
41854
83684
33996
23372
16123
21927
32283
234812
3953
1065
115009
489343
Vt/Tt
0,96
0,93
1,04
0,97
1,11
1,03
0,76
0,39
1,09
1,42
2,19
2,78
0,52
0,56
0,64
0,71
0,54
0,73
0,76
0,31
0,92
1,12
1,69
2,21
0,66
0,52
0,70
0,75
0,80
0,77
0,72
0,26
0,90
1,05
1,50
2,03
St
0,79
0,76
0,85
0,79
0,91
0,84
0,62
0,32
0,89
1,16
1,79
2,27
0,58
0,63
0,72
0,79
0,61
0,82
0,85
0,35
1,03
1,25
1,89
2,48
0,74
0,59
0,79
0,85
0,90
0,86
0,81
0,29
1,02
1,18
1,69
2,28
U* = 3478534
ECART CARRE
5330
5174
6722
6042
8156
7229
4102
1096
9012
15606
38567
63996
998
1205
1628
2005
1228
2278
2550
433
3908
5917
13887
24513
2451
1583
2909
3462
3975
3762
3399
436
5608
7717
16221
30157
U** = 313262
F* = ((U* – U**)/11) / (U** / (n– 13)) = ((3478534 – 313262)/11) / (313262/ (36 – 13))= 21,13
F lu à 11 et 23 degrés de liberté = 2,24
La série est donc saisonnière (ce qui se distingue à l’examen du Graphique 5).
3.5.5 Famille de saisonnalité
Il s’avère parfois préférable de calculer les coefficients saisonniers non pas à partir de
l’historique de l’article lui-même mais sur un agrégat d’articles appelé « famille de saisonnalité ».
Cette famille de saisonnalité est donc composée d’articles homogènes vis-à-vis des variations
saisonnières, c’est pourquoi elle est souvent différente, en terme de composition d’articles, de la
famille commerciale.
Les avantages sont manifestes :
– les coefficients saisonniers sont plus robustes car calculés sur un agrégat,
– les effets sur la saisonnalité d’un « cannibalisme » ponctuel (un article est en promotion au
détriment des ventes d’un autre) sont neutralisés,
– un article nouveau avec un historique faible peut être rattaché à une famille de saisonnalité et
ainsi la prévision de cet article intègre les variations saisonnières.
Régis Bourbonnais - Prévision des ventes
3.6. La composante cyclique
La tendance et la composante saisonnière sont souvent les caractéristiques les plus évidentes
d'une série chronologique, particulièrement dans le domaine économique. Mais si on prend une
chronique pour laquelle ces composantes sont de peu d'importance, ou si on peut mentalement les
filtrer et les ignorer (par observation visuelle), la caractéristique la plus visible qui subsiste dans
une chronique suffisamment longue est une série de fluctuations irrégulières. Quelquefois ces
fluctuations ont une amplitude et une fréquence régulière (il s'agit alors véritablement de cycles),
principalement de périodes longues (deux ans ou plus), mais bien souvent il s'agit de simples
phénomènes de hausse et de baisse irréguliers.
L'analyse spectrale12 est la seule méthode spécifique d'analyse de cycles. Son but est de
décomposer ces fluctuations en cycles de périodes et d'amplitudes différents.
Les cycles étudiés à un niveau macro-économique (cycles de Kondratieff, de Kuznets, de Juglar,
etc.) ne sont pas observés directement au niveau micro-économique où les secteurs sont affectés de
cycles de période plus courte.
Les méthodes spectrales, dérivées de la physique (décomposition de Fourier), fournissent une
approche mathématique naturelle à ce mélange de régularité et d'irrégularité dans les séries
chronologiques.
Leur démarche est de décomposer la série en une somme finie de sinusoïdes et de calculer pour
chacune d'elles la contribution à la variance générale de la série.
Le plus souvent, cette composante cyclique est ignorée soit qu'il est impossible de la mettre en
évidence du fait de son inexistence, soit que nous ne disposons pas d'un historique assez long. La
composante cyclique est traitée par de nombreux auteurs comme combinée à la tendance de moyen
terme : cette composante mixte est appelée en anglais trend-cycle. Elle peut également être intégrée
au résidu (le facteur résiduel explicité ci-dessous), considéré comme une série à prévoir épurée de
la tendance et de la saisonnalité. Cela justifie l'emploi ultérieur de méthodes explicatives.
3.7. Le facteur résiduel
En reprenant le schéma de décomposition : x t = T t + St + Ct + Rt, il nous est possible maintenant
d'isoler le facteur résiduel : Rt = x t – Tt – St – Ct
Cette composante représente les fluctuations erratiques de la chronique dues aux accidents
conjoncturels. Il est intéressant de savoir s'il s'agit de phénomènes purement aléatoires au sens
gaussien du terme (espérance mathématique nulle, symétrie de la distribution par rapport à la
moyenne, constance de la variance), ou s'il est possible de trouver une loi de reproduction du
processus. Nous pouvons distinguer les deux termes, résiduel et aléatoire, de la façon suivante :
– facteur résiduel : il est possible de trouver une loi de reproduction de cette composante,
– facteur aléatoire : il n'est pas possible de l'expliquer.
En vue d'établir avec certitude dans lequel des deux cas nous nous situons, le calcul du
corrélogramme 13 (ou fonction d'autocorrélation) fournit une indication sur la nature de cette
composante. Nous pourrons employer alors le terme de facteur résiduel ou le terme de facteur
aléatoire de façon adaptée (c'est-à-dire un processus pour lequel on ne peut plus rien expliquer).
12
13
Cf. Bourbonnais et Terraza (1998) Chapitre 4.
Le calcul du corrélogramme et son interprétation sont examinés au chapitre suivant.
Régis Bourbonnais - Prévision des ventes
Chapitre 3
PRINCIPALES METHODES (1) :
LES METHODES FONDEES SUR LE LISSAGE EXPONENTIEL
Les développements de la pratique statistique ont permis de disposer d’un certain nombre
d'outils de calcul. Ce chapitre a pour finalité de passer en revue les méthodes de prévision
extrapolatives fondées sur le principe du lissage exponentiel, en indiquant pour chacune d'elles les
développements théoriques minimaux nécessaires à leur compréhension. Le lecteur intéressé par
plus de détails méthodologiques se reportera en fin d'ouvrage où une bibliographie lui fournira les
références.
Les techniques de lissage exponentiel ont été introduites par Holt en 1957 mais surtout par
Brown en 1962. Le lissage regroupe l’ensemble des techniques empiriques qui ont pour
caractéristiques communes d’accorder un poids plus important aux valeurs récentes de la
chronique.
1. Caractéristiques des méthodes de lissage
1.1. Principes de base
– Premier principe : la dévalorisation croissante de l'information avec l'âge
La méthode du lissage exponentiel repose sur l'idée de départ que les informations contenues
dans une série chronologique ont d'autant plus d'importance qu'elles sont plus récentes. Pour
effectuer une prévision il faut donc affecter aux informations un poids d'autant plus faible qu'elles
proviennent d'époques plus éloignées.
– Deuxième principe : la synthétisation des informations
L'historique complet d'une série chronologique est difficile à manier.
La technique du lissage exponentiel permet de condenser cet historique sous forme de quelques
paramètres. Pour effectuer une prévision à l'aide de cette technique, il n'est nécessaire de conserver
– en mémoire – que quelques valeurs.
– Troisième principe : la réactualisation permanente des paramètres moyennant des calculs
relativement simples
La méthode du lissage exponentiel est adaptative, c'est–à–dire qu'elle reprend en permanence les
paramètres, avec la même périodicité que celle qui préside à l'arrivée des informations. Ce principe
n'est d'ailleurs qu'une conséquence de l'association des deux principes précédents.
Nous allons démontrer ces trois principes.
1.2. Formulation
Supposons que x t représente les ventes d’un produit quelconque à la date t. Ces ventes x t peuvent
être considérées comme le résultat d’une combinaison linéaire infinie de ses valeurs passées, le
poids (ou l’influence) du passé sur le présent étant décroissant avec son ancienneté.
Régis Bourbonnais - Prévision des ventes
Notations
x t = réalisation de la chronique (les ventes) x à la période t, (un mois donné par exemple),
St = valeur lissée de la chronique,
x$ t = prévision de la chronique xt pour t + 1 calculée en t, c’est–à–dire que x t doit être comparé
à x$ ,
α = coefficient de lissage, avec α ∈ [0 ; 1].
t − 1
Le principe de base du lissage exponentiel nous propose pour x$ t :
x$ t = St = x$
t − 1
+ α (x t – x$
t − 1
)
[1]
Le lissage apparaît comme le résultat de la dernière valeur lissée corrigé par une pondération de
l’écart entre la réalisation et la prévision. Nous retrouvons le troisième principe de l’adaptation du
lissage à l’erreur de prévision.
L'équation [1] peut se modifier de la façon suivante
x$ t = α x t + (1 – α) xˆt −1
[2]
Sous cette forme, le lissage apparaît comme étant une moyenne pondérée de la dernière
réalisation et de la dernière valeur lissée.
Pour observer l'influence du coefficient α, nous posons dans la première équation :
− α = 0 alors x$ t = xˆ t −1 , ce qui signifie que les nouvelles observations ne sont pas intégrées pour
calculer les prévisions, le lissage est « inerte » par rapport aux réalisations, les prévisions restent
inchangées.
− α = 1 alors x$ t = xt
Ici, le modèle suit les dernières informations, la nouvelle valeur lissée est toujours égale à la
dernière réalisation, le lissage est hyper–réactif.
La relation [2] peut être développée en remontant dans le temps (t – 1, t – 2,..., t – n,..., 0) et
laisse apparaître que la nouvelle valeur lissée x$ t est une combinaison linéaire de toutes les
observations du passé, affectées d'un poids décroissant avec l'âge. Les poids sont de plus en plus
faibles au fur et à mesure que l'on s'éloigne de l’observation actuelle.
x$ t = α x t + α (1 – α) xt–1 + α (1 – α)2 x t–2 + α (1 – α)3 xt–3 + ...+ α (1 – α)n–1 x t–n–1 + (1 – α)n x0
[3]
Nous avons ainsi démontré les premier et deuxième principes :
– Puisque le coefficient α est compris entre 0 et 1, le poids accordé aux valeurs est
géométriquement décroissant, comme l’illustrent le Tableau 8 et le Graphique 7.
– Dans la dernière valeur lissée est contenue – de manière synthétique – toute l’information
historique.
Régis Bourbonnais - Prévision des ventes
Tableau 8 – Dévalorisation de l’information avec son ancienneté
Comparaison entre une moyenne classique et trois valeurs de α
Temps
Moyenne classique
Poids
0
–1
–2
–3
–4
–5
–6
–7
–8
–9
–10
0,1
0,1
0,1
0,1
0,1
0,1
0,1
0,1
0,1
0,1
0,1
α
α (1 – α)
α (1 – α)2
α (1 – α)3
α (1 – α)4
α (1 – α)5
α (1 – α)6
α (1 – α)7
α (1 – α)8
α (1 – α)9
α (1 – α)10
Pondération géométriquement décroissante
pour α = 0,30
0,30
0,21
0,15
0,10
0,07
0,05
0,04
0,02
0,02
0,01
0,01
Pour α = 0,30 la dernière valeur x t de la chronique est pondérée par 0,3. L'avant–dernière x t–1 est
pondérée par 0,21 (c'est–à–dire que 21 % de sa valeur contribue au calcul de la prévision) et ainsi
de suite ..., à partir de la huitième valeur x t–8 le coefficient de pondération est inférieur à 0,02.
Graphique 7 – Dévalorisation de l’information avec son ancienneté
Comparaison entre une moyenne classique et trois valeurs de α
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
-1
-2
-3
-4
-5
-6
-7
-8
-9
-10
Temps
MOYENNE
0,6
0,3
0,8
1.3. Rôle de la constante de lissage
Nous avons observé précédemment les conséquences de deux choix extrêmes : α = 0 et α =1.
Un compromis doit donc être trouvé entre stabilité, c'est–à–dire effacement des variations purement
aléatoires, et rapidité de réponse pour repérer des changements de tendance. Le paramètre α, appelé
la constante de lissage, joue un rôle très important :
Régis Bourbonnais - Prévision des ventes
– lorsque α est proche de 0, la pondération s’étale sur un grand nombre de termes du passé, la
mémoire du phénomène étudié est forte et la prévision est peu réactive aux dernières observations ;
– lorsque α est proche de 1, les observations les plus récentes ont un poids prépondérant sur les
termes anciens, la mémoire du phénomène est faible et le lissage est très réactif aux dernières
observations.
Il est possible de calculer le délai moyen de réaction – certains auteurs parlent d’âge moyen de
l’information – qui est la moyenne pondérée des coefficients de lissage. Il est donné par :
D =
1 −α
α
Si α = 1, l’âge moyen est nul puisque seule la dernière valeur est prise en compte ; si α = 0 l’âge
moyen est infini puisque seule la valeur initiale est prise en compte.
Le lissage joue un rôle de réducteur de variance, on démontre la formule suivante :
Var ( xˆt )
α
, si α = 0, x$ t est de variance nulle (puisque la prévision est constante quelles que
=
Var ( xt ) 2 − α
soient les valeurs de x t .), si α = 1, x$t a la même variance que x t .(la nouvelle valeur lissée est
toujours égale à la dernière réalisation).
Pour assurer un rôle de filtrage efficace, il convient de choisir un α faible, mais alors on perd en
réactivité.
Le Graphique 8 présente en ordonnée les valeurs du rapport de l’écart–type de la série lissée à
l’écart–type de la série brute (
α.
α
) et, en abscisse, l’âge du lissage pour différentes valeurs de
2 −α
A la lecture de cette courbe, on comprend pourquoi la valeur de α = 0,3 est très couramment
choisie : lorsque le coefficient α est inférieur à 0,20, l’âge du lissage s’accroît très vite pour un gain
faible de filtrage ; au–delà de 0,4, la qualité du filtrage décroît très vite pour une faible réduction de
l’âge moyen.
Régis Bourbonnais - Prévision des ventes
Graphique 8 – Valeur du coefficient λ, âge moyen de l’information et filtrage
Rapport des écarts-types série lissée sur série brute
Rôle de filtrage du lissage
1,20
1,00
ALPHA=0,6
0,80
0,60
ALPHA=0,3
ALPHA=0,2
0,40
0,20
0,00
0,00
2,00
4,00
6,00
8,00
10,00
12,00
14,00
16,00
Age moyen de l'information
ALPHA
Nous reviendrons en détail à la section 5 sur le choix optimal de la (ou des) coefficient (s) de
lissage.
2. Le lissage simple : le modèle stationnaire
Les formules de lissage simple sont donc les suivantes :
x$ t = St = α x t + (1 – α) xˆ t −1
avec x̂1 = x 1 pour initialiser
et la prévision calculée en n à l’horizon de h périodes est égale à :
xˆ n + h = xˆ n ∀h
Nous observons que la prévision est constante quel que soit l’horizon.
Le Tableau 9 illustre un calcul.
Régis Bourbonnais - Prévision des ventes
18,00
20,00
Tableau 9 – Prévision à partir du modèle de lissage exponentiel simple
t
1
2
3
4
5
6
7
8
9
10
11
xt
30
40
40
30
20
20
30
30
x$t
30,00
33,00
35,10
33,57
29,50
26,65
27,65
28,36
28,36
28,36
28,36
et= xt – x$t
0
10,00
7,00
–5,10
–13,57
–9,50
3,35
2,35
On initialise x$1 = x 1 = 30
Pour t = 2 (prévision calculée en t = 1 pour t = 2) nous avons :
x$ 2 = 0,3 × x 2 + 0,7 × x$1 = 0,3 × 40 + 0,7 × 30 = 33 = x1
Pour t = 3 : x$3 = 0,3 × 40 + 0,7 × 33 = 35,10
…
Pour t = 8, x$8 = 0,3 × 30 + 0,7 × 27,65 = 28,36
Pour t = 9, 10, 11 x$11 = x$10 = x$9 = 28,36
Nous vous proposons à titre d’exercice de charger le fichier Web et d’effectuer la simulation
demandée.
La simulation a montré que si la série est affectée d’une tendance, le lissage exponentiel simple
est défaillant. Or, en prévision des ventes, la plupart des séries sont affectées d’une tendance à la
hausse ou à la baisse. Dans la pratique, le lissage simple n’est pas utilisé. C’est pourquoi on préfère
utiliser le lissage exponentiel double qui permet d’intégrer ces phénomènes de tendance.
3. Le lissage exponentiel double : le modèle linéaire
Les formules précédentes permettent de calculer une prévision pour des séries chronologiques
stationnaires, sans tendance. Nous pouvons définir un lissage exponentiel double qui est utilisé en
cas de série avec tendance :
Le modèle du lissage exponentiel double (LED) s’applique à une chronique du type :
x t = a 0t + a 1t t
Nous remarquons qu’il s’agit de la même spécification que pour une droite de tendance (cf.
chapitre 2), la moyenne (â0 t) et la tendance (pente de la droite â1 t) évoluent au cours du temps.
Comme son nom l’indique, la technique du LED consiste à effectuer un lissage de la série déjà
lissée.
On démontre14 les formules suivantes :
S t = α xt + (1 − α ) S t −1
SSt = α S t + (1 − α ) SSt −1 (d' où le terme de lissage double)
14
Cf. Bourbonnais et Terraza 1998, page 55.
Régis Bourbonnais - Prévision des ventes
α

a1t = 1 − α ( St − SSt )

 a 0 t = 2S − SS

t
t
La prévision à l’horizon h est donnée par : xˆ t +h = a 0 t + a 1t × h
Le Tableau 10 présente le calcul d'une prévision par lissage exponentiel double avec α = 0,3.
Les Graphique 9 et
Graphique 10 illustrent une prévision par lissage exponentiel, sur les données, du Tableau 10
avec α = 0,1 et α = 0,9 (la prévision est fonction du poids accordé au passé récent et lointain).
Tableau 10 – Prévision par lissage exponentiel double avec α = 0,3
DATES
Année 1–J
F
M
A
M
J
J
A
S
O
N
D
Année 2–J
F
M
A
M
J
J
A
S
O
N
D
Année 3–J
F
M
A
M
J
J
A
S
O
N
D
Année 4–J
F
M
A
M
J
J
A
S
O
N
D
VENTES CVS
7281
9163
7769
8485
7606
7364
6711
6894
5678
7606
7364
9789
8082
8663
7720
7859
6936
6292
7572
6743
7152
9567
8522
8688
5772
7682
8814
9432
7541
8765
7650
7152
9567
8522
8814
7892
S
7281,00
7845,60
7822,62
8021,33
7896,73
7736,91
7429,14
7268,60
6791,42
7035,79
7134,26
7930,68
7976,07
8182,15
8043,51
7988,15
7672,51
7258,36
7352,45
7169,61
7164,33
7885,13
8076,19
8259,73
7513,41
7563,99
7938,99
8386,89
8133,13
8322,69
8120,88
7830,22
8351,25
8402,48
8525,93
8335,75
SS
7281,00
7450,38
7562,05
7699,84
7758,91
7752,31
7655,36
7539,33
7314,96
7231,21
7202,12
7420,69
7587,30
7765,76
7849,08
7890,80
7825,32
7655,23
7564,39
7445,96
7361,47
7518,57
7685,86
7858,02
7754,64
7697,44
7769,91
7955,00
8008,44
8102,72
8108,17
8024,78
8122,72
8206,65
8302,43
8312,43
a1t
0,00
169,38
111,67
137,78
59,07
–6,60
–96,95
–116,03
–224,37
–83,75
–29,09
218,57
166,62
178,45
83,32
41,72
–65,49
–170,09
–90,83
–118,43
–84,49
157,10
167,29
172,16
–103,38
–57,19
72,46
185,10
53,44
94,27
5,45
–83,38
97,94
83,93
95,79
10,00
Toutes les explications de calcul sont indiquées sur les cellules du fichier.
Régis Bourbonnais - Prévision des ventes
a0t
7281,00
8240,82
8083,19
8342,83
8034,56
7721,52
7202,92
6997,87
6267,88
6840,38
7066,39
8440,67
8364,85
8598,55
8237,93
8085,50
7519,70
6861,48
7140,50
6893,27
6967,19
8251,69
8466,53
8661,45
7272,19
7430,54
8108,08
8818,79
8257,81
8542,66
8133,60
7635,65
8579,78
8598,30
8749,43
8359,08
PREV
7281,00
8410,20
8194,86
8480,62
8093,63
7714,92
7105,97
6881,84
6043,51
6756,63
7037,30
8659,24
8531,46
8777,00
8321,25
8127,23
7454,21
6691,40
7049,67
6774,83
6882,70
8408,79
8633,81
8833,61
7168,81
7373,34
8180,54
9003,88
8311,25
8636,94
8139,05
7552,27
8677,72
8682,23
8845,22
8369,07
8379,07
8389,06
8399,06
8409,06
8419,05
8429,05
8439,04
8449,04
8459,04
8469,03
8479,03
Graphique 9 – Prévision par lissage exponentiel avec α = 0,1
11000
10000
9000
8000
7000
6000
5000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
VENTES CVS
PREV
Graphique 10 – Prévision par lissage exponentiel avec α = 0,9
13000
12000
11000
10000
9000
8000
7000
6000
5000
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
VENTES CVS
PREV
La lecture des deux graphiques précédents illustre parfaitement la technique du lissage
exponentiel à plusieurs égards :
– d'une manière générale, nous observons que la prévision réagit avec retard à une modification
de la chronique ; c'est le phénomène de « course poursuite » entre réalisation et prévision.
Régis Bourbonnais - Prévision des ventes
– La courbe tracée à partir du coefficient α = 0,8 est très réactive à ces modifications brusques ;
cependant, en prévision, elle amplifie fortement la tendance liée à la dernière observation.
– Les deux prévisions calculées sont très différentes, la modification du coefficient α entraîne
des résultats hétérogènes et instables.
Ces graphiques présentent parfaitement les limites du lissage exponentiel.
4. Les modèles de Holt et Holt–Winters
4.1. Le modèle de Holt
La méthode que nous venons de présenter est celle de Brown. Nous pouvons aussi utiliser le
lissage de Holt qui comprend deux paramètres : l’un pour la moyenne lissée a0t et l’autre pour la
pente a1t.
Deux lissages distincts sont effectués :
– le lissage de la moyenne a0t avec un coefficient de lissage α, α ∈ [0 ; 1],
– le lissage de la tendance a1t avec un coefficient de lissage β, β ∈ [0 ; 1].
(Dans le cas particulier où α = β le modèle de Holt se ramène au lissage exponentiel double de
Brown).
Formulation
Lissage de la moyenne : a0t = α x t + (1 – α) (a0t–1 + a1t –1 )
(a0t–1 + a1t –1 représente la nouvelle moyenne lissée en t)
Lissage de la tendance : a1t = β (a0t – a0t–1 ) + (1 – β) a1t–1
Prévision calculée en t à un horizon de h périodes : xˆ t + h = a0t + h a1t
avec :
x t = valeur observée de la série en t
Initialisation (pour t = 1)
– Initialisation de la moyenne lissée : a0 1 = x 1
– Initialisation de la tendance : a1 1 = 0
Les formules générales peuvent ensuite être utilisées.
Nous vous proposons à titre d’exercice de charger le fichier Web.
Un exemple complet de calcul est présenté, par la suite, à partir du modèle de Holt–Winters.
4.2. Le modèle avec tendance et saisonnal ité (modèle de Holt–Winters)
Le modèle de Holt–Winters présente l’avantage d’intégrer une composante saisonnière et donc
de réaliser le calcul de la prévision en un seul traitement. C’est ce modèle qui est employé le plus
couramment dans les progiciels de prévision des ventes. Trois lissages15 distincts sont effectués :
− le lissage de la moyenne avec un coefficient de lissage α, avec α ∈ [0 ; 1],
− le lissage de la tendance avec un coefficient de lissage β, avec β ∈ [0 ; 1],
− le lissage de la saisonnalité avec un coefficient de lissage γ, avec γ ∈ [0 ; 1],
15
Si la série n’est pas saisonnière, on utilise alors le modèle de Holt à deux lissages : moyenne et tendance.
Régis Bourbonnais - Prévision des ventes
Formulation
Lissage de la moyenne : a0t = α (x t / St–p ) + (1 – α) (a0 t–1 + a1t–1 )
(On utilise St–p car St n’est pas encore connue).
Lissage de la tendance : a1t = β (a0 t – a0 t–1 ) + (1 – β ) a1t–1
Lissage de la saisonnalité : St = γ (x t / a0t) + (1 – γ) St–p
Prévision à un horizon de h périodes : x$t + h = (a0t + h a1 t) St–p+h si 1 ≤ h ≤ p
x$t + h = (a0t + h a1 t) St–p+2h si p + 1 ≤ h ≤ 2 p
avec :
a0t = moyenne lissée de la série en t
x t = valeur observée de la série en t
St = coefficient saisonnier en t
p = périodicité des données (p = 12 en mensuel, p = 4 en trimestriel)
a1 t = tendance estimée en t.
Initialisation (pour la première année, t = 1, p)
− Initialisation de la saisonnalité
Les coefficients saisonniers pour la première année sont estimés par la valeur observée en t (x t)
divisée par la moyenne x des p premières observations (celles de la première année).
St = xt / x pour t = 1, p
− Initialisation de la moyenne lissée : a0 p = x
− Initialisation de la tendance : a1 p = 0
Le Tableau 11 illustre un calcul de prévision à l’aide du modèle de Holt–Winters. Les données
concernent les ventes d’un produit festif (vin de champagne).
Régis Bourbonnais - Prévision des ventes
Tableau 11 – Calcul d’une prévision par le modèle de Holt–Winters
avec α = 0,3 ; β = 0,1 ; γ = 0,2
DATES
VENTES
Année 1–J
F
M
A
M
J
J
A
S
O
N
D
Année 2–J
F
M
A
M
J
J
A
S
O
N
D
Année 3–J
F
M
A
M
J
J
A
S
O
N
D
Année 4–J
F
M
A
M
J
J
A
S
O
N
D
401,60
395,70
451,00
427,60
496,80
467,70
352,30
182,10
522,20
687,20
1080,3
1391,6
263,90
289,90
337,00
374,00
292,70
398,60
421,70
173,80
522,10
642,40
984,20
1307,6
393,40
316,20
428,60
467,60
501,00
487,40
463,30
165,90
595,10
698,10
1012,10
1380,00
a0 t
571,3
512,6
480,3
458,3
463,8
419,8
431,6
500,6
512,9
530,2
532,4
529,9
532,8
551,3
528,6
535,5
560,2
574,6
579,5
618,9
593,1
610,8
605,8
588,6
583,6
a1 t
St
0,0
–5,9
–8,5
–9,9
–8,3
–11,9
–9,5
–1,7
–0,3
1,5
1,6
1,1
1,3
3,0
0,5
1,1
3,5
4,6
4,6
8,1
4,7
6,0
4,9
2,7
1,9
0,70
0,69
0,79
0,75
0,87
0,82
0,62
0,32
0,91
1,20
1,89
2,44
0,67
0,67
0,78
0,76
0,84
0,84
0,66
0,32
0,93
1,20
1,88
2,44
0,67
0,66
0,78
0,77
0,84
0,84
0,68
0,31
0,94
1,19
1,85
2,42
x$ t
350,93
372,38
335,61
396,06
333,94
260,28
159,04
468,51
639,48
1009,59
1293,50
355,35
374,05
411,91
407,82
470,70
486,21
386,56
202,37
554,84
742,35
1150,55
1442,40
395,22
387,41
461,43
458,21
499,74
499,82
405,46
188,16
563,23
719,31
1119,40
1470,68
Exemples de calculs16 .
Initialisation : x = 571,34 (pour la première année).
La saisonnalité : Savr–Année 1 = 427,60 / 571,34 = 0,75
La moyenne : a0déc–Année 1 = 571,34
La tendance : a1déc–Année 1 = 0
16
Des légères différences peuvent apparaître entre les valeurs calculées et les valeurs du tableau du fait que le
tableur utilise un nombre de décimales important.
Régis Bourbonnais - Prévision des ventes
Ici, en régime permanent (l’horizon h est choisi égal à 1) pour la ligne de septembre de l’année 2
:
a0 sep–Année 2 = 0,3 (522,1 / 0,91) + 0,7 (512,9 – 0,3) = 530,2
a1 sep–Année 2 = 0,1 (530,2 – 512,9) + 0,9 × – 0,3 = 1,5
S sep–Année 2 = 0,2 (522,1 / 530,2) + 0,8 × 0,91 = 0,93
x̂ sep–Année 2 = (512,9 + (– 0,3) × 1) 0,91 = 468,51 (calculée en août 1992, avec h = 1).
La prévision pour septembre de l’année 4 (horizon h = 9), calculée en décembre de l’année 3, est
égale à : x̂ sep–Année 4= (583,6 + 1,9 × 9) 0,94 = 563,23
5. Comment choisir le coefficient de lissage ?
5.1. Principes généraux
Pour débuter le processus de lissage, il convient de choisir une valeur pour la constante α (par
exemple α = 0,3). Ce choix est très important car il conditionne la prévision future à travers le
degré de pondération que l'on affecte au passé récent et au passé lointain.
Diverses procédures d'estimation de α ont été établies ; la plus classique consiste à retenir une
valeur de α qui minimise l'écart entre la prévision et la réalisation sur la partie connue de la
chronique (cf. 5.2.). Une autre approche consiste à élaborer des procédures de régulation et de
contrôle qui permettent de modifier la constante du lissage. Ainsi, en cas de divergence
systématique de la prévision, α s'ajuste automatiquement en vue de s'adapter à ce changement de
structure (cf. 5.3).
5.2. Valeur de α qui minimise la somme des carrés des erreurs de prévision
C'est la technique de calcul la plus couramment employée, son principe est simple : pour un
intervalle donné de valeurs de α (α1 ; α2 ) avec un « pas » assez fin (0,05 par exemple), les
prévisions sont simulées et la somme des carrés des erreurs de prévision est alors calculée. Nous
retenons la valeur de α qui rend minimum la somme des carrés des écarts. Cette technique peut être
généralisée pour la détermination des trois coefficients (α, β, γ). L’utilisation du « SOLVEUR » sur
les tableurs permet sans trop de difficultés de résoudre ce problème.
La démarche peut être illustrée de la manière suivante :
On cherche la valeur du coefficient de lissage qui minimise la somme des carrés des erreurs de
n
prévision passée : Min
n
∑ e =∑ ( x
t =1
2
t
t =1
t
− x$t ) 2 en faisant varier la valeur de α tel que :
α 1 = 0,1 ; α 2 = 0,6 ; pas = 0,05
Soit α = 0,1 ; α = 0,15 ; α = 0,20 ; … ; α = 0,6
Le coefficient α retenu est celui qui correspond au minimum de
n
∑ (x
t =1
t
− xˆ t ) 2 .
A titre d’illustration, recherche des coefficients de lissage optimaux dans un modèle de Holt–
Winters cf. Fichier Web.
Régis Bourbonnais - Prévision des ventes
Cette technique de détermination du coefficient de lissage est optimale selon le critère des
moindres carrés. Si nous sommes certains de trouver le meilleur coefficient sur l'ensemble de la
période de l'estimation (c'est–à–dire sur le passé), nous ne sommes plus du tout certains d'être à
l'optimum au moment où la prévision est calculée. La méthode suivante pallie cet inconvénient.
5.3. Procédure de régulation d'un coefficient de lissage
5.3.1 Principes généraux
La valeur optimale17 résulte d'un compromis entre l’inertie liée à l'intégration de données
lointaines et la sensibilité aux valeurs récentes.
En cas d'erreur de prévision constatée, deux interprétations sont possibles :
– il s'agit d'un accident, le coefficient α doit alors diminuer afin de gommer l'effet de cette
valeur anormale ;
– il s'agit d'une rupture de tendance durable, le coefficient α doit être augmenté afin d'intégrer
plus rapidement cette rupture.
L'arbitrage est délicat entre ces deux hypothèses.
Prenons l’exemple d’une chronique de ventes qui connaît deux perturbations :
– une rupture de tendance à partir de la période 13,
– une valeur anormale pour les périodes 25 et 26.
Nous calculons une prévision (cf. Graphique 11) pour cette chronique à l’aide d’un lissage
exponentiel double avec α = 0,1 et α = 0,5.
17
Si tant est qu’elle puisse exister, c’est-à-dire qu’un critère stable d’optimalité puisse être défini. A chaque
nouvelle réalisation, la réestimation des paramètres tenant compte de l’erreur de prévision définit un nouveau
coefficient de lissage. Il s’agit alors d’une « course poursuite » entre les prévisions et l’erreur de prévision, sans
possibilité d’anticipation de la nouvelle structure de la chronique. On doit donc parler de valeur optimale instantanée.
Régis Bourbonnais - Prévision des ventes
Graphique 11 – Exemple de prévision avec α = 0,1 et α = 0,5
900
800
700
600
500
400
300
200
100
0
1
2 3
4 5
6 7
8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
VENTES
LISSAGE ALPHA = 0,1
LISSAGE ALPHA = 0,5
Si α = 0,1 : la réaction au changement de tendance et le réajustement sont longs. En revanche, ce
coefficient permet d'effacer de façon très satisfaisante la perturbation,
Si α = 0,5 : le système s'ajuste bien et vite à la nouvelle moyenne mais sa sensibilité le fait réagir
trop fort à la perturbation.
L’idéal est donc un coefficient susceptible d’évoluer au cours du temps ! La procédure de
contrôle du coefficient α répond à cette question.
Reprenons le modèle du lissage exponentiel simple définit par l'équation :
x$ t = α x t + (1 – α) xˆt −1
x t = réalisation de la chronique (les ventes) x à la période t (un mois donné par exemple),
x$ t = prévision de la chronique xt pour t + 1 calculée en t,
α = coefficient de lissage, avec α ∈ [0 ; 1].
On est naturellement conduit à essayer de réguler de façon automatique et à chaque instant t, le
paramètre α, afin de tenir compte, soit du passé immédiat, soit des valeurs rétrospectives plus
anciennes.
On envisage un modèle du type :
x$ t = α t x t + (1 – α t) xˆt −1 dans lequel α t évolue à chaque instant t par un système de régulation.
5.3.2 Les variables de contrôle
Les notations sont les suivantes :
Régis Bourbonnais - Prévision des ventes
x 1 , x2 , … x t sont les valeurs successives de la chronique qu'il s'agit de prévoir aux différentes
dates 1, 2,..., t ;
xˆ 1 , xˆ 2 , K, xˆ t sont les valeurs qui ont été prévues pour ces mêmes dates par la procédure de
prévision.
Sur les différents graphiques, les croix représentent les réalisations x t ; les points représentent les
prévisions x$ t .
– Indicateur d'écart instantané (EPSt)
L'écart entre prévision et réalisation (cf. Graphique 12) à l'instant t est la première variable qui
vient à l'esprit pour juger de la performance du système de prévision : EPS t = x t – x$ t
Graphique 12 – Indicateur d'écart instantané
x
xt •
x$ t ×
t
– Indicateur de valeur cumulée des écarts (SUMEPS, somme des EPS)
Soit T périodes de prévision successives (par exemple les 12 dernières prévisions) :
Il est défini par : SUMEPSt =
t
∑ EPS
i =t −T +1
i
Si les observations sont – réparties – régulièrement autour des prévisions, la valeur de SUMEPS
est voisine à chaque instant de 0 (Graphique 13).
Si, en revanche, à partir d'un certain moment, SUMEPS croît en valeur absolue, cela indique un
changement de tendance ou de niveau (Graphique 14).
Graphique 13 – Erreur de prévision répartie
x
•
×
•
×
×
•
×
•
×
×
•
•
×
•
t
Régis Bourbonnais - Prévision des ventes
Graphique 14 – Prévision biaisée
•
x
×
•
×
×
×
•
×
•
•
•
×
×
•
SUMEPS croît
t
– Indicateur de la valeur absolue moyenne des écarts (Mean Absolute Deviation)
t
Il est défini à l'instant t par : MADt =
∑ EPS
i =t −T +1
i
T
Il s'agit d'une caractéristique de dispersion : MADt est l'analogue d'un écart type instantané des
écarts de prévision.
Si les écarts EPS deviennent de plus en plus importants, la valeur de MAD s'accroît. Une erreur
de prévision anormalement élevée entraîne une augmentation instantanée de la valeur MAD, cela
correspond souvent à une observation aberrante (ou anormale) (cf. Graphique 15).
Graphique 15 – MAD croît avec t
•
x
×
•
×
•
•
×
×
•
×
•
×
•
MAD croît
×
t
Un écart instantané EPS t ne peut se comprendre que par rapport aux fluctuations moyennes de la
série (un écart instantané de 5 à 10 % peut paraître satisfaisant pour une série dont les oscillations
sont violentes, mais anormal si la série est stable).
C'est pourquoi, il est souhaitable de comparer systématiquement EPS et SUMEPS à l'indicateur
d'écart moyen MAD, ce qui conduit à deux signaux de régulation NF et AWS.
– Signal NF (Normal Forecast)
Régis Bourbonnais - Prévision des ventes
EPSt
MADt
Ce signal est l'analogue d'une variable centrée réduite (que l'on obtiendrait en remplaçant MADt,
dans la formule précédente, par l'écart–type des écarts de prévision).
Cet indicateur est très sensible aux observations anormales (si |EPS t| est particulièrement élevé,
|NFt| est aussi élevé).
Il est défini par : NFt =
– Signal AWS (Alert Warning Signal)
SUMEPSt
MADt
Dans le cas d'un changement de tendance, la somme algébrique des écarts de prévision est de
même signe sur plusieurs périodes : la prévision ne s'ajuste pas convenablement au niveau des
réalisations, le filtre SUMEPS cumule ces écarts, |AWS| augmente.
Il est défini par : AWSt =
5.3.3 Application
– Cas d'un changement de tendance (Graphique 16)
Jusqu’à la période T, aucun indicateur n’augmente, α reste stable.
A partir de T + 1, la somme algébrique des erreurs est de même signe sur plusieurs périodes : la
prévision est biaisée. Le filtre SUMEPS va considérer ces écarts comme systématiques, NF
augmente à la première période du changement de structure et peut par la suite, soit rester stable,
soit maintenir son évolution ; AWS est le signal d'écart qui déclenchera l'augmentation de α, en
considérant que la pondération accordée à la dernière information est trop faible.
Graphique 16 – Changement de tendance
x
EPS = 0
SUMEPS
MAD
NF 
→

AWS 
α inchangé
Stabilité
Changement de tendance
T
T+1
NF
AWS
T+2
Stabilité
T+3 T+4
t
NF stable NF = 0
AWS
AWS
α augmente
α revient à la normale
Régis Bourbonnais - Prévision des ventes
– Incident de type conjoncturel (Graphique 17)
Le phénomène a un caractère éphémère. Dans ce cas, les erreurs n'ont pas un caractère
systématique mais peuvent être considérées comme anormales (filtre MAD). AWS augmente à la
première période. Il peut demeurer stable, ou même s'annuler par la suite dans le cas d'écarts
successifs importants de signes différents.
NF est le signal d'écart qui déclenche une diminution de α en considérant que la pondération
accordée à la dernière information a un poids trop important puisqu'il s'agit d'un accident.
Graphique 17 – Accident conjoncturel
x
Stabilité
« Accident »
T
T+1
NF
AWS
T+2
NF grand
AWS = 0
Stabilité
t
T+3 T+4
NF = 0
AWS = 0
α diminue α revient à la normale
– La prévision a rejoint la nouvelle tendance où la valeur anormale est passée
Dans ce cas, α, qui a pu subir des variations importantes précédemment, revient au niveau de
départ (α de base).
– Procédure opérationnelle
L’indicateur NF est donc spécifique d’une valeur anormale (en cas d’augmentation de NF, il
convient de diminuer le coefficient de lissage) et l’indicateur AWS permet de détecter les ruptures
de tendance (en cas d’augmentation de AWS, le coefficient de lissage doit être augmenté).
La question se pose alors de combiner d’une manière pertinente ces deux informations.
La constitution du tableau de décision (cf. Tableau 12) permet de répondre à ce problème. A
partir de seuils expérimentaux18 , nous définissons trois classes pour les valeurs de NF (en ligne) et
AWS (en colonne) :
– NF est faible si sa valeur est inférieure à 1,5 ⇒ le code NF est alors 1,
– NF est moyen si sa valeur est comprise entre 1,5 et 3 ⇒ le code NF est 2,
– NF est fort si sa valeur est supérieure à 3 ⇒ le code NF est 3,
– AWS est faible si sa valeur est inférieure à 3 ⇒ le code AWS est 3,
– AWS est moyen si sa valeur est comprise entre 3 et 5 ⇒ le code AWS est 2,
18
C’est-à-dire issus d’expériences en entreprise.
Régis Bourbonnais - Prévision des ventes
– AWS est fort si sa valeur est supérieure à 5 ⇒ le code AWS est 1.
La stratégie à adopter – en ce qui concerne la valeur de α – se trouve à l’intersection d’une ligne
et d’une colonne :
– si NF est faible et AWS fort, nous sommes confrontés à une rupture de tendance, le coefficient
α doit fortement augmenter,
– si NF est fort et AWS moyen, nous avons une présomption d’une valeur anormale, le
coefficient α doit légèrement diminuer,
– etc.
Tableau 12 – Table de décision en fonction des valeurs de NF et AWS
NFt
AWSt
FAIBLE
<3
CODE = 3
MOYEN
]3 ; 5 [
CODE = 2
FORT
>5
CODE = 1
FAIBLE
< 1,5
CODE = 1
α moyen
régime permanent
α fort
présomption de
rupture de tendance
α très fort
rupture de
tendance
MOYEN
] 1,5 ; 3 [
CODE = 2
α faible
présomption de
valeur anormale
α moyen
attente
α fort
présomption de
rupture de tendance
FORT
>3
CODE = 3
α très faible
valeur anormale
α faible
présomption de
valeur anormale
α moyen
rupture de
tendance ou valeur
anormale ?
La valeur du coefficient α correspondant à la stratégie se trouve à l’intersection des valeurs de
NF et AWS. D’une manière opérationnelle et afin de pouvoir automatiser le pilotage du coefficient
de lissage, il convient de calculer la somme des deux codes NF et AWS :
SOMME = CODE NF + CODE AWS
Puis la valeur du coefficient se déduit directement de cette valeur selon l’équation empirique
suivante :
α t = 0,7 – 0,1 × SOMME
Le Tableau 13 présente en fonction des différentes valeurs de la somme des codes NF et AWS la
valeur déduite de α.
Régis Bourbonnais - Prévision des ventes
Tableau 13 – Valeurs de α en fonction de la somme des codes NF et AWS
SOMME
α
6
5
4
3
2
0,1
0,2
0,3
0,4
0,5
Dans le cas d’un modèle de Holt ou Holt –Winters, nous sommes confrontés au pilotage de deux
ou trois coefficients. La stratégie est alors la suivante :
– le coefficient de lissage de la moyenne α est piloté comme indiqué ci-dessus,
– le coefficient de lissage de la tendance β, sur lequel on désire être légèrement moins réactif
que celui de la moyenne, se déduit de la valeur de α par l’équation β t = α t – 0,05,
– enfin, le coefficient γ de la saisonnalité, dans le cas du modèle de Holt–Winters, reste statique
et égal à 0,2 car les ruptures de tendance ou les valeurs anormales n’affectent pas la composante
saisonnière.
A titre d’illustration : Fichier Web (pilotage d’un coefficient dans un modèle de lissage double).
L'avantage des méthodes fondées sur le lissage exponentiel réside dans leur grande facilité de
mise en œuvre et leur simplicité relative de calcul. En revanche, nous pouvons leur reprocher une
rusticité qui s'avère suffisante en cas de chronique assez peu fluctuante, mais devient vite gênante si
la série est fortement chahutée. De surcroît, par son inspiration même, l'environnement extérieur
n'est pas pris en compte et n'a donc aucun effet. Cependant, dans certains cas il est possible
d'intégrer, de manière rudimentaire, des facteurs explicatifs qui viennent alors a priori améliorer la
prévision obtenue (voir chapitre 7).
En conclusion de ce chapitre, nous pouvons synthétiser les avantages et les inconvénients de
cette technique de prévision à l’aide du Tableau 14.
Tableau 14 – Points forts et points faibles du lissage exponentiel
Avantages
Simplicité des calculs pour l'élaboration des
prévisions en régime permanent
Système adaptatif avec calculs itératifs,
facilement réalisable sur tableur
Rapidité de calcul
Maîtrise du fonctionnement par l'utilisateur
Inconvénients
Méthode purement extrapolative, qui ignore les
événements exogènes
Choix délicat de la constante de lissage
Système réagissant avec retard
Régis Bourbonnais - Prévision des ventes
Chapitre 4
PRINCIPALES METHODES (2) :
BOX-JENKINS ET MODELE CAUSAL
Dans ce chapitre nous étudions deux méthodes de prévision :
– La méthodologie de Box et Jenkins est une technique d'extrapolation par référence à une loi de
reproduction du phénomène étudié. L'information permettant de mettre en évidence le processus est
contenue dans la série chronologique elle-même, sans apport externe, d'où le nom de prévision
endogène ;
– les modèles causals ou modèles explicatifs cherchent à expliquer les fluctuations de la série
des ventes par référence à des facteurs explicatifs externes représentatifs soit de la politique
marketing de la firme, soit de la demande.
1. La corrélation et le corrélogramme
Deux concepts doivent tout d'abord être explicités : la corrélation et le corrélogramme.
1.1. La corrélation
Lorsque deux phénomènes ont une évolution commune, ils sont dits « corrélés ». La corrélation
simple mesure le degré de liaison existant entre ces deux phénomènes représentés par des variables
x et y.
Nous pouvons distinguer la corrélation linéaire, lorsque tous les points du couple de valeurs (x,
y) des deux variables semblent alignés sur une droite, de la corrélation non linéaire lorsque le
couple de valeurs se trouve sur une même courbe d'allure quelconque.
Deux variables peuvent être :
− en corrélation positive, on constate une augmentation (ou diminution, ou constance)
simultanée des valeurs des deux variables ;
− en corrélation négative, lorsque les valeurs de l'une augmentent, les valeurs de l'autre
diminuent ;
− non corrélées, lorsqu’il n'y a aucune relation entre les variations des valeurs de l'une des
variables et les valeurs de l'autre.
1.1.1 Mesure du coefficient de corrélation linéaire
La représentation graphique ne donne qu'une « impression » de la corrélation entre deux
variables sans donner une idée précise de l'intensité de la liaison ; c'est pourquoi nous calculons une
statistique appelée coefficient de corrélation linéaire simple noté ρxy . Il est égal à :
t= n
∑ (x − x )(y − y )
t
ρxy
Cov ( x, y )
=
=
σ x ×σ y
t
t= 1
t =n
 t= n
2 
2
 ∑ (x − x )   ∑ ( y − y) 
 t =1
  t =1

t
t
Régis Bourbonnais - Prévision des ventes
t =n
t =n
t =n
n∑ x y − ∑ x ∑ y
t
=
t
t= 1
t= n
t =1
t= n
n ∑ x t2 − (∑ x ) 2
t
t =1
t =1
t
t
t =1
t =n
t =n
t= 1
t =1 )
n ∑ y t2 − (∑ y ) 2
t
avec :
x t et yt = valeurs des deux historiques à l’instant t,
Cov(x,y) = covariance entre x et y,
σx et σy = écart-type de x et écart-type de y,
x et y = moyenne de x et moyenne de y,
n = nombre d'observations.
On peut démontrer que, par construction, ce coefficient reste compris entre -1 et 1 :
− proche de 1, les variables sont corrélées positivement,
− proche de -1, les variables sont corrélées négativement,
− proche de 0, les variables ne sont pas corrélées.
Dans la pratique, ce coefficient est rarement très proche de l'une de ces trois bornes et il est donc
difficile de proposer une interprétation fiable à la simple lecture de ce coefficient. La théorie des
tests statistiques nous permet de lever cette indétermination. Nous calculons un ratio (appelé le t de
Student empirique) :
t cal =
ρ x, y
(1 − ρ )
2
x, y
n−2
Si t cal > t lu lu dans une table de Student19 à n – 2 degrés de liberté (si le nombre d’observations
est supérieur à 30, on peut prendre par approximation t lu =2), le coefficient de corrélation est
significativement différent de 0 ; dans le cas contraire, l'hypothèse d'un coefficient de corrélation
nul est acceptée.
Que veut dire significativement différent de 0 ?
On cherche à déterminer le risque de se tromper en affirmant que le coefficient (vrai et inconnu)
est différent de 0. Ce risque admissible est en général de 5 % (on accepte de se tromper dans 5%
des cas) ; mais plus le seuil de risque fixé est faible, plus forte est notre certitude quant à l’existence
de la corrélation entre les deux variables.
La liaison est en général considérée comme significative si on a un risque de se tromper
inférieur à 5% en affirmant que le coefficient de corrélation est bien différent de 0.
Le Tableau 15 présente un exemple de calcul d’un coefficient de corrélation entre les ventes
trimestrielles d’un produit (x t) et les dépenses publicitaires (yt) trimestrielles.
19
Les tables statistiques sont en fin d’ouvrage.
Régis Bourbonnais - Prévision des ventes
Tableau 15 – Exemple de calcul d’un coefficient de corrélation
ρx,y =
t cal =
Trimestre
x
y
x²
y²
xy
1
2
3
4
5
6
7
8
9
10
16
18
23
24
26
28
29
31
32
34
20
24
28
22
32
32
28
36
41
41
256
324
529
576
676
784
841
961
1024
1156
400
576
784
484
1024
1024
784
1296
1681
1681
320
432
644
528
832
896
812
1116
1312
1394
Somme
261
304
7127
9734
8286
(10 )(8286 ) − ( 261 )(304 )
(10 )( 7127 ) − 261 2 (10 )(9734 ) − 304 2
0 ,89
1 − 0 ,89 2
10 − 2
= 0,89
= 5,49 > t lu = 2,306 (8 degrés de liberté et α = 0,05).
La corrélation est donc significative.
1.1.2 Limites de la notion de corrélation
a) Corrélation n'est pas causalité
Le fait d'avoir un coefficient de corrélation élevé entre deux variables ne signifie pas qu'il existe
un lien de causalité. En d'autres termes, une covariance significativement différente de 0 n'implique
pas une liaison d'ordre économique, physique ou autres. Nous appelons corrélation fortuite ce type
de corrélation que rien ne peut expliquer.
L'exemple le plus fameux concerne la forte corrélation existant entre le nombre de taches
solaires observées et le taux de criminalité aux Etats-Unis. Cela ne signifie pas qu'il existe une
relation entre les deux variables, mais qu'un troisième phénomène, l'évolution de long terme (la
tendance) ici, explique conjointement les deux phénomènes.
b) La relation testée est linéaire
L'application de la formule de calcul ne permet de déterminer que des corrélations linéaires entre
variables. Un coefficient de corrélation nul indique que la covariance entre la variable x et la
variable y est égale à 0. C'est ainsi que deux variables en totale dépendance peuvent avoir un
coefficient de corrélation nul, comme l'illustre l'exemple suivant : l'équation d'un cercle nous est
donnée par x 2 + y2 = R2, les variables x et y sont bien liées entre elles par une relation et pourtant
leur covariance est nulle et donc leur coefficient de corrélation est égal à 0.
Pour pallier cette limite, il convient éventuellement de transformer les variables, préalablement
au calcul du coefficient de corrélation, afin de linéariser leur relation, par exemple, au moyen ici
d'une transformation de type logarithmique.
1.2. Le corrélogramme et la fonction d'autocorrélation
L'autocorrélation est un concept lié à celui de corrélation : il s'agit non pas d'un calcul entre deux
chroniques différentes mais entre la série et elle-même à différents décalages dans le temps.
Régis Bourbonnais - Prévision des ventes
On appelle coefficient d’autocorrélation d’ordre 1 le coefficient de corrélation linéaire calculé
entre la série chronologique et cette même série décalée d’une période de temps. Les coefficients
d’autocorrélation sont calculés pour des ordres allant de 0 à K, K étant le décalage maximum
admissible (en général
n
n
n
ou K =
si n ≥ 150 ) pour que le coefficient
≤ K ≤
6
3
5
d’autocorrélation ait un sens (cf. Tableau 16).
Tableau 16 – Exemple de calcul d’une autocorrélation
1 2 3 ...
t
...
n
Retards
0
Autocorrélation
r0 = 1
1 2 3 ...
t-1
n-1
1
r1
1 2 3
t-2
n-2
2
r2
....
...
...
...n-k
k
rk
...
...
K
rK
t-k
t-K
...n-K
La représentation graphique de la Fonction d’AutoCorrélation (notée FAC) est appelée le
corrélogramme comme l’illustre le Graphique 18.
Graphique 18 – Exemple de corrélogramme
rk
1
r1
2
k
rK
0
k
1
rk
K
r2
-1
Le coefficient d’autocorrélation d’ordre k est donné par :
Régis Bourbonnais - Prévision des ventes
n
rk =
∑
t = k +1
n
∑ (x
t = k +1
x1 =
1
n− k
n
∑xx
( x t − x 1)( x t − k − x 2 )
t
− x 1) 2
n
∑x
t =k +1
t
=
n
∑ (x
t = k +1
t− k
− x 2) 2
x2 =
1
n−k
t = k +1
t
t −k
− ( n − k ) x1 x 2
n
 n 2
2
2
2
 ∑ x t − ( n − k ) x 1   ∑ x t − k − (n − k ) x 2 
 t = k +1
  t = k +1

n
∑x
t = k +1
t− k
Le test de signification sur le coefficient rk permet de sélectionner les coefficients
d’autocorrélation significativement différents de 0 ; il s’effectue comme pour un coefficient de
rk
corrélation linéaire simple. Soit le calcul de la quantité t c =
n − 2 . Si t c > t αn−/ 22 , le
1 − rk2
coefficient d’autocorrélation est significativement différent de 0 ( tnα−/ 22 valeur de la loi de Student au
seuil α à n – 2 degrés de liberté).
Le calcul de rk permet de déceler des liaisons internes à la série. Par exemple, une série
saisonnière, avant désaisonnalisation, montre une valeur élevée pour r12 . A travers la connaissance
des valeurs de la fonction d'autocorrélation, le processus de reproduction interne à la série peut être
décelé. Pour toutes les méthodes endogènes, il s'agit donc d'une étape nécessaire, préalable à la
modélisation.
Deux propriétés doivent être signalées :
r0 = 1 (corrélation parfaite de la série avec elle-même à décalage zéro),
r-k = rk (les valeurs du corrélogramme sont identiques pour deux décalages temporels
symétriques par rapport à la période de référence).
Le corrélogramme est la représentation graphique de cette fonction d'autocorrélation.
Il est souhaitable de présenter sur ce graphe l'intervalle de confiance autour de zéro (± 2/ n ),
permettant d'éliminer visuellement tous les termes non significativement différents de zéro.
Ainsi, si tous les rk se trouvent à l'intérieur de cette bande de confiance, la chronique dont le
corrélogramme a été calculé est purement aléatoire ; c'est-à-dire qu'il s'avère impossible de trouver
une loi statistique de reproduction du phénomène. Nous allons détailler les calculs, à partir des
données de ventes d’une série trimestrielle (cf. Tableau 17), pour un coefficient, par exemple r2 ,
c’est-à-dire la corrélation entre x t et x t-2 .
Régis Bourbonnais - Prévision des ventes
Tableau 17 – Exemple de calcul pour un coefficient d’autocorrélation d’ordre 2
t
1
2
3
4
5
6
7
8
9
10
Somme
xt
1057
3159
891
1065
1118
2934
1138
1456
1224
3090
17132,30
xt-2
1248
1392
1057
3159
891
1065
1118
2934
1138
1456
15458,20
( xt − x1 )( xt −2 − x2 )
( xt − x1 ) 2
195360,56
-222259,17
402349,24
-1045292,60
390149,56
-586700,47
246239,35
-357132,95
199297,67
-123679,42
-901668,23
( xt − 2 − x2 ) 2
431162,99
2090540,47
676391,15
419813,28
354775,05
1490767,59
330659,57
66167,26
239052,53
1896046,27
7995376,17
88518,15
23629,84
239336,23
2602672,82
429051,24
230899,47
183372,34
1927598,84
166154,12
8067,63
5899300,68
x1 = 1713,2 et x2 = 1545,8
n
∑ ( x − x )( x
t
r2 =
t −2
1
t = k +1
n
∑ (x − x ) ∑ (x
t
t = k +1
− x2 )
n
1 2
t = k +1
t− 2
=
− x 2)2
− 901668,23
5899300,68
7995376,17
Le t calculé est égal pour n = 10 et rk = −0,13 : t c =
rk
1− r
2
k
= -0,13
0, 05 / 2
n − 2 = 0,38 < t10−
2 = 2,306. Le
coefficient n’est pas significativement différent de 0.
Le Tableau 18 indique l’ensemble des valeurs de la fonction d’autocorrélation que l’on compare
à la valeur lue dans la table de Student pour un seuil de 5% et à n – 2 degrés de liberté. Seul le
coefficient d’autocorrélation d’ordre 4 est significativement différent de 0 ; la périodicité des
données étant trimestrielle, ce « pic » est donc attribué à la saisonnalité des données.
Tableau 18 – Calcul d’une fonction d’autocorrélation
Retards
0
1
2
3
4
rk
1
-0,395
-0,132
-0,392
0,952
n
12
11
10
9
8
tc
1,29
0,38
1,13
7,62
ddl
9
8
7
6
tlu à 0,05
2,262
2,306
2,365
2,447
Dans une approche endogène, la première étape consiste toujours à décomposer une chronique
en trois composantes fondamentales : tendance, saisonnalité, résidu, puis à les extrapoler
indépendamment les unes des autres et enfin à les agréger en vue d'obtenir une prévision en termes
directement exploitables.
L'extrapolation de la tendance et de la saisonna lité ne pose pas de problème particulier ; en ce
qui concerne l'extrapolation du facteur résiduel, de nombreuses méthodes existent, toutes fondées
sur l'étude préalable du corrélogramme.
Si au lieu de traiter le facteur résiduel, on s'intéresse à la série désaisonnalisée (tendance et
résidus), l'allure du corrélogramme est alors typique d'une chronique non stationnaire (la moyenne
de la série est instable au cours du temps, car la tendance est incluse dans la série, cf. Graphique
19.) et nous ne pourrons obtenir aucune information exploitable. C'est pourquoi il est impératif
d'effectuer les calculs de la fonction d’autocorrélation sur la série hors tendance et saisonnalité.
Régis Bourbonnais - Prévision des ventes
Graphique 19 – Corrélogramme d'une série non stationnaire (« trendée »)
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Comme nous l'avons évoqué plus haut, il est possible qu'aucun terme du corrélogramme ne soit
significativement différent de zéro. Ceci laisse présager un processus purement aléatoire et donc,
par définition, imprévisible. La prévision ne peut alors être calculée qu'à l'aide d'une extrapolation
de la tendance ou d'un lissage exponentiel. Dans le cas contraire, Box et Jenkins proposent une
méthodologie permettant de déterminer le processus de reproduction sous-jacent à la série de vente.
1.3. Introduction à la méthodologie de Box et Jenkins
Dans le cas où les premiers termes du corrélogramme diffèrent de zéro, il convient de modéliser
le terme résiduel, c'est-à-dire de trouver la loi de reproduction du phénomène.
Plusieurs modèles endogènes existent, plus ou moins complexes20 . Seule la méthode de BoxJenkins, qui a fait l'objet d'importantes applications dans le domaine de la prévision, est présentée
ici.
Box et Jenkins 21 ont développé une véritable méthodologie de recherche systématique d'un
modèle adéquat en fonction de l'étude des corrélogrammes empiriques, ils se réfèrent à deux types
de modèle : des processus moyennes mobiles, des modèles autorégressifs, ou à une combinaison
des deux.
1.3.1 Typologie des modèles
Les modèles ARMA permettent de représenter la plupart des processus aléatoires stationnaires
(Wold, 1954) ; ainsi ils sont censés recouvrir une gamme très large d'évolutions possibles de séries
chronologiques. Nous pouvons distinguer deux types de processus : les processus autorégressifs
(AR) et les processus de moyenne mobile (MA). Chacun de ces modèles est caractérisé par sa
fonction d’autocorrélation simple (FAC) et sa fonction d’autocorrélation partielle (FAP).
20
Dans le cadre de cet ouvrage, nous nous limitons à des développements succincts, le lecteur intéressé par la
méthode de Box et Jenkins peut se référer à Bourbonnais et Terraza (1998).
21
Box et Jenkins (1976).
Régis Bourbonnais - Prévision des ventes
La Fonction Autocorrélation Partielle (notée FAP) est une notion plus complexe que la FAC. Il
s’agit de la corrélation entre xt et xt-k , l’influence des variables x t-k-i pour (i < k) ayant été retirée.
– Les modèles AR
La partie autorégressive d’un processus, notée AR, est constituée par une combinaison linéaire
finie des valeurs passées du processus. Le processus AR(p) est donc défini à partir de la formule
générale : xt = φ 1 xt −1 + ...+φ p xt − p + a t avec at un processus de bruit blanc gaussien ; par exemple :
AR(1) : xt = φ1 xt −1 + at ; AR(2) : xt = φ1 xt −1 + φ2 xt −2 + at ; etc.
Un processus AR(p) a les caractéristiques suivantes :
– la FAC est une exponentielle et/ou une sinusoïde amortie,
– seuls les p premiers termes de la FAP sont significativement différents de 0.
– Les modèles MA
La partie moyenne mobile, notée MA, est constituée d’une combinaison linéaire finie en t des
valeurs passées d’un bruit blanc. Un processus MA(q) est défini à partir de la formule :
xt = at − θ1at −1 −....−θq at − q . avec at → processus de bruit blanc gaussien ; par exemple :
MA(1) : xt = at − θ1a t −1 ; MA(2) : xt = a t − θ1 a t −1 − θ2 a t − 2
Un processus MA(q) a les caractéristiques suivantes :
– seuls les q premiers termes de la FAC sont significativement différents de 0,
– la FAP est une exponentielle et/ou une sinusoïde amortie.
Nous pouvons constater la symétrie parfaite des comportements de la FAC d’un AR(p) et de la
FAP d’un MA(q) d’une part, et de la FAP d’un AR(p) et de la FAC d’un MA(q) d’autre part. En
effet, nous pouvons démontrer l’équivalence suivante : AR(1) = MA(∞) et MA(1) = AR(∞).
– Les modèles ARMA
Les processus ARMA sont des mélanges de processus AR et MA ; ils sont donc définis par le
modèle suivant :
ARMA(p, q) : xt = φ 1 xt −1 +...+ φ p xt − p + a t − θ1 a t −1 − ....−θq a t − q . Par exemple :
ARMA(1, 1) : xt = φ1 xt −1 + at − θ1at −1
ARMA(2, 1) : xt = φ1 xt −1 + φ2 xt −2 + a t − θ1a t −1 ; etc.
On remarque que : ARMA(0, q) ≡ MA(q) et ARMA(p, 0) ≡ AR(p)
Le Tableau 19 synthétise les caractéristiques, en termes de corrélogrammes, des processus AR,
MA et ARMA.
Régis Bourbonnais - Prévision des ventes
Tableau 19 – Résumé des propriétés des fonctions d’autocorrélation simple et partielle
Processus
AR(1)
AR(2)
AR(p)
MA(1)
MA(2)
MA(q)
ARMA(1, 1)
ARMA(p, q)
FAC
FAP
Pic significatif pour le premier retard: Positif si φ1
> 0 et négatif si φ1 < 0, les autres coefficients nuls
pour des retards > 1
Décroissance exponentielle ou sinusoïdale selon Pics significatifs pour le premier et second retards,
les autres coefficients sont nuls pour des retards > 2
les signes de φ1 et φ2
Décroissance exponentielle et/ou sinusoïdale
Pics significatifs pour les p premiers retards, les
autres coefficients sont nuls pour des retards > p
Pic significatif pour le premie r retard : positif si
Décroissance exponentielle(θ1 > 0) ou sinusoïdale
θ1 < 0 et négatif si θ1 > 0. Les autres coefficients
amortie (θ1 < 0)
sont nuls pour des retards > 1
Pics significatifs pour le premier et second
Décroissance exponentielle ou sinusoïdale selon les
retards. Les autres coefficients sont nuls pour
signes de θ1 et θ2
des retards > 2
Pics significatifs pour les q premiers retards. Les
Décroissance exponentielle et/ou sinusoïdale
autres coefficients nuls pour des retards > q
Décroissance géométrique à partir du premier
Décroissance exponentielle(θ1 > 0) ou sinusoïdale
retard, le signe est déterminé par φ1 – θ1
amortie (θ1 < 0)
Décroissance exponentielle ou sinusoïdale
Décroissance exponentielle ou sinusoïdale amortie
amortie tronquée après (q – p) retards
tronquée après p – q retards
Décroissance exponentielle(φ1 > 0) ou
sinusoïdale amortie (φ1 < 0)
– Conditions d'utilisation
Les modèles AR, MA, ARMA ne sont représentatifs que de chroniques :
• stationnaires en moyenne (c'est-à-dire hors tendance),
• corrigées des variations saisonnières.
1.3.2 Le problème de la stationnarité
Nous ne pouvons interpréter valablement les corrélogrammes que sur des séries stationnaires
(sans tendance). Les tests de Dickey-Fuller (1979) et Dickey-Fuller Augmenté (1981) permettent
de déterminer si la série est stationnaire et, dans le cas d’une non stationnarité, de quel type il
s’agit : TS (« Trend Stationnary ») qui représente une non stationnarité de type déterministe ou DS
(« Differency Stationnary ») pour les processus non stationnaires stochastiques. Si la série étudiée
est de type TS, il convient de la stationnariser par régression sur le temps ; le résidu d’estimation
est alors étudié selon la méthodologie de Box-Jenkins. Ceci permet de déterminer les ordres p et q
des parties AR et MA du résidu. Le modèle est toujours dans ce cas un ARMA(p, q).
Si la série étudiée est de type DS, il convient de la stationnariser par passage aux différences
selon l’ordre d’intégration I = d (d est le nombre de fois qu’il faut différencier la série pour la
rendre stationnaire). La série différenciée est alors étudiée selon la méthodologie de Box-Jenkins
qui permet de déterminer les ordres p et q des parties AR et MA. On note ce type de modèle
ARIMA(p, d, q).
1.3.3 Recherche de la représentation adéquate
L'objectif est de rechercher parmi tous les modèles (AR, MA, ARMA) celui qui semble le
mieux adapté, puis de spécifier le (ou les) degré(s) du processus retenu. Plusieurs étapes sont
nécessaires.
– L’identification
Régis Bourbonnais - Prévision des ventes
La phase d'identification est la plus importante et la plus difficile : elle consiste à déterminer le
modèle adéquat, c’est-à-dire les valeurs des paramètres p, d, q du modèle ARIMA. Elle est fondée
sur l'étude des corrélogrammes simple et partiel.
Dans la méthodologie de Box et Jenkins, le problème de l'identification du modèle est donc
crucial.
– Estimation et validation
L’estimation des paramètres du modèle est fondée sur la maximisation d’une fonction de
vraisemblance. La validation de la représentation porte sur :
– Les coefficients du modèle qui doivent être significativement différents de 0 (le test de Student
s'applique de manière classique). Si un coefficient n'est pas significativement différent de 0, il
convient d'envisager une nouvelle spécification éliminant l'ordre du modèle AR ou MA non valide.
– L'analyse des résidus (écart entre la série observée et la série prévue) permet de vérifier qu’ils
sont :
• de moyenne nulle ; dans le cas contraire, il convient d'ajouter une constante au modèle ;
• représentatif d’un bruit blanc. Si le résidu n'est pas un bruit blanc, cela signifie que la
spécification du modèle est incomplète et qu'il manque au moins un ordre à un processus.
La phase de validation du modèle est très importante et nécessite le plus souvent un retour à la
phase d'identification.
– Prévision
Lorsque le modèle est validé, la prévision peut alors être calculée à un horizon h de quelques
périodes, limité par la variance de l'erreur de prévision qui augmente rapidement avec l'horizon.
A l’étape de la transformation, plusieurs techniques ont pu être employées afin de stationnariser
le processus générateur pour qu’il soit identifiable dans la classe des processus ARMA. Il est
nécessaire, lors de l’étape de prévision, de prendre en compte la ou les transformations retenues
(« recoloration de la prévision »).
– Si on a utilisé la régression afin de retirer une ou plusieurs composantes déterministes estimées
par les Moindres Carrés Ordinaires, ces dernières sont extrapolées jusqu’à l’horizon prévisionnel
choisi puis combinées aux valeurs prévisionnelles de l’ARMA.
– Si la série a été préalablement désaisonnalisée, il convient de re-saisonnaliser la série des
ventes afin d’obtenir une prévision en termes bruts.
Ces modèles de type ARIMA connaissent un grand succès et de nombreux raffinements dans
leur spécification (ARCIMA, ARFIMA ...) sont appliqués au domaine particulier de la finance. Il
est à noter qu’on démontre que le lissage exponentiel est un cas particulier de modèle ARIMA.
Le Schéma 2 illustre la démarche de la méthodologie de Box et Jenkins.
Régis Bourbonnais - Prévision des ventes
Schéma 2 – Méthodologie de Box et Jenkins
Série xt
Analyse du graphique
et du corrélogramme
Analyse de saisonnalité
Test de Dickey-Fuller
Régression sur le temps
si TS
Passage aux différences
si DS
Série stationnaire yt
Analyse des corrélogrammes
simple et partiel
Détermination des ordres
p et q du processus ARMA
Estimation des paramètres
Test de Student
Les coefficients non significatifs sont supprimés
Tests sur les résidus
Sont-ils des bruits blancs ?
Oui
Non
ajout d'un ordre p ou q
Prévision par ARMA
Recoloration de la série
(exponentiel, saisonnalité ...)
L'examen visuel du corrélogramme est la seule information initiale dont le prévisionniste
dispose pour faire son choix.
Si le corrélogramme est caractéristique d'un modèle, la décision est immédiate ; en réalité, le
plus souvent, on est confronté à plusieurs possibilités qu'il faut tester les unes après les autres. Des
procédures existent en vue de définir des critères rigoureux concernant la sélection des modèles.
Le modèle étant spécifié tant sous sa forme que par son degré, l’univers des modèles possibles
est donc important et la tentation d'effectuer un très grand nombre de tests existe.
Très vite l'utilisateur risque d'être noyé sous les résultats (à chaque spécification correspond une
émission de prévision). Ainsi, d'un système conçu initialement pour être très automatique, on
aboutit rapidement à une perte en temps humain (l'utilisateur) et machine, ceci pour une
amélioration parfois faible de la qualité prévisionnelle.
La méthodologie de Box et Jenkins s’avère donc plus complexe dans sa mise en œuvre et dans
sa gestion au quotidien que les techniques de lissage exponentiel pour un gain en qualité incertain.
Ceci explique que cette méthode d’analyse est rarement employée en entreprise (et dans les
progiciels de prévision) ; elle reste réservée aux travaux de recherche universitaires sur données
Régis Bourbonnais - Prévision des ventes
micro-économiques telles que des produits financiers (actions, produits dérivés, taux d’intérêt …) à
haute fréquence (jour ou parfois heure).
L'approche endogène, lissage exponentiel ou méthodologie de Box et Jenkins, autorise le
traitement en chaîne d'un grand nombre de séries chronologiques ; en effet, l'intervention humaine
est réduite au minimum, voire nulle, dans le cas d'une utilisation automatique.
Cette méthode de prévision ne peut s'appliquer qu'à des chroniques relativement stables, peu
sujettes aux à-coups de la conjoncture ou aux influences de la politique marketing de la firme.
Certains produits du secteur de la grande consommation correspondent à ce profil ; en revanche, les
produits de type industriel, très liés à l'environnement économique, et les produits de grande
consommation, où la concurrence joue un rôle important, ne peuvent être traités par cette
technique.
Dans le cadre d'un système de gestion de stock, ce système d'analyse de séries permet de traiter
rapidement un grand nombre de références et ainsi d'élaborer des prévisions peu coûteuses à un
niveau très fin.
Ainsi une « boîte noire » (le programme informatique) traite l'historique de la série des ventes et
produit une prévision à l'horizon choisi par l'utilisateur ; celui-ci pouvant être ignorant du
fonctionnement du système.
Cet avantage a une contrepartie évidente : par la philosophie même de cette approche, le
retournement de conjoncture s'avère difficile à prévoir. En outre, l’impact de la conjoncture ou des
dépenses publicitaires ne peuvent être intégrés efficacement. Le système ne peut en tenir compte
qu'a posteriori par la rectification de certains paramètres, mais en aucun cas il ne peut anticiper.
Pour le prévisionniste ceci constitue un handicap important.
Les méthodes exogènes apportent des éléments de réponse au problème de l'anticipation des
retournements de conjoncture et de l'intégration des variables dont on sait pertinemment qu'elles
influent sur la série à prévoir.
2. L'approche exogène
La recherche d'une explication des fluctuations d'une chronique à l'aide d'autres séries sert de
cadre général aux méthodes exogènes. Dans cette partie, sont décrits les aspects méthodologiques
fondamentaux22 ; la deuxième partie (approche sectorielle) de cet ouvrage indique les utilisations
possibles de ces techniques, à partir d'exemples pratiques.
Nombre de variables économiques sont liées entre elles. L'exemple le plus classique est celui de
la relation existant entre consommation et revenu. Nous ne retiendrons pas d'exemples de liaison
macro-économique : ce n'est pas l'objet de cet ouvrage. Mais, à l'intérieur d'un secteur d'activité,
d'un marché ou d'une firme, des relations peuvent également être mises en évidence. Les exemples
ne manquent pas, comme nous le verrons dans les chapitres consacrés aux applications
sectorielles : ventes expliquées par des logements demandés, des taux d’intérêt, des dépenses
publicitaires, des variables climatiques, des promotions … Il s’agit de l’ensemble des données
suivies par les économistes d'entreprise, les prévisionnistes et les chefs de produit.
Le but de ce qui suit est de présenter les méthodes de régression simple et multiple qui
permettent :
– d’obtenir la quantification, aussi précise que possible, de la liaison entre la série que l'on
cherche à prévoir et la série ou les séries explicatives,
– de déterminer la précision de cette quantification afin de savoir quelle confiance accorder aux
facteurs explicatifs.
22
Le lecteur intéressé par les développements de l’économétrie peut se référer à Bourbonnais (2000).
Régis Bourbonnais - Prévision des ventes
2.1. La notion d'ajustement et le modèle de régression simple
Nous avons vu que le coefficient de corrélation donne le degré de liaison entre deux chroniques.
Une fois ce lien mis en évidence, nous pouvons quantifier la relation entre les deux variables
économiques (les ventes et le facteur explicatif des ventes).
La formulation d'un modèle simple est alors possible sous la forme : Vt = a1 x t + a0 + εt
a1 et a0 sont les coefficients inconnus,
Vt est la série des ventes ou variable à expliquer,
x t est la variable explicative ou variable exogène,
εt est un terme aléatoire qui représente tout ce qui n’est pas expliqué par le modèle (la variable
explicative). εt est gaussien c'est-à-dire que les hypothèses habituelles sont respectées : espérance
mathématique de l'erreur nulle (E(εt) = 0), variance de l'erreur constante (V(εt) = σε2 ) et
indépendance des erreurs (E(εt, εt') = 0, pour t ≠ t').
Nous disposons de n observations.
Le principe de l'ajustement par les moindres carrés (méthode de régression) consiste à choisir
comme estimateur pour a0 et a1 celui qui minimise la somme des carrés des écarts entre les valeurs
ajustées ( ŷt ) à l'aide de la variable explicative x t, et les observations réelles yt :
 n

 n

Min ∑ ε 2  = Min ∑ ( yt − yˆ t ) 2 
 t =1 
 t =1

Le minimum est donné par :
t =n
aˆ1 =
∑(y
t =1
t
− y )( xt − x )
t= n
∑ (x
t =1
t
− x )2
aˆ 0 = y − aˆ 1 x
Le Graphique 20 illustre la notion d'ajustement à partir des données du Tableau 15.
Régis Bourbonnais - Prévision des ventes
Graphique 20 – La notion d'ajustement
45
40
Y
35
30
25
20
15
15
17
19
21
23
25
27
29
31
33
35
X
L'estimation de a1 et a0 est entachée d'une erreur (mesurée par un écart-type). Il faut déterminer
si cette erreur d'estimation n'est pas trop importante et ne remet pas en cause le bien-fondé de la
relation. Un test, dont le fonctionnement sera détaillé à la partie 2.3, permet de connaître la
significativité d'un coefficient par rapport à zéro (un coefficient nul implique l'absence d'influence
d'une variable explicative).
Ce modèle à une seule variable explicative se révèle le plus souvent trop simpliste pour rendre
compte d'une réalité complexe. Il est alors souhaitable d'intégrer à ce modèle d'autres variables
explicatives.
2.2. La modélisation à plusieurs variables : l'économétrie
La science économique fait souvent appel à des modèles contenant plusieurs variables exogènes.
Les méthodes économétriques servent alors à estimer l'ensemble des paramètres liant la variable à
expliquer aux variables explicatives. Par exemple :
yt = a1 x 1t + a2 x 2t + a3 x3t + a0 + εt
est un modèle à trois variables explicatives x 1t, x2t, x 3t et quatre coefficients : a1 , a2 , a3 , a0 .
L'erreur εt représente l'écart entre le modèle théorique représentatif du phénomène et les valeurs
observées, sur l'ensemble de la population ; εt est donc inconnue. L'estimation de l'erreur εt (et) est
appelée le résidu (différence entre les valeurs des ventes estimées ( ŷt ) à l'aide des variables
explicatives et les observations yt).
Le modèle estimé s'écrit de la manière suivante :
yt = â1 x 1t + â2 x 2t + â3 x 3t + â0 + et
les valeurs estimées sont donc â1 , â2 , â3 , â0 , avec et = résidu, c'est-à-dire la différence entre la
valeur observée et la valeur ajustée : et = yt – ŷt .
avec ŷt = â1 x 1t + â2 x 2t + â3 x3t + â0
Régis Bourbonnais - Prévision des ventes
La méthodologie d'estimation des paramètres est identique à celle d'une régression à une seule
variable exogène (minimisation de la somme des carrés des écarts) ; mais la formulation devient
plus complexe : nous ne pouvons plus nous situer dans un espace à deux dimensions, mais à k + 1
dimensions (k = nombres de variables explicatives). Les tableurs permettent à l’aide de fonctions de
calculer ces statistiques. Nous en verrons l’usage en 2.4.
Les modèles peuvent être synchrones : les variables sont toutes liées à la même période.
Cependant, dans la pratique, lorsque nous raisonnons à partir de données à périodicité mensuelle
voire hebdomadaire, l’influence des variables peut être décalée dans le temps. L’influence de la
publicité ou d’une promotion peut s’exercer à 2 ou 3 mois selon le délai de réaction. Afin d’affiner
les relations entre les variables, l'analyse des décalages temporels permet de se rapprocher de la
réalité. Nous spécifions un modèle du type :
yt = a1 x 1;t- θ1 + a2 x2;t-θ2 + a3 x3;t-θ3 + a0
où les θi représentent les décalages temporels entre chacune des variables x i,t et la série yt.
L'utilisation de modèles à décalage permet, d'une part, une description beaucoup plus fine des
mécanismes de causalité en quantifiant – précisément et de manière impartiale – les effets des
facteurs explicatifs et, d'autre part, l'anticipation du retournement de conjoncture grâce à l'emploi
d'indicateurs en avance. Pour le prévisionniste, ceci est d'un intérêt remarquable.
2.3. Interprétation statistique d'un modèle
Lorsque le prévisionniste a estimé un modèle économétrique après l'avoir formulé, il est
important qu'il puisse juger de sa validité statistique. Pour cela, il dispose de différents tests,
représentés par des statistiques calculées lors de l'estimation du modèle.
Dans un but didactique, nous partons de la présentation standard d'une équation de régression en
indiquant pour chaque paramètre la manière d'interpréter sa valeur.
Soit l'équation de régression :
yt = â1 x 1t + â2 x 2t + â3 x 3t + â0 + et
( t â )
( t â ) ( t â ) ( t â )
1
2
3
0
DW
R²
n
Ce modèle est limité à trois variables exogènes ; le développement ci-dessous reste identique
dans le cas d'un nombre différent.
â1 , â2 , â3 , â0 , valeurs estimées des coefficients du modèle,
t â1 , t â2 , t â3 , t â0 ratios de Student,
DW statistique de Durbin et Watson,
R² coefficient de détermination (R = coefficient de corrélation multiple),
n nombre d'observations.
– Les coefficients du modèle (â1 , â2, â3 , â0 )
Il s’agit des poids relatifs accordés à chacun des facteurs explicatifs. Ce sont des estimations des
coefficients réels et inconnus puisque nous ne disposons que d'un échantillon de chaque chronique
et non de la population dans son ensemble. Ces coefficients sont donc des variables aléatoires
Régis Bourbonnais - Prévision des ventes
assorties d'un écart-type. Ils représentent l’impact des variables explicatives sur le phénomène que
l'on cherche à expliquer (les ventes).
Dans le cas d'un modèle spécifié de façon légèrement différente (introduction d'une variable
explicative supplémentaire, ou remplacement d'une variable par une autre), la nouvelle estimation
des coefficients de régression (â1 , â2 , â3, â0 ) est différente de la précédente, y compris pour les
variables explicatives qui ont été conservées. En effet, le calcul des coefficients de régression tient
compte des intercorrélations entre les variables explicatives ; ceci introduit donc des variations dans
l'estimation de ces valeurs.
– Les ratios de Student ( t â , t â , t â , t â )
Le coefficient de chaque variable explicative (nous verrons plus loin un exemple d’estimation)
est en fait une variable aléatoire et, à ce titre, entaché d’une certaine erreur lors de son estimation.
Cette erreur est mesurée par l’écart-type du coefficient. Plus l'estimation du coefficient est
dispersée (ce qui se traduit par une valeur élevée de l'écart-type par rapport à la valeur du
coefficient), plus l'influence de la variable explicative concernée sera douteuse. Le ratio de Student
est calculé en faisant le rapport d'un coefficient de régression (âi) et de son écart-type (σ̂â i ). Ce
ratio suit une loi de Student ; ceci va permettre de tester si le coefficient de régression est
significativement différent de zéro (c’est-à-dire si la variable est bien explicative des ventes) ou s'il
doit être considéré comme nul. Dans ce dernier cas, la variable explicative correspondante devra
être éliminée de l'équation de régression car son influence sera considérée comme nulle.
Le test est mené de la manière suivante :
Si taˆ > t αlu / 2 lu dans une table de Student à n – k – 1 degrés de liberté (si le nombre
d’observations est supérieur à 30, on peut prendre par approximation t lu =2) et pour un seuil de
confiance α, le plus souvent égal à 5 % (si α = 0,05 on accepte de se tromper dans 5 % des cas) le
coefficient ai de la variable x i est significativement différent de zéro ; la variable x i est bien
explicative des ventes.
Dans le cas contraire, l'hypothèse d'un coefficient nul est acceptée, la variable x i n’est pas
explicative des ventes.
Cas particulier : en ce qui concerne le terme constant a0 , le fait qu’il ne soit pas
significativement différent de 0 n’a aucune importance. Dans la pratique, nous ne testerons donc
pas sa significativité par rapport à 0.
1
2
3
0
i
– Test de Durbin et Watson (DW)
L'expérience montre que les modèles de régression ajustés à des séries chronologiques
économiques manifestent parfois un certain degré de dépendance stochastique entre les valeurs
successives du terme représentant les erreurs. En termes probabilistes, cela signifie que les erreurs
sont autocorrélées, ou encore qu’une erreur commise en t a une influence sur l’erreur en t + 1.
Durbin et Watson, en 1951, ont construit un test dont la fonction discriminante est la statistique
DW.
n
DW =
∑ (e
t =2
t
− et −1 )
2
n
∑e
t =1
2
t
La table de Durbin et Watson23, à laquelle il faut se référer pour effectuer le test, nous indique la
valeur des deux bornes d'un intervalle d1, d2 .
23
Les tables statistiques sont en fin d’ouvrage.
Régis Bourbonnais - Prévision des ventes
Soit DW la valeur calculée de la statistique de Durbin et Watson , la règle de décision est :
– si DW < d1, on rejette l'hypothèse d'indépendance et on admet une autocorrélation des erreurs,
– si d1 < DW < d2, on est dans la zone d'indétermination des tables : il y a doute,
– si d2 < DW < 4 – d2, on accepte l'hypothèse de l'indépendance des erreurs,
– si 4 – d2 < DW < 4 – d1, on est dans la zone d'indétermination des tables : il y a doute,
– si 4 – d1 < DW, on rejette l'hypothèse d'indépendance et on admet une corrélation négative des
erreurs.
Dans la pratique le doute est interprété comme présomption favorable d'absence
d'autocorrélation.
Le Schéma 3 résume ces règles de décision.
Schéma 3 – Interprétation de la statistique DW
0
d1
Autocorrélation
positive
d2
Doute
2
Absence
d’autocorrélation
4 – d2
4 – d2
Doute
4
Autocorrélation
négative
Plusieurs causes peuvent entraîner cette autocorrélation :
– une mauvaise spécification du modèle, la relation au lieu d'être linéaire peut, par exemple,
correspondre à un schéma logarithmique, ou en différences premières,
– l'absence d'une variable explicative importante,
– le lissage des données. C'est un phénomène apparenté à l'effet Slutzky24 (création d’un cycle
artificiel dans les séries). L'application du filtre moyenne mobile a pour conséquence automatique
de dégrader la statistique de Durbin-Watson sans pour cela entraîner une remise en cause du
modèle.
Dans la majorité des cas, le test de Durbin et Watson ne donne qu'une présomption
d'autocorrélation des résidus pour un ordre un (corrélation entre εt et εt-1 ) sans rechercher des
liaisons à des ordres supérieurs (2, 3 ou 4). L'usage de ce test reste donc d'un intérêt limité.
L'examen visuel du graphique de la série des résidus ou le calcul de son corrélogramme sont
souvent plus révélateurs.
– Coefficient de détermination (R²)
Le coefficient de détermination mesure la qualité de l'ajustement du modèle, il est égal au
rapport de la variance expliquée par les séries explicatives sur la variance totale. Le R² ne préjuge
pas de la qualité réelle du modèle donc de la prévision qui en découle ; en effet, il est lié au nombre
de facteurs explicatifs du modèle. A titre d'exemple caricatural, un modèle estimé à partir de 5
observations et 5 facteurs explicatifs a un R² égal à 1 (5 équations à 5 inconnues), or ce modèle n'a
aucune validité statistique et fournirait des prévisions erronées. Ainsi, il est très possible d'aboutir à
un modèle excellent avec un R² de l'ordre de 0,5. Le coefficient de détermination ne représente que
la qualité de l'ajustement par rapport à la dispersion du nuage de points.
– Exemple d'interprétation d'une régression
24
Slutzky (1937).
Régis Bourbonnais - Prévision des ventes
Soit le modèle estimé suivant :
yt = 3,4 x 1,t + 5,8 x 2,t + 7,4 x 3,t + 3 + et
(2,1)
(0,8)
(4,4) (7,1)
n = 54
R² = 0,84
DW = 1,79
(.) = ratio de Student
La variable explicative x 2 ,t n'est pas significative, son ratio de Student (0,8) étant très inférieur à
2, en revanche, les variables x1 ,t et x 3 ,t sont significatives. La variable x 2,t doit donc être éliminée de
l'équation de régression, puis le modèle réestimé.
La nouvelle estimation de ce modèle après avoir retiré la variable x 2 ,t est la suivante :
yt = 2,6 x 1,t + 6,5 x 3,t + 4,12 + et
(2,8)
(7,5)
(1,4)
n = 54
R² = 0,81
DW = 1,88
(.) = ratio de Student
A la lecture des résultats, nous observons que :
– le R² a légèrement diminué puisqu’un facteur explicatif a été retiré ;
– les valeurs des coefficients sont modifiées par rapport à la première estimation ;
– les ratios de Student des variables explicatives ont tous augmenté en particulier pour x 3 ,t, ce
qui signifie que la corrélation entre x2 ,t et x 3 ,t est importante (elles expliquent le même phénomène,
c'est l'effet de masque). Le fait d'avoir retiré la variable x2 ,t améliore considérablement l'estimation
du coefficient de x 3,t ;
– le ratio de Student du terme constant est inférieur à 2, le coefficient a0 n’est donc pas
significativement différent de 0, cela n’a pas d’importance ;
– le DW de Durbin et Watson ne laisse pas présager d'une autocorrélation des résidus (k = 2, la
lecture de la table de Durbin et Watson indique : d1= 1,49 ; d2 = 1,64), ce qui est favorable quant à
la spécification du modèle ;
– le coefficient de détermination R² traduit un ajustement correct en regard du nombre
d'observations.
En conclusion, ce modèle s'avère maintenant satisfaisant.
2.4. Exemples d’estimation économétrique à l’aide des outils sur tableur Excel
Soit un modèle économétrique composé d’une variable à expliquer (les ventes) et de trois
variables explicatives (cf. Tableau 20) connues sur trois ans :
– VENTES = ventes CVS de l’entreprise en volume,
– PROMO = les dépenses en promotion en KF,
– PUB = les dépenses publicitaires en KF,
– TREND = l'évolution « naturelle25 » des ventes représentée par une tendance linéaire.
25
La croissance de la demande primaire.
Régis Bourbonnais - Prévision des ventes
Tableau 20 – Ventes, promotion, publicité
DATES
Année 1-J
F
M
A
M
J
J
A
S
O
N
D
Année 2-J
F
M
A
M
J
J
A
S
O
N
D
Année 3-J
F
M
A
M
J
J
A
S
O
N
D
Année 4-J
F
M
A
M
J
J
A
S
O
N
D
VENTES
7281
9163
7769
8485
7606
7364
6711
3407
4862
11464
10291
9789
8082
8663
7720
7859
6936
6292
7572
3588
7152
10672
8522
8688
5772
7682
8814
10864
5461
13109
16649
12467
18277
20836
18253
17483
PROMO
597
2139
859
717
2033
1863
1393
603
1702
3891
3968
2867
250
342
823
584
813
0
0
1077
874
2978
1066
30
803
1984
1044
3123
572
4483
5328
3890
6348
7210
3790
3678
597
2139
859
717
2033
1863
1393
603
1702
3891
3968
2867
PUB.
3109
267
3549
5083
4051
826
4590
117
3388
2668
2615
1130
5948
1715
366
6005
115
0
2336
0
674
5
7338
4036
5281
1887
115
0
4348
69
5012
71
2128
3879
3782
6152
3109
267
3549
5083
4051
826
4590
117
3388
2668
2615
1130
TREND
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
– Utilisation de la fonction « DROITREG »26
26
Cf. Fichier Web pour utilisation de cette fonction.
Régis Bourbonnais - Prévision des ventes
PREVISION
5571,27
7315,90
6350,85
6721,90
8694,64
7413,00
7981,23
5229,43
8286,45
11841,74
12048,06
9777,90
7068,48
5890,18
6342,99
7934,60
6429,19
5108,52
5990,40
7118,83
7096,56
10525,21
9857,17
7084,09
8906,04
9853,57
7759,05
11332,27
8576,00
13844,76
17035,95
13029,74
17976,97
20120,21
14394,00
15097,82
8951,53
10696,16
9731,11
10102,16
12074,90
10793,25
11361,49
8609,69
11666,71
15222,00
15428,32
13158,16
Tableau 21 – Résultat de la fonction
93,8960
34,5297
0,8181
47,9904
503546068,6
0,3373
0,14276
1870,1717
32
111921350,4
Ratio de Student : 2,72 = 93,89/34,53
1,6922
0,1960
#N/A
#N/A
#N/A
2,36
3418
731,4
#N/A
#N/A
#N/A
8,63
4,67
Tableau 22 – Tableau d’équivalence
â3
â2
â1
â0
σ$ a$
σ$ a$
σ$ ε
σ$ a$
σ$ a$
#N/A
#N/A
#N/A
#N/A
#N/A
#N/A
3
2
R²
F*
SCT
ddl
SCR
1
0
Sur la première ligne des Tableau 21 et Tableau 22, les valeurs des coefficients sont estimées
(attention ! les coefficients apparaissent dans l’ordre inverse de la sélection) ; sous chaque
coefficient figure son écart-type. Le coefficient de détermination R² = 0,81 est donné à
l’intersection de la première colonne et de la troisième ligne. Le nombre de degrés de liberté (ddl =
nombre d’observations – nombre de paramètres estimés, 36 – 4 = 32) figure à l’intersection de la
colonne 2 et de la ligne 4.
Les t de Student ne sont pas fournis par la fonction mais sont calculés (rapport du coefficient sur
son écart-type) sur la dernière ligne.
(Les signes #N/A signifient que le tableur Excel n’a aucune valeur à indiquer à cet endroit).
Signification de quelques statistiques supplémentaires pour les initiés :
n
Ecart-type résiduel :σˆ ε =
et2
∑
t =1
= 1870,17
n − k −1
R2 / k
Fisher empirique : F * =
(1 − R 2 ) /( n − k − 1)
n
Somme des carrés totaux : SCT = ∑ ( yt − y) 2
t =1
n
Somme des carrés des résidus : SCR = ∑ et2
t =1
– Utilisation de l’utilitaire d’analyse
L’utilitaire d’analyse s’obtient à partir du menu « outil » après avoir été préalablement chargé à
l’aide des macros complémentaires.
Régis Bourbonnais - Prévision des ventes
Tableau 23 – Résultat de la fonction
RAPPORT DÉTAILLÉ
Statistiques de la régression
Coefficient de détermination multiple
Coefficient de détermination R^2
Coefficient de détermination R^2
Erreur-type
Observations
Constante
PROMO
PUB.
TREND
Coefficients
3418,39
1,69
0,34
93,90
0,90
0,82
0,80
1870,17
36,00
Erreur-type
731,39
0,20
0,14
34,53
Statistique t
4,67
8,63
2,36
2,72
Nous retrouvons les mêmes résultats sous une forme différente.
N. B. : En cas de modifications de données sur le tableau initial, l’utilisation de la fonction
« DROITEREG » met à jour les résultats de calcul ; en revanche, ce n’est pas le cas par l’utilisation
de l’utilitaire d’analyse.
– Interprétations statistique et économique, puis prévision
Les ratios de Student sont tous supérieurs à 2, les coefficients des variables explicatives sont
significativement différents de 0. Les trois facteurs explicatifs contribuent bien à l’explication des
ventes. Ce modèle est donc valide sur le plan statistique.
Le modèle est une combinaison des trois variables : PROMO, PUB et TREND. La plus
contributive à l’explication des ventes est la Promotion (t de Student = 8,63 le plus élevé), il s’agit
aussi de la plus rentable, chaque KF investi en Promotion rapporte 1,69 unité de ventes, alors que
chaque KF investi en Publicité rapporte 0,34 unité de ventes.
Connaissant les dépenses promotionnelles et publicitaires, la prévision est calculée par
application du modèle :
VENTE = 3418,39 +1,69 PROMO + 0,34 PUB + 93,90 TREND
Soit pour janvier de l’année 4 :
PREVISION4-J = 3418,39 +1,69 PROMO 4-J + 0,34 PUB4-J + 93,90 TREND4-J
PREVISION4-J = 3418,39 +1,69 × 597 + 0,34 × 3109 + 93,90 × 37 = 8951,53
Etc.
2.5. La sélection de variables explicatives
Dans la pratique, le prévisionniste d’entreprise est souvent confronté au choix de plusieurs
variables explicatives candidates pour expliquer les ventes. Or, le plus souvent ces variables
apportent la même information et ne peuvent donc pas figurer dans un même modèle. Nous allons
examiner quatre méthodes qui vont nous permettre de retenir les variables suivantes :
– les plus corrélées avec la variable à expliquer,
– les moins corrélées entre elles.
Nous allons illustrer chacune des méthodes à partir des données du Tableau 24.
Régis Bourbonnais - Prévision des ventes
Tableau 24 – Quelles variables retenir ?
yt
x1,t
x 2,t
x 3,t
12
14
10
16
14
19
21
19
21
16
19
21
25
21
2
1
3
6
7
8
8
5
5
8
4
9
12
7
45
43
43
47
42
41
32
33
41
38
32
31
35
29
121
132
154
145
129
156
132
147
128
163
161
172
174
180
– Toutes les régressions possibles.
La méthode la plus sûre est sans aucun doute de tester toutes les équations de régression
possibles et de choisir la meilleure, mais cela est pratiquement impossible au regard de l'ampleur
des calculs.
En effet lorsque k variables explicatives sont prises en considération, le nombre total d'équations
k
de régression différentes est égal à 2 – 1, soit par exemple, 1 023 équations pour dix variables
explicatives et 1 048 575 équations pour vingt variables explicatives.
Dans notre exemple cela engendre 23 – 1 = 7 modèles différents. Pour ne pas alourdir la
présentation de ce chapitre, nous ne présentons pas tous les résultats. Le choix du meilleur modèle
s’effectue de la manière suivante :
– par élimination des modèles dans lesquels au moins une variable explicative n’est pas
significative (hormis le terme constant),
– en retenant parmi les modèles restants, celui dont le coefficient de détermination R² est le plus
élevé.
Dans notre exemple, le lecteur pourra vérifier que c’est le modèle contenant les variables x1,t et
x 2,t qui est sélectionné.
– L'élimination progressive (« Backward Elimination »)
Cette procédure consiste, sur le modèle complet à k variables explicatives, à éliminer de proche
en proche (c'est-à-dire en réestimant l'équation après chaque élimination) les variables explicatives
dont les t de Student sont en dessous du seuil critique. Cette procédure n'est utilisable que si la
première équation peut être effectivement estimée, ce qui n'est pas toujours le cas. En effet, lorsque
le modèle comporte un nombre trop important de variables explicatives, le risque de colinéarité
entre ces variables est élevé.
Première régression :
Coefficient
Ecart-type
â3
-0,0371
0,05
â2
-0,3814
0,16
â1
0,8019
0,30
â0
32,8913
11,66
t de Student
0,71
2,44
2,69
2,82
Régis Bourbonnais - Prévision des ventes
La variable x 3,t n’est pas significative (t cal = 0,71 < 2), elle est donc retirée du modèle :
Coefficient
Ecart-type
â2
-0,3281
0,13
â1
0,7149
0,27
â0
25,8421
6,06
t de Student
2,44
2,68
4,26
Toutes les variables sont maintenant significatives (t cal > 2), le modèle est validé (les variables
x 1,t et x 2,t sont sélectionnées).
– Le processus d'introduction progressive (« Stepwise Regression »)
Cette technique utilise une démarche inverse ; les variables explicatives sont sélectionnées
une par une jusqu'à ce que l'équation de régression se dégrade. Dans un premier passage, la variable
la plus fortement corrélée avec la série à expliquer est choisie. Puis au deuxième stade, la variable
qui explique le plus la variance de la série à expliquer (selon le critère du t de Student) est
introduite. Le processus d'introduction s'arrête lorsque plus aucune variable complémentaire ne
contribue à l'explication de la variance de la série à expliquer.
• Etape 1 : Sélection de la variable explicative la plus corrélée avec la variable à prévoir yt.
Nous calculons les trois coefficients de corrélation entre yt et chacune des trois variables
ainsi que son t de Student associé (cf. 1.1.1) :
x1,t
x2,t
x 3,t
Corrélation
0,72
-0,69
0,48
t de Student
3,88
3,61
2,05
La variable explicative x 1,t est donc retenue (coefficient de corrélation le plus élevé).
• Etape 2 : Estimation des deux modèles avec comme première variable explicative x 1,t puis
alternativement x 2,t et x 3,t.
yt =a1 x1 ,t + a2 x 2 ,t + a0 + εt
t de Student=
â2
-0,3281
0,13
â1
0,7149
0,27
â0
25,8421
6,06
2,44
2,68
4,26
yt =a1 x1 ,t + a3 x 3 ,t + a0 + εt
t de Student=
â3
0,0232
0,06
â1
0,9272
0,35
â0
8,6092
7,28
0,42
2,62
1,18
La deuxième variable sélectionnée (ici x 2,t) est celle dont le t de Student est le plus élevé en
valeur absolue.
• Etape 3 : Estimation d’un modèle avec comme variables x1,t et x 2,t (les deux premières
sélectionnées) et x 3,t (la seule qui reste).
yt = a1 x 1t + a2 x 2t + a3 x 3t + a0 + εt
Régis Bourbonnais - Prévision des ventes
Nous connaissons le résultat, car il s’agit de la première estimation de la procédure de
l’élimination progressive. La procédure est donc arrêtée car la variable x3t n’est pas significative de
par l’interprétation du t de Student.
Le modèle final est donc le même que dans les procédures précédentes.
– La régression à étages (« Stagewise Regression ») (cf. fichier Web).
C'est un processus de sélection de variables explicatives permettant de rechercher les
contributions marginales, mais significatives, de chacune des variables explicatives candidates.
Comme pour la méthode précédente, la variable ayant le coefficient de corrélation le plus
élevé avec la série à prévoir est retenue.
Nous procédons alors à une première régression, qui dégage un résidu. Ce résidu est
considéré à son tour comme une nouvelle variable à expliquer. Dans un deuxième temps, la série
explicative la mieux corrélée avec ce premier résidu est sélectionnée, une nouvelle régression à
deux variables dégagera un nouveau résidu que l'on cherchera aussi à expliquer, etc.
• Etape 1 : Sélection de la variable explicative la plus corrélée avec la variable à prévoir yt.
Nous calculons les trois coefficients de corrélation entre yt et chacune des trois variables
ainsi que son t de Student associé. La variable explicative x 1,t est donc retenue (coefficient de
corrélation le plus élevé).
• Etape 2 : Estimation d’un modèle avec une variable explicative x 1,t et calcul du résidu.
yt = â1 x 1,t + â0 + e1,t
e1,t = yt – (â1 x 1,t + â0 )
yt = 1,0118 × x1,t + 11,57 + e1,t
Les coefficients estimés nous permettent de calculer le résidu e1,t :
e1,t = yt – (1,0118 × x 1,t + 11,57)
Par exemple :
e1,1 = 12 – (1,0118 × 2 + 11,57) = -1,59
e1,2 = 14 – (1,0118 × 1 + 11,57) = 1,42
…
e1,14 = 21 – (1,0118 × 7 + 11,57) = 2,35
• Etape 3 : calcul des coefficients de corrélation simple entre e1,t et les différents x i,t.
Corrélation
t de Student
x1,t
0,00
0,00
x2,t
-0,53
2,32
x3,t
0,10
0,39
La deuxième variable sélectionnée (ici x 2,t) est celle dont le coefficient de corrélation est le
plus élevé en valeur absolue.
On remarque que le coefficient de corrélation entre e1,t et x1,t est nul car la variable e1,t
représente la série des ventes de laquelle nous avons retiré l'influence de x 1,t.
• Etape 4 : Estimation d’un modèle avec deux variables explicatives x1,t et x2,t puis calcul du
résidu.
e2,t = yt – (â1 x1,t + â2 x 2,t + â0)
Les coefficients estimés nous permettent de calculer le résidu e2,t :
e2,t = yt – (0,71 × x 1,t + 0,33 × x 2,t + 25,84)
Régis Bourbonnais - Prévision des ventes
Par exemple :
e2,1 = 12 – (0,71 × 2 + 0,33 × 45 + 25,84) = -0,51
e2,2 = 14 – (0,71 × 1 + 0,33 × 43 + 25,84) = 1,55
…
e2,14 = 21 – (0,71 × 7 + 0,33 × 29 + 25,84)
• Etape 5 : calcul des coefficients de corrélation simple entre e2,t et les différents x i,t.
Corrélation
t de Student
x1,t
0,00
0,00
x2,t
0,00
0,00
x3,t
-0,16
0,60
La procédure de sélection s'arrête car plus aucun coefficient de corrélation entre le résidu et
les variables explicatives n'est significativement différent de 0.
L'analyse des résidus à chaque étape permet de tirer le maximum d'informations des
variables explicatives en minimisant les inter-corrélations. Economiquement, cela se justifie
pleinement : une industrie peut dépendre à 60 % d'un premier secteur, de 30 % d'un autre et de 10
% d'un dernier. Ainsi l'explication résiduelle du deuxième secteur est mise en lumière après
soustraction de l'explication par le premier secteur ; quant au troisième, il apparaît avec plus de
netteté sur le résidu des 90 % déjà expliqués. Ainsi, nous pouvons mettre en évidence les
explications marginales mais contributives de chacune des variables.
L'approche économétrique est très riche car elle recherche une explication non pas dans les
variations de la chronique elle-même (comme les méthodes endogènes) mais au travers des
fluctuations d'autres chroniques dont on a l'habitude d'évaluer intuitivement l'influence. Elle permet
de tester explicitement des relations établies de façon implicite.
L'inconvénient de ce type de méthode réside dans une mise en œuvre un peu plus lourde.
Cependant les tableurs permettent une grande facilité de calcul (comme nous l’avons vu dans ce
chapitre). L'utilisateur ne doit intervenir que dans la spécification du modèle, l'évaluation de sa
validité statistique, le suivi du modèle et des indicateurs ainsi que la recherche et la constitution des
historiques de séries explicatives.
Régis Bourbonnais - Prévision des ventes
Chapitre 5
EVALUATION DES METHODES DE PREVISION
Ce dernier chapitre traite, dans une première partie, de l’évaluation de la qualité de la prévision.
Cette question paraît a priori triviale. Elle ne l'est en fait pas du tout. Les entreprises éprouvent
souvent de grandes difficultés à mesurer « objectivement » la qualité d'une prévision. La première
étape de cette mesure consiste à fixer des critères qui permettent d'évaluer l'exactitude de la
prévision pour un article donné (section 1) puis, pour des entreprises gérant un grand nombre de
références, de proposer des méthodes d’évaluation synthétique de la qualité de la prévision (section
2). La section 3 présente des procédures d’évaluation de la qualité de la prévision.
Une préoccupation majeure avant de mettre en place un système est de choisir la « meilleure »
méthode. La sélection de celle-ci a fait l'objet de nombreuses tentatives de mesure, qui se situent
dans l'absolu, c'est-à-dire sans référence réelle au type de données, au secteur, et à l'horizon de
prévision. La section 4 de ce chapitre décrit les tentatives de comparaison entre méthodes et met en
valeur leur caractère discutable : si des éléments probants permettent de se déterminer en faveur de
l'une ou de l'autre des techniques, ce n'est pas dans ce type de recherche qu'on les trouvera.
La section 5 expose comparativement les avantages et les inconvénients des principales
techniques de prévision ; les jugements qui sont exposés sont de nature qualitative et ils sont
marqués par la prudence. En effet, les méthodes ne sont jamais entièrement comparables parce
qu'elles ne sont pas conçues rigoureusement pour des applications et des horizons semblables.
1. Mesure de la qualité d'une prévision
1.1. Les indicateurs de mesure
Il existe de très nombreux indicateurs27 permettant d’évaluer la qualité de la prévision, nous
présentons ici les plus importants.
– Erreur relative en pourcentage à la période t (ERt)
Il s'exprime comme :
ERt =
xt − xˆ t
xt
× 100
où :
x t est la réalisation à la période t,
x̂ t est la prévision à la période t.
Il s'agit d'une approche simple et classique, qui est renouvelée chaque fois que de nouvelles
réalisations connues permettent de calculer des écarts.
– Indicateur de la valeur absolue moyenne des écarts (Mean Absolute Deviation)
Si on veut avoir une vision synthétique qui opère sur un ensemble de T périodes de prévision, le
calcul de la valeur absolue moyenne des erreurs s'impose. Il est défini à l'instant t par :
27
Cf. Bourbonnais et Terraza, Chapitre 7, 1998.
Régis Bourbonnais - Prévision des ventes
t
MADt =
∑ EPS
i
i =t −T +1
T
avec : EPSi = xi − xˆi
– Indicateur de la variance de l’erreur de prévision (MSE, « Mean Squared Error »)
Afin de rendre compte des erreurs importantes, tout en ignorant, comme dans la formule
précédente, leur signe, l’indicateur utilisé communément est celui de la variance de l’erreur de
prévision. Il est défini à l'instant t par :
t
∑ EPS
2
i
MSEt = i =t −T +1
T
La racine carrée de cet indicateur M S E est similaire à l’écart-type de l’erreur de prévision non
centrée sur sa moyenne. Sa valeur dimensionne donc le stock de sécurité28 pour l’article considéré.
– Indicateur de comparaison des performances de deux prévisions, statistique dite « U » de
Theil29 .
Cet indicateur compare la prévision de l’entreprise avec une méthode de prévision « naïve »
consistant à prendre comme nouvelle prévision la dernière réalisation. Il est défini à l'instant t par :
i =T −1
∑ (C R P
i +1
U =
i =1
− C R Ri + 1 )
2
i =T −1
∑ (C R R )
i+1
2
i =1
Avec :
T = nombre de périodes de prévision (exemple = 12)
CRP = Changement Relatif Prévu (exemple = + 5,2 %)
CRR = Changement Relatif Réel (exemple = + 3,2 %)
L'interprétation des valeurs de la statistique U peut se résumer de la façon suivante :
U = 1 ⇒ la technique de prévision est équivalente à une méthode naïve qui consiste à prendre
comme prévision la dernière réalisation.
U < 1 ⇒ la technique de prévision est meilleure que cette méthode et d’autant meilleure que U
est proche de 0.
U > 1 ⇒ la technique de prévision est très médiocre, car elle est pire que cette méthode.
1.2. La prévision est-elle biaisée ?
Une autre approche de la mesure de la qualité de la prévision consiste à détecter l'existence d'un
biais. Le biais de prévision doit être détecté rapidement car il est générateur, à terme, soit d’un
surstock soit d’une rupture. Hormis l’indicateur AWS, présenté au chapitre 3, qui permet de détecter
des ruptures de tendance et donc des biais, nous présentons deux tests statistiques supplémentaires.
La première procédure consiste à spécifier, puis à estimer le modèle de régression suivant :
x t = a0 + a1 x̂t
où :
28
29
Cf. Bourbonnais et Vallin, 1995.
Theil, 1966.
Régis Bourbonnais - Prévision des ventes
x t est la valeur observée en t,
x̂ t est la valeur prévue en t.
Si le coefficient a0 est significativement différent de 0, cela révèle l'existence d'un biais. Le
coefficient a0 devrait en effet être nul (non significativement différent de 0) si en moyenne les
prévisions sont égales aux réalisations.
L'exemple suivant illustre cette méthode. Soit le modèle estimé :
x t = 3,32 + 0,931 x̂t
(0,42) (9,52)
R² = 0,91
T = 18 (nombre de périodes de prévision)
(.) = t de Student
Le coefficient a0 n'est pas significativement différent de 0 puisque t* = 0,42 < t160 , 05 = 2,13 , les
prévisions ne sont donc pas biaisées.
Le deuxième test consiste à calculer le rapport de la racine de l’indicateur MSE à la moyenne
arithmétique des erreurs de prévision sur T périodes :
MSEt
EPS
t
Avec : EPS =
∑ EPS
i =t −T +1
T
Puis à comparer cet indicateur à la racine carrée de T divisée par 2, soit le test suivant :
MSEt
T
Si
≥
, alors il n’y a pas de présomption de biais.
2
EPS
1.3. Convergence de la prévision
La question peut se poser de l’amélioration de la qualité de la prévision lorsque l’on se
rapproche de la date de réalisation de la vente. En théorie, il semble plus facile d’élaborer une
prévision pour le mois prochain que pour dans 12 mois. Les prévisions glissantes font que, pour un
même mois de réalisation, des prévisions différentes s’accumulent : celle calculée il y a 12 mois,
puis celle calculée il y a 11 mois, etc., jusqu’à celle calculée le mois d’avant ; ainsi au bout de 12
mois, on dispose de 12 prévisions – émises successivement – différentes pour un même mois. Il
peut être intéressant d’analyser l’évolution de la prévision au fur et à mesure que l’on s’approche de
la réalisation. Une prévision très fluctuante d’une émission à l’autre est perturbante pour la
planification de la production, car elle oblige à des révisions importantes du programme de
fabrication (besoins humains et en matériel). De plus, nous pouvons nous interroger sur la
convergence de la prévision, c’est-à-dire sur son amélioration au fur et à mesure que l’échéance
approche.
Le Graphique 21 illustre cette convergence à partir d’un exemple réel issu d’un constructeur
automobile (prévision d’immatriculations d’un modèle automobile). L’interprétation est la
suivante : la droite représente la réalisation pour juillet de l'année A+1, (le nombre de modèles
réellement immatriculés est de 3680), la courbe représente les différentes prévisions calculées pour
le mois de juillet de l'année A+1, celle calculée au 1er juillet de l'année A+1 est de 3200, celle
calculée en juin de l'année A+1 est de 2600, etc., en remontant jusqu’en juillet de l'année A (la
prévision pour juillet de l'année A+1 est alors de 3070).
Régis Bourbonnais - Prévision des ventes
Graphique 21 – Evolution de la prévision glissante
3900
3700
3500
3300
3100
2900
PREVISION EN DEBUT DE MOIS
juillet A+1
juin A+1
mai A+1
avril A+1
mars A+1
février A+1
janvier A+1
décembre A
novembre A
octobre A
août A
juillet A
2500
septembre A
2700
REALISE POUR JUILLET DE A+1
Nous constatons que les différentes prévisions calculées depuis juillet de l'année A jusqu’en
avril de l'année A+1 se sont plutôt dégradées au cours du temps. Celle calculée en mai est très
proche de la réalisation, puis s’en éloigne fortement le mois suivant (juin) ; enfin, en début juillet,
la prévision retend vers la valeur finale. Nous pouvons remarquer :
– que la prévision de juillet de l'année A+1 n’est pas notablement de meilleure qualité que
celle de juillet de l'année A ;
– qu’après avoir été très proche de la réalisation, le prévisionniste a dégradé cette prévision ;
– qu’enfin l’amplitude des variations de la prévision sur les quatre derniers mois est très
forte.
Ce type de phénomène se produit assez souvent en entreprise où nous pouvons observer que
la proximité de la date de réalisation rend fébrile le prévisionniste qui, en perdant toute objectivité
d’une vision de moyen terme, dégrade la prévision initiale élaborée avec plus de recul.
1.4. Détection de la cause de l'erreur
Plusieurs auteurs (Theil, 1971 ; Jorgenson, 1970 ; Granger et Newbold, 1973) proposent une
mesure de l'importance relative de chaque source de l'erreur quadratique moyenne (biais,
amplitude, composante strictement aléatoire).
On pose : E = ( x − xˆ ) 2 + σx2ˆ + σ 2x − 2ρσxˆ σx
où :
x = moyenne des réalisations,
x̂ = moyenne des prévisions,
σx2 = variance des réalisations,
σ x̂2 = variance des prévisions,
ρ = coefficient de corrélation entre valeurs réalisées et prévues.
Les conditions pour que l'erreur quadratique de prévision soit minimum sont les suivantes :
Régis Bourbonnais - Prévision des ventes
x = x̂ (prévision sans biais) et ρσx = σˆx ,
si ρ = 1, l'écart-type des prévisions et l'écart-type des réalisations sont identiques.
Nous pouvons écrire cette même équation de la manière suivante :
E = ( x − xˆ ) 2 + (σxˆ − ρσx ) + (1 − ρ2 )σx2
E = EB + EA + ER
avec :
EB= ( x − xˆ ) 2 = composante associée au biais,
EA = (σ xˆ − ρσ x ) = composante associée à l'amplitude de l'erreur,
ER = (1 − ρ 2 )σ 2x = composante aléatoire.
L'objectif du suivi des écarts du système de prévision est alors d'éliminer EB (le biais), puis
ensuite de réduire EA (l'amplitude de l'erreur), en améliorant progressivement le modèle.
1.5. Quelle erreur de prévision est admissible ?
Les entreprises se posent cette question fréquemment, elles la formulent parfois autrement :
Une erreur de prévision de 15 % est-elle admissible ?
Comment déterminer un objectif de qualité de la prévision ?
Comment étalonner a priori les performances attendues ?
La qualité attendue de la prévision dépend étroitement du secteur d’activité et de la difficulté
intrinsèque (variance de la série historique) de prévoir l’article. Par exemple, pour un produit de
grande consommation, une erreur de prévision de 5% est considérée comme importante, alors que
dans le domaine industriel la même erreur de prévision est jugée tout à fait acceptable.
Nous présentons une technique fondée sur le coefficient de variation (cf. chapitre 2) permettant
de répondre à cette question.
Le Coefficient de Variation (CV) de la série brute rend compte de la difficulté prévisionnelle
d'un historique. Plus il est élevé, plus la variance de la série est importante rapportée à la moyenne.
Cependant, une saisonnalité marquée peut augmenter artificiellement le CV. C’est pourquoi, il
convient de raisonner sur la série CVS. La procédure est la suivante :
– estimation de la série CVS,
– calcul du coefficient de variation (CVCVS ) de la série CVS.
Si, par exemple, CVCVS = 0,12 la plage de variation intrinsèque de cet article est de ±12 %, nous
pouvons considérer que la valeur ajoutée du modèle de prévision et du prévisionniste permet de
diviser par 2 cette variation, l’objectif de performance pour cet article est donc de 6% d’erreur de
prévision.
Il s’agit d’un étalonnage très simple à mettre en œuvre et qui permet aux entreprises de se fixer a
priori un objectif de qualité de prévision.
1.6. La simulation
Une autre manière permettant d’évaluer la qualité attendue des prévisions consiste à opérer des
simulations des prévisions. Il convient d’être extrêmement prudent quant à leurs interprétations et
les conséquences que l’on peut en tirer. En effet, cela dépend du type de simulation effectuée.
– Les différents types de simulation
Différents types de simulation sont possibles (cf. Schéma 4).
Régis Bourbonnais - Prévision des ventes
Schéma 4 – Différents types de simulation
Simulation ex post
ou « simulation
historique »
« Backcasting »
T1
Période d’estimation
Prévision ex post ou
« simulation de
prévision »
T2
Prévision ex ante
T3
Temps
(aujourd’hui)
Dans le Schéma 4, T1 et T2 représentent les dates de début et de fin de la période sur laquelle est
estimé le modèle, T3 représente la date actuelle.
La première modalité de simulation est appelée simulation ex post ou simulation historique : elle
correspond aux modèles de simulation. La totalité de l'historique de T1 en T2 est utilisée en ce qui
concerne la série des ventes que l’on cherche à prévoir et éventuellement aussi les facteurs
explicatifs. Après l’estimation des paramètres du modèle, les prévisions sont simulées sur le même
historique. Ce type de simulation donne peu d’indications sur la qualité réelle attendue des
prévisions 30 . En effet, l’objectif statistique de l’estimation du modèle étant de minimiser la somme
des erreurs de prévision, cela permet de vérifier seulement que les algorithmes utilisés fonctionnent
convenablement.
Le deuxième type de simulation (prévision ex post ou simulation de prévision) implique une
simulation du modèle après la période d'estimation ; une partie de l’historique connue n’est pas
utilisée pour estimer les paramètres du modèle de prévision mais sert exclusivement à comparer les
prévisions issues de cette estimation et les réalisations. Cette procédure permet de qualifier les
résultats attendus en terme de qualité et constitue un test réellement interprétable.
Quant au « backcasting », il s'agit d'un type de simulation où l'on prévoit « à reculons » dans le
passé : à partir d'un modèle estimé sur la période T1 à T2, on prévoit les années antérieures.
L'intérêt de cette procédure, relativement peu fréquente en pratique, n'est pourtant pas mince : elle
permet de tester la stabilité dynamique du modèle comme s'il évoluait vers le passé, au lieu d'aller
en avant dans le temps.
Enfin, la prévision ex ante consiste à effectuer une prévision pour une période non connue.
2. Evaluation synthétique de la qualité de la prévision
Les formules développées aux parties précédentes s'appliquent pour un article donné. Or, pour
des entreprises qui gèrent un grand nombre de références, il devient très difficile d'appréhender
dans sa globalité la qualité des prévisions.
De plus, l'évaluation de l'erreur en terme de pourcentage n'a pas toujours beaucoup de sens ; en
effet, il est plus grave de se tromper de 5% pour un article dont les quantités vendues sont en
moyenne de 100 000 unités par an que de faire une erreur de prévision de 50% pour un article
vendu à 50 unités par an (pour des valeurs unitaires comparables).
2.1. Calcul d’un indice pondéré
Pour pallier ces inconvénients, nous proposons une première technique qui permet, à la lecture
d'un simple chiffre, d'avoir une vision synthétique de la qualité de la prévision.
30
Pourtant c’est une pratique courante et trompeuse …
Régis Bourbonnais - Prévision des ventes
Le principe consiste à calculer la somme des produits des erreurs de prévision pondérées par le
volume ou le chiffre d’affaires.
Le Tableau 25 illustre la méthode de calcul.
Tableau 25 – Calcul d’un indice pondéré par le volume et le chiffre d’affaires
Prévision
Ligne 1
Réalisation
Ligne 2
Ecart
Ligne 3
Ecart
absolu
Ligne 4
Chiffre
d'affaires
Ligne 5
Chiffre
d'affaires
pondéré
Ligne 6
Volume
Pondéré
Ligne 7
REF1,
3450
REF2,
869
REF3,
900
REF4,
4309
REF5,
3300
REF6,
2100
REF7,
70
REF8,
320
3477
858
919
5074
2774
2919
134
200
-0,78%
1,28%
-2,07%
-15,08%
18,96%
-28,06%
-47,76%
60,00%
0,78%
1,28%
2,07%
15,08%
18,96%
28,06%
47,76%
60,00%
14000
16000
20000
15000
8000
17000
15000
22000
109
205
413
2262
1517
4770
7164
13200
27
11
19
765
526
819
64
120
En colonne figurent les références gérées (au nombre de huit), en ligne nous avons les
différentes étapes de calcul. Les cinq premières lignes ne posent aucun problème de
compréhension. Nous explicitons seulement les deux dernières lignes :
Chiffre d'affaires pondéré (ligne 6) = chiffre d’affaires (ligne 5) × écart absolu (ligne 4)
Volume pondéré (ligne 7) = réalisation (ligne 2) × écart absolu (ligne 4)
L’indice de la qualité de la prévision pondéré par le chiffre d’affaires est alors égal à la somme
de la ligne 6 divisée par la somme de la ligne 5, soit = 29 640 / 127 000 = 0,2334. L’erreur de
prévision moyenne tenant compte du chiffre d’affaires de chaque article est de 23,34%.
L’indice de la qualité de la prévision pondéré par le volume31 est alors égal à la somme de la
ligne 7 divisée par la somme de la ligne 2, soit = 2 351 / 16 355 = 0,1437. L’erreur de prévision
moyenne tenant compte du volume de chaque article est de 23,34%.
L’erreur de prévision pondérée par le chiffre d’affaires est de 23,34% et l’erreur de prévision
pondérée par le volume est de 14,37%, les prévisions sont donc de moins bonne qualité pour les
articles à valeur unitaire élevée.
Ces indices, calculés tous les mois, permettent de suivre de façon dynamique l’amélioration ou
la détérioration de la prévision.
2.2. Evaluation graphique
Une autre approche permet, à la lecture d'un graphique, d'avoir une vision synthétique de la
qualité de la prévision.
Le Tableau 26 illustre la construction du graphique pour une société qui gère 81 références :
– classement des articles par ordre croissant de l'erreur relative de prévision (en %) en valeur
absolue (colonne 4),
31
Si cela a un sens de comparer les volumes des articles.
Régis Bourbonnais - Prévision des ventes
– calcul du poids relatif de l'article rapporté à la totalité des ventes de l'entreprise (réalisation en
volume de l'article divisée par la totalité du volume des ventes),
– cumul de ces poids (en % ; colonne 6) .
Tableau 26 – Construction d'un graphique d'évaluation
Référence Réalisation
Colonne 1 Colonne 2
Ref1
40
Ref2
33
Ref3
5872
Ref4
91
Ref5
11021
Ref6
1684
Ref7
…
Ref8
…
Ref72
4148
Ref73
38
Ref74
687
Ref75
1853
Ref76
48
Ref77
800
Ref78
1513
Ref79
1297
Ref80
41770
Ref81
180
Prévision % Ecart Cumul des ventes % ventes totales
Colonne 3 Colonne 4
Colonne 5
Colonne 6
40
0,00
40
0,01
34
3,03
73
0,01
5685
3,18
5945
0,86
88
3,30
6036
0,87
10501
4,72
17057
2,46
1599
5,05
18741
2,70
…
…
…
…
…
…
…
…
6404
54,39
645488
93,05
17
55,26
645526
93,06
291
57,64
646213
93,16
2950
59,20
648066
93,43
78
62,50
648114
93,43
1331
66,38
648914
93,55
2544
68,14
650427
93,77
2186
68,54
651724
93,95
72759
74,19
693494
99,97
44
75,56
693674
100,00
Le Graphique 22 représente en abscisse les erreurs en pourcentage (colonne 4) et en ordonnée
(colonne 6) le cumul des poids (jusqu'à 100% du volume traité).
L'interprétation est alors aisée :
– plus la courbe se situe à gauche et croît rapidement (forme convexe), meilleure est la qualité
de la prévision,
– pour juger de la qualité globale, il suffit de se placer par exemple à 10 et à 20 sur l'abscisse.
Cela correspond à environ 25 % puis 49 % du volume traité. Pour 25 % du volume prévu, l'erreur
de prévision est inférieure ou égale à 10 % et, pour 49 % (la moitié) du volume prévu, l'erreur de
prévision est inférieure ou égale à 20%.
Régis Bourbonnais - Prévision des ventes
Graphique 22 – Evaluation synthétique d'un système de prévision
100,00
90,00
80,00
70,00
60,00
50,00
40,00
30,00
20,00
10,00
0,00
0,00
10,00
20,00
30,00
40,00
50,00
60,00
70,00
Cette technique est utile pour éviter de donner trop d'importance à une erreur isolée, même très
importante. En outre elle peut aussi bien s'appliquer à des données en volume (unités), comme dans
notre exemple, qu'à des données en valeur, lorsque les articles ont des unités de mesure
hétérogènes.
Dans cet exemple, nous avons considéré les erreurs de prévision en valeur absolue en faisant
l’hypothèse qu’il est aussi grave de se tromper en positif qu’en négatif. Cependant, certaines
entreprises craignent avant tout la rupture et considèrent donc qu’une erreur de prévision positive
(réalisation > prévision) est plus grave que l’inverse. La constitution de deux graphiques – l’un
pour les erreurs de prévisions positives et l’autre pour les négatives – permet de répondre à cette
préoccupation.
3. Procédures d'évaluation
3.1. Durée de la mesure
Une prévision ne se juge pas dès le premier essai. Que le résultat soit favorable ou défavorable,
il est nécessaire de faire un essai suffisamment long pour que des écarts faibles ou forts dépassent
le stade de la coïncidence pour atteindre celui de la signification statistique d'un véritable degré de
précision.
Elle ne doit pas non plus être trop longue : si le long terme est nécessaire pour évaluer
l'exactitude de la prévision à court terme, quand l'utilisera-t-on ?
Une règle empirique est de faire un test sur une période qui représente trois fois l'horizon de
prévision. Par exemple, pour une prévision semestrielle émise tous les 3 mois, on calcule les écarts
pendant une période de 18 mois, ce qui revient à tester six émissions de prévision.
Partant d'un exemple (prévision à 6 mois, actualisée tous les trimestres, en valeurs mensuelles),
où le problème est une mesure de l'écart prévisions – réalisations et non une compétition entre
différentes méthodes, nous proposons la démarche suivante :
Régis Bourbonnais - Prévision des ventes
80,00
Tous les 3 mois, on procède à une évaluation de la qualité de la prévision au niveau individuel
(cf. 1) et synthétique (cf. 2), selon un pas mensuel et trimestriel (une prévision non fiable au niveau
mensuel peut être fiable trimestriellement).
Il faut se méfier d'interpréter trop rapidement un résultat favorable. Une série brute dont le
coefficient de variation de 20 % (écart-type exprimé en pourcentage de la valeur moyenne), qui une
fois désaisonnalisée n'a plus qu'un coefficient de variation de 8 %, est prévue avec une erreur
quadratique moyenne de 7 %, la performance prévisionnelle ne doit pas être considérée comme très
satisfaisante. L'apport d'une méthode de prévision, sa précision, ne se mesurent pas de façon
linéaire. Certaines composantes peuvent être faciles à dégager et donc à prévoir, la saisonnalité par
exemple. Dans le cas évoqué précédemment, la précision hors saisonnalité était en réalité très
faible.
En outre, la qualité ne se mesure pas de façon continue. Prenons l'exemple suivant : la prévision
est erronée, à la baisse sur un marché où une reprise technique semble se faire jour. Durant les trois
mois qui suivent, elle redevient précise, cependant que les chiffres réels diminuent, accréditant ainsi
l'idée que cette reprise était un leurre. On peut dire alors que son apport a été important car elle a
jeté un doute sur la durabilité d'une modification de tendance et elle a joué un rôle modérateur.
3.2. Comparaisons de prévisions
Plusieurs possibilités existent : elles témoignent du contexte dans lequel s'effectue l'étude,
suivant que l'on essaie de prévoir la réalité ou de comparer différentes méthodes. La référence peut
être :
– les valeurs réalisées,
– la prévision obtenue par différentes méthodes (prévision du terrain, statistique, etc.).
Prenons l’exemple d’une entreprise qui gère trois sources différentes de prévision :
– statistique issue d’un modèle de prévision,
– terrain émanant de la consolidation des prévisions des commerciaux,
– validée en comité « prévision » (cf. chapitres 1 et 10).
Il peut être intéressant de comparer, sur un graphique, l’évolution dans le temps des différentes
prévisions glissantes pour une même période de prévision.
Pour le mois d’août de l’année A, nous avons tracé l’évolution de trois prévisions glissantes
différentes :
Régis Bourbonnais - Prévision des ventes
Graphique 23 – Comparaison entre réalisation et trois prévisions (statistique, terrain, validée)
3300
3200
3100
3000
2900
2800
2700
2600
2500
Réalisé août A
Prev. Statistique
Prev. Terrain
Prev. Validée
Nous constatons que 12 mois avant l’échéance, la prévision « terrain » sous–estime le réalisé et
reste relativement stable jusqu’à l’approche du mois d’août où elle subit des modifications brutales.
La prévision statistique évolue jusqu’à convergence vers le réalisé. La prévision validée se situe le
plus souvent entre la prévision statistique et terrain, ne sachant laquelle privilégier ...
3.3. Exemples d’outils d’alerte
Dans tout système de prévision portant sur un grand nombre de références, le gestionnaire
doit pouvoir disposer d’outils d’alerte permettant de réagir par exception. Nous proposons ici une
panoplie d’indicateurs opérationnels concernant un système mensuel de prévision de ventes.
La prévision historisée (les prévisions successives conservées) servant de référence est la
prévision validée par l’utilisateur ; le nombre de prévisions historisées est égal à T = 12. Tous les
indicateurs sont donc calculés sur les 12 dernières périodes de prévision. Les indicateurs présentés
au début de ce chapitre ne font pas l’objet d’explications.
– Détection des valeurs anormales et filtrage
Si une observation de la série CVS en dehors de ± 2 σ x ⇒ suspicion de valeur anormale.
(σ x = écart-type de la série CVS).
– Amplitude de l’erreur de prévision anormalement élevée
Si EPSt / MADt > 3 ⇒ erreur de prévision anormalement élevée.
– Rupture de tendance
Indicateur SUMEPS (somme des erreurs cumulées, cf. chapitre 3)
Si SUMEPS t  / MADt > 3 ⇒ risque de biais.
Régis Bourbonnais - Prévision des ventes
juillet A
juin A
mai A
avril A
mars A
février A
janvier A
déce. A-1
nove. A-1
octb. A-1
sept. A-1
août A-1
juillet A-1
juin A-1
2400
Ou test statistique
MSEt
T
Si
<
⇒ risque de biais.
2
EPS
– Efficacité du modèle de prévision
Indicateur MSE (Mean Squared Error)
Si MSEt > variance des ventes CVS (σ x2 )⇒ modèle de prévision non efficace car la variance de
l’erreur de prévision (l’aléa) est supérieure à la variance intrinsèque de la série. Le modèle de
prévision n’a pas réduit l’aléa.
A chaque émission des prévisions le gestionnaire, par exception, va se consacrer en priorité aux
articles dont l’une de ces anomalies a été constatée.
Régis Bourbonnais - Prévision des ventes