Les outils de gestion

Transcription

Les outils de gestion
Les outils de gestion
Prévision
Beida Mohammed
Ferhat Taleb Amar
Ingénieurs d’état en informatique
Option : Systèmes d’Information (SI)
Tel: +213 (0) 76 17 36 69
Fax: +213 (0) 21 32 58 93
Email: [email protected]
[email protected]
Site Web: http://www.mtoolkit.com
Résumé
1. Introduction
2. Définition et objectifs
3. Domaine d’utilisation
4. Méthodologie
5. Présentation de l’outil
6. Exemples d’application
7. Conclusion
Juillet 2004
Les outils de gestion
Prévision
1. Introduction
La prévision est un outil très intéressant à la main de tout gestionnaire. Elle joue
un rôle très important dans le processus de planification des actions futures dans
un avenir incertain.
Nous montrons ici quelques concepts liés à la théorie de prévision
avec une
explication des différentes techniques de prévision les plus utilisées.
2. Définition et objectifs
"Par définition, une prévision est une prédiction dans un avenir incertain,
d’événements ou de niveaux d’activités"[7].
Le principal objectif de prévision est de réduire l’incertitude liée à la non
connaissance du futur. C’est un outil indispensable pour tout gestionnaire dans le
processus de planification.
3. Domaines d’application
3.1. Gestion de production
- Calcul des besoins externes
- Suivie de l’évolution du carnet de commande de l’entreprise.
3.2. Gestion des stocks
- Définir les règles de gestion : quand et combien s’approvisionner ?
3.3. Gestion de la maintenance
- Prévoir la dégradation des équipements.
- Prévoir les périodes d’apparition des pannes dans la maintenance
prédictive
Les outils de gestion
Prévision
4. Méthodologie
1. Recueillir les données pertinentes
2. Choisir une technique de prévision
3. Etablir les prévisions
4. Calculer les écarts en se basant sur la simulation de l’historique.
5. Suivre l’évolution des prévisions
5. Présentation de l’outil
Avant d’entamer les différentes techniques de prévision, on doit présenter
quelques concepts fondamentaux sur la théorie de la prévision :
5.1. Les séries chronologiques (temporelles)
5.1.1. Définition : une série chronologique ou une chronique est une suite
d’observations ordonnées dans le temps prises à des intervalles réguliers.
Les données d’une série chronologique sont notées Xt avec t=1,2,…T
La valeur d’un modèle de prévision pour la période t est notée par Yt
¾ Pour t ≤ Tl : Yt représente la simulation de l’historique
¾ Pour t > T : Yt représente les valeurs de prévision
Xt
80
70
60
50
40
30
20
10
0
1
3
5
7
9
11 13 15 17 19 21 23 25 27 29 31 33 35
Periode t
Fig.II.21 : Représentation graphique d’une série chronologique
Les outils de gestion
Prévision
5.1.2. Caractéristique d’une série chronologique
On isole habituellement trois composants dans les séries chronologiques :
¾ La tendance : caractéristique d’un phénomène à démontrer un patron
stable dans un sens déterminé
dans le temps. Le patron peut être
linéaire (modélisé par une droite) ou non linéaire (logarithmique,
exponentiel,…).
¾ La saisonnalité : caractéristique d’un phénomène qui se répète à
intervalle fixé, par exemple à tous les hivers, à tous les mois, etc…
¾ Variation ponctuelle : ce sont des variations dues à des circonstances
exceptionnelles. (comme conditions climatiques, exceptionnelles,
grèves…). Ces phénomènes doivent être corriger pour garantir la
qualité du modèle de prévision.
5.2. Indicateurs de qualité d’un modèle de prévision
5.2.1. Ecart ponctuel (l’erreur de prévision)
Il est définit par : et = x t − y t
¾ Il représente la différence entre la réalisation et la prévision.
5.2.2. Ecart algébrique moyen (Ealm)
Il s’agit de la moyenne arithmétique des erreurs de prévision sur
l’historique.
Ealm=
1 T
∑ et
T t =1
¾ Plus que l’algébrique moyenne est proche de 0, plus que le modèle
de prévision est plus adapté à la situation.
5.2.3. Ecart absolu moyen (Eabsm)
Il s’agit de la moyenne arithmétique des valeurs absolues des erreurs de
prévision :
Eabsm=
1
T
T
∑ xt − y t
t =1
¾ Ce critère mesure l’erreur de prévision moyenne du modèle
5.2.4 . Ecart quadratique moyen et écart type (Eqm, σ e )
Il est défini par la moyenne arithmétique des carrés des erreurs de prévision
sur l’historique :
Les outils de gestion
Prévision
Eqm=
1
T
T
∑ e2t =
t =1
1
T
T
∑ ( xt − y t ) 2
t =1
¾ C’est un critère de base à la construction de nombreux modèles.
L’écart type est la racine de Eqm :
σe=
1 T
( xt − y t ) 2
∑
T t =1
¾ Elle représente la dispersion des données autour de la moyenne.
5.2.5 . Critère de complexité du modèle de prévision (Cib)
Cib= σ e Tp/2T
p : le nombre de paramètre du modèle de prévision
¾ Ce critère mesure la robustesse et la facilité de mise en œuvre du
modèle de prévision.
5.3. Détection et correction des valeurs anormales
Il est souvent, dans un historique, se présentent des données anormales qui
devraient plus se représenter dans le futur. Il faut donc détecter et corriger ces
données pour ne pas dégrader la qualité du modèle de prévision.
Parmi les méthodes de détection et correction des données, la méthode qui
consiste à comparer l’erreur de prévision période par période par l’erreur de
prévision moyen, chaque donnée sorte de l’intervalle de confiance ([XtEalm,Xt+Ealm ]) est considéré comme une donnée anormale. La correction de cette
donnée consiste à en remplacer par quelques données environnantes. Le modèle de
prévision final doit être développé à partir des données corrigées.
5.4. Les méthodes de prévision
On peut schématiser les différentes techniques de prévision par le schéma suivant :
Méthode Delphi
Méthodes qualitatives
(Subjectives)
Force des ventes
Sondage
Moyenne mobile
Méthode basée sur
les réseaux de neurones
H Stationnaire
Moyenne
Lissage exponentiel
Méthodes quantitatives
(Objectives)
Méthodes
d’extrapolation
H Tendanciel
Ajustement linéaire
Lissage de Holt
(Lissage double)
H Saisonnier
Méthode de CMA
Méthode de Winters
Méthodes statistiques
Méthode
de Box et
mmmkkkjh
17 Jenkins (ARIMA)
Méthodes causales
(associative)
Fig.II.22 : Techniques de prévision
Régression linéaire
Régression linéaire
multiple
Les outils de gestion
Prévision
5.4.1. Les méthodes qualitatives (subjectives)
Elles sont basées sur le jugement humain et l’expérience professionnelle des
responsables de domaine, les méthodes les plus utilisées sont :
¾ Méthode Delphi
¾ Force de ventes
¾ Sondage
¾ Etude de marché…etc.
Ces techniques exploitent des données non chiffrables et difficiles à décrire
numériquement, pour cela elles ne seront pas traitées ici.
5.4.2. Les méthodes quantitatives (objectives)
Les méthodes quantitatives se basent sur l’étude de l’historique (les données de
passé), elles font l’hypothèse que le comportement des données de passé va se
poursuivre dans le futur.
On distingue deux catégories dans les méthodes quantitatives :
¾ Les méthodes d’extrapolation :
« Ces techniques cherchent à déterminer l’avenir de la variable à prévoir à partir
de l’analyse des données du passé concernant cette même variable » [1]
¾ Les méthodes causales (ou associative) :
Sur la base de donnée passée, elle cherche à établir une relation entre la variable
à prévoir (variable expliquée) et une ou plusieurs variables (variables explicatives).
¾ La méthode basée sur les réseaux de neurones:
Les réseaux de neurones ont prouvé d'être
parmi les meilleures méthodes qui
détectent les relations cachées entre les variables, une fois le réseau analyse ces
données (l'apprentissage du réseau), il devient capable de générer des prévisions à
partir les dépendances trouvées entre la variable à
prévoir et le(s) autre(s)
variable(s).
5.4.2.1. Les méthodes d’extrapolation
On peut classer ces méthodes en fonction de l’historique à modéliser :
¾ Historique stationnaire
¾ Historique avec tendance
¾ Historique avec saisonnalité
-7-
Les outils de gestion
Prévision
Remarque : Il y’a aussi la méthode ARIMA qui s’adapte au historique stationnaire
mais elle peut être également utilisée pour les historiques avec tendance et
saisonnières (après une certaine transformation).
5.4.2.1.1. Méthodes pour les historiques stationnaires
Un historique stationnaire a la forme suivante :
X t = a + εt
a : est une constante
ε t : est une variable aléatoire avec : E( ε t )=0, σ (ε t ) = λ
Xt
t
Fig.II.23 : Historique stationnaire
L’objective des méthodes d’extrapolation est d’identifier le niveau moyenne de cet
historique.
On distingue trois méthodes :
5.4.2.1.1.1. La moyenne arithmétique
La prévision est représentée par la moyenne arithmétique des données de
l’historique :
Yt =
1 T
∑ Xk
T k =1
∀t > T
5.4.2.1.1.2. Les moyennes mobiles
Une moyenne mobile d’ordre N est définit comme étant la moyenne arithmétique
sur les N dernières observations. Cette moyenne représente la prochaine prévision :
Yt+1=M (N)=
1
N
N
∑X
k =1
t −k
∀t > N
M (N) : représente la moyenne mobile sur N dernière période.
-8-
Les outils de gestion
Prévision
Remarque
Il est possible de définir des moyennes mobiles pondérées, dans lesquelles les
différentes données ont des poids différents.
5.4.2.1.1.3. Le lissage exponentiel simple (ou lissage de Brown)
Dans cette méthode, la prévision courante est calculée en effectuant la moyenne
pondérée de la dernière prévision et la dernière réalisation :
Yt= α Xt-1+ (1- α )Yt-1
Yt= Yt-1 + α ( Xt-1 –Yt-1)
et −1
Yt= Yt-1+ α et −1
En effet, cette méthode consiste à corriger la dernière prévision par une partie de
l’erreur.
¾ Le paramètre de lissage α doit vérifier la contrainte : 0 < α < 1
¾ Un test sur les données historiques avec plusieurs valeur de α permet de
choisir la valeur qui minimise les critères d’écart.
¾ Pour les applications de production un α =0.1 ou 0.2 recommandé.
5.4.2.1.2. Méthodes pour les historiques avec tendance
Un historique avec tendance prend la forme suivante :
X t = a + bt + ε t
a , b : sont des constantes
ε t : E( ε t )=0, σ (ε t ) = λ
Xt
t
Fig.II.24 : Historique avec tendance
-9-
Les outils de gestion
Prévision
Il y a deux techniques de modélisation de tendance à considérer ici :
5.4.2.1.2.1. Méthode d’ajustement linéaire
Cette méthode consiste à analyser un ensemble de données et d’en extraire la
tendance sous forme d’équation linéaire de premier degré.
Le modèle de prévision peut être représenté par l’équation suivant :
Yt = a + bt
Où a , b sont choisit de manière à optimiser le critère d’erreur quadratique
moyenne :
Eqm=
1 T 2 1
∑ et = T
T t =1
T
∑ (X
t =1
t
− Yt ) 2
La solution de ce problème d’optimisation (en utilisant Méthode de moindre carré)
ramène à calculer a et b à la base des formules suivantes :
T
a=
T
T
T ∑ tX t − ∑ t ∑ X t
t =1
t =1
t =1


T∑t 2 − ∑t
t =1
 t =1 
T
T
2
b=
T
T
t =1
t =1
∑ X t − a∑ t
T
5.4.2.1.2.2. Méthode de lissage de Holt
« Lorsque les données historiques présentent une tendance (voire même des
évolutions de tendance). Il est possible d’intégrer ce phénomène dans une
approche par lissage » [1].
Pour t= 2..T les équations récurrentes sont alors les suivantes :
a t = α Xt+(1- α )( a t −1 + b t −1 )
b t = β ( a t - a t −1 )+(1- β ) b t −1
Avec:
¾ 0< α , β <1
¾ a1 =X1, b1 =0 (initialisation des coefficients)
On note que la première équation ajoute la correction de tendance bt-1 par
rapport au lissage simple tandis que la deuxième équation remet à jour
l’estimation de la tendance.
La prévision pour les périodes futures (t>T) sont directement obtenue par :
Yt= aT + (t-T) b T
- 10 -
Les outils de gestion
Prévision
Pour une simulation de l’historique (2 ≤ t ≤ T) : Yt= a t + b t
5.4.2.1.3. Les méthodes pour les historiques saisonniers (Méthodes
saisonnières)
« Une série saisonnière est une série dont le patron se répète toutes les n
périodes durant un certain nombre de périodes » [6]
Xt
N
Saison
t
Fig.II.25 : Série saisonnière
Un modèle saisonnier a la forme suivant :
X t = (a + bt )C t mod T + ε t
Avec :
X t : la variable à prévoir
a, b : Les paramètres de tendance.
C0 , C1 ,...CT −1 : Les Coefficients saisonniers
ε t : représente l’erreur
E ( ε t )=0
σ (ε t ) = λ
Le modèle saisonnier est caractérisé par le faite que chaque saison possède son
propre coefficient saisonnier.
On distingue deux méthodes pour les séries saisonnières :
•
Méthode de CMA (Moyenne mobile centré)
•
Méthode de Winters
5.4.2.1.3.1. Méthode de CMA ( Centered moving average)1
La méthode CMA consiste à désaisonnaliser la série en utilisant les coefficients
saisonniers et appliquer l’une des méthodes précédentes puis introduire les
coefficients saisonniers.
1
Cette méthode est bien détaillée avec un exemple dans la référence [11]
- 11 -
Les outils de gestion
Prévision
Elle comprend les étapes suivantes :
¾ Déterminer les coefficients saisonniers par la méthode de moyenne mobile
centrée (voir Annexe)
¾ Dessaisonaliser les données
¾ Déterminer les paramètres de tendances ( a et b)
¾ Etablir les prévisions dessaisonalisées
¾ Introduire les coefficients saisonniers
5.4.2.1.3.2. Méthode de Winters
« Ce modèle est une extension du lissage simple, permettant la prise en compte
des phénomènes saisonniers ainsi que de la tendance ». [1]
La forme générique des séries analysées par la méthode de Winters possède une
tendance ascendante doublée d’une saisonnalité croissante comme démontrée dans
la figure suivante :
Xt
Tendance
Saison
t
Fig.II.26 : Série saisonnière avec augmentation de
tendance
En effet la méthode de Winters consiste à un triple lissage exponentiel, dont tous
les paramètres du modèle ( a, b, c) sont mis à jours quand une nouvelle observation
arrive.
Les deux paramètres du modèle ( a, b ) sont mis à jour comme dans le lissage de
Holt sauf que l’observation est d’abord dessaisonalisé.
La combinaison entre les paramètres et le coefficient saisonnier dans une seule
formule donne la prévision.
- 12 -
Les outils de gestion
Prévision
at = α ( xt / C t − S ) + (1 − α )(at −1 + bt −1 ) ……………….… (1)
bt = β (at − at −1 ) + (1 − β )bt −1 ………………………….. (2)
C t = γ ( xt / at ) + (1 − γ )C t − S ………………….……......... (3)
Finalement, la prévision sera calculée selon la formule suivante :
y t ,t +τ = (at + τbt )C t +τ − S
Procédure d’initialisation des paramètres
Les données de deux cycles au minimum sont nécessaires.
Supposons que nous avons 2S points de données :
X1,X2…..,Xs,….X2s
Calculer la moyenne arithmétique de chaque cycle :
V1 =
1 S
∑ Xi
S i =1
V2 =
1 2S
∑ Xi
S i = S +1
Définir b0 comme étant :
b0= (V2-V1)/S
(Si on a plus de 2 saisons (ex : m saisons) : b0 =
Vm − V1
)
(m − 1) * S
Définir a0 comme étant :
a0 = V2 + b0 (
S −1
)
2
Les facteurs saisonniers sont calculés selon l’équation suivante :
Ct =
Xt
S +1
Vi − (
− j )b0
2
1 ≤ t ≤ 2S
i : L’indice du cycle saisonnier comportant le facteur Ct
j : L’indice du facteur dans le cycle saisonnier (ie : j=t mod S)
Remarque : les facteurs saisonniers doivent être normalisés. (Même méthode
que CMA)
- 13 -
Les outils de gestion
Prévision
5.4.2.1.4 Méthode de Box et Jenkins (ARIMA)
La méthode ARIMA (Autorégressifs intégrés moyenne mobile) développé par Box et
Jenkins (1976) a gagné en popularité dans de nombreux domaines et en particulier
dans celui de la recherche. Elle consiste à sélectionner un modèle de prévision
parmi une classe de modèles stochastiques. Il s’applique à des séries longues dont
la structure est suffisamment stable.
5.4.2.1.4.1. Les Concepts de base
5.4.2.1.4.1.1 Principe de stationnarité
La théorie sur laquelle sont fondées les modèles ARIMA ne s’applique qu’aux
données stationnaires, c'est-à-dire que la chronique ne doit comporter ni tendance
en moyenne, ni tendance en variance, ni variation saisonnière. Des tests ont
développées pour juger de la non stationnarité des séries2. Dans le cas ou la
chronique n’est pas stationnaire,
il y’a 3 cas pour la transformer en série
stationnaire :
- Présence d’une tendance en moyenne:
-tendance
linéaire :
supprimer
la
tendance
en
pratiquant
une
différenciation de premier ordre (soustraire la série d’origine la série retardée
d’une période)
-tendance
quadratique :
une
différenciation
de
second
ordre
est
conseillée.
-Présence d’une saisonnalité : On doit travailler avec la série désaisonnalisé, pour
cela une différenciation de nombre de période d’une saison est appliquée au
chronique.
5.4.2.1.4.1.2 Processus autorégressif
Les séries chronologiques sont souvent constituées des éléments autocorrélés au
sens ou il est possible de décrire les éléments consécutifs de la série par des
éléments (passés) spécifiques décalés dans le temps. On peut synthétiser ce
processus par l’équation :
X t = φ1 X t −1 + φ 2 X t −2 + ....φ p X t − p + δ + et
Où : δ est une constante
2
Pour plus de détails voir la référence [16]
- 14 -
Les outils de gestion
Prévision
φ1 ,....φ p Les paramètres du modèle autorégressif à estimer.
5.4.2.1.4.1.3 Processus de moyennes mobiles
Dans le processus de moyennes mobiles, chaque élément de la chronique ne
dépend pas des éléments antérieurs mais aux valeurs antérieures du terme
d’erreurs .on peut également décrire ce processus par l’équation suivante :
X t = µ + et − θ1et −1 − θ 2 et −2 − ....θ q et −q
Où : µ est une constante
θ1 ,θ 2 ,....θ q Les paramètres du processus de moyenne mobile.
5.4.2.1.4.1.4 Modèle autorégressif moyenne mobile : ARIMA (p,d,q)
« Le modèle général présenté par Box et Jenkins comporte des paramètres
autorégressif ainsi que des moyennes mobiles et comporte explicitement des
différenciations dans la formulation du modèle» [19]
Les trois types de paramètre du modèle sont :
-
nombre de paramètre autorégressif (p)
-
nombre de différenciation (d)
-
nombre de paramètre de moyenne mobile (q)
À noter que dans le modèle autorégressif moyenne mobile les valeurs futurs
dépendent à la fois des valeurs passées et des erreurs passées. Il peut être
représenté par l’équation suivante :
X t = φ1 X t −1 + φ 2 X t −2 + ....φ p X t − p + δ + et − θ1et −1 − θ 2 et −2 − θ 3 et −3 − ....θ p et −q
5.4.2.1.4.1.5 Fonction d’autocorrélation : ACF
« L’autocorrélation d’ordre k d’une série chronologique est la corrélation entre
cette série et elle-même avec un retard de k période» [15]
Sa valeur est donnée par la formulation suivante :
n−k
rk =
∑ ( yt − y )( yt +k − y )
t =1
n −1
∑ ( yt − y ) 2
t =1
- 15 -
Les outils de gestion
Prévision
La fonction d’autocorrélation (ACF) est la suite des autocorrélations: r1,r2,….rn.
Leur analyse est facilité par la représentation graphique (corrélogramme)
suivante :
1,0
ACF
0,5
0,0
-0,5
-1,0
1
3
5
7
9
11 13 15 17 19 21 22
Coefficient
Numéro de décalage
Fig.II.27 : Exemple d’un corrélogramme
5.4.2.1.4.1.6 Fonction d’autocorrélation partielle: PACF
« L’autocorrélation partielle est le coefficient de régression de Yt-k lorsque Yt est
régressé par Yt-1, Yt-2,…,Yt-k. Le corrélogramme partiel (PACF) est le diagramme
représentant la série des autocorrélations partielles » [1]
Les autocorrélations partielles sont calculées selon les formules suivantes :
λ 11* = r1
λ*22 =
r2 − r12
1 − r12
λ*kj = λ*k −1, j − λ kk λ k −1, k −
j
rk −
λ*kk
=
1−
k −1
∑ λ k −1, j rk − j
j =1
k −1
∑ λ k −1, j r j
j =1
- 16 -
Les outils de gestion
Prévision
1,0
PACF
0,5
0,0
-0,5
-1,0
1
3
5
7
9
11 13 15 17 19 21 22
Coefficient d’autocorrélation
partielle
Numéro de décalage
Fig.II.28 : Exemple d’un corrélogramme
5.4.2.1.4.1.7 Brui Blanc
La notion de bruit blanc concerne les erreurs (et) qui par hypothèse suivent une loi
normale N(0 ; σ 2 ) . On parle de bruit blanc si les erreurs (et) sont stationnaires et
non autocorrélés entre elles, qui implique qu’aucune corrélation significative ne
doit apparaître sur le corrélogramme des résidus.
5.4.2.1.4.2 Méthodologie ARIMA
On peut schématiser la méthodologie de fonctionnement de la méthode ARIMA par
le schéma suivant :
(1)
Identifier
un modèle
(2)
(3)
Estimer
Les paramètres
Tester la
validité du
(4)
(5)
Valide
Etablir des
prévisions
Non valide
Changer
le modèle
Fig.II.29 : La Méthode de Box et Jenkins (ARIMA)
(1) : Cette étape consiste à trouver les paramètres p et q du modèle en examinant
les corrélogrammes et corrélogrammes partielles
(2) : L’estimation des paramètres est obtenues généralement selon la méthode des
moindre carrées
- 17 -
Les outils de gestion
Prévision
(3) et (4) : Une analyse des corrélogrammes et corrélogrammes partielles est
nécessaire pour assurer que les résidus suivent un bruit blanc, dans le cas contraire
on redéfinit le modèle ARIMA en changeant leurs paramètres
(5) : Cette étape vise a élaborer les prévisions a partir du modèle choisi.
5.4.2.2. Les méthodes causales (ou associative)
Ces méthodes se basent sur la recherche d’une relation entre la variable à prévoir
(variable expliquée) et un ou plusieurs variables (explicatives).
Le modèle de prévision a la forme suivante :
Yt= a0 + a1 X1,+ a 2 X2,+…. a3 Xnt
X1, X2,… Xn sont les variables explicatives
a 0 , a1 ,....a n représentent les coefficients à estimer.
Les méthodes causales faisant appel aux techniques de régression. on distingue
deux techniques :
¾ Régression linéaire simple ;
¾ Régression linéaire multiple.
5.4.2.2.1. Modèle de Régression linéaire simple
Il s’agit dans ce modèle d’estimer une variable expliquée Y dépend d’une seule
variable explicative X. le modèle a la forme suivante :
Y= a 0 + a1 X
Les coefficients a0, a1 sont déterminés en minimisant le critère de l’écart
quadratique moyenne (Eqm) :
Eqm=
1
T
T
∑ e2t =
t =1
1
T
T
∑ (X
t =1
t
− Yt ) 2
La solution d’optimisation donne :
n
a 0 = Y -a1 X
X=
∑X
i =1
n
n
xy − nx y
a = ∑
∑ x − n( x )
1
2
Y=
2
- 18 -
∑Y
i =1
n
i
i
Les outils de gestion
Prévision
5.4.2.2.2. Modèle de Régression linéaire multiple
Il s’agit dans ce modèle d’estimer une variable expliquée Y qui est reliées à
plusieurs variables explicatives X1,X2,…Xn.
Y= a0 + a1 X1+ a 2 X2+… a3 Xn+ e
Le modèle peut s’écrire sous forme matricielle :
 y1


 y2
.

.
 y
 T

  1 x11
 
 
 
 =
 
 
  1 xT1
 

.
. x1N   a
 0
  a1

 .
 .
xTN   a
 N




 +e



La solution d’optimisation du critère de l’écart quadratique moyenne (Eqm) qui
donne les coefficients a0,…aN est la suivante :
A=(XtX)-1XtY
X : la matrice des variables explicatives
Xt : Transposé de X
A : le vecteur des coefficients a 0 , a1 ,… a N
Y : le vecteur des yi
5.4.2.2.2.1 Coefficients de détermination et de corrélation
- Coefficient de détermination (r2)
Il exprime le pourcentage de variable de Y expliqué par X .
La variabilité totale expliquée par le modèle de régression est donnée par :
T
r2 =
∑ (a
t =1
0
+ a1 X 1,t + a 2 X 2,t + ........a n X n ,t − Y ) 2
T
∑ (Y
t =1
t
−Y)
-1 ≤ r ≤ 1
2
- Coefficient de corrélation (r)
Il exprime le degré de corrélation de Y et X , il mesure l’intensité d’une liaison
linéaire entre la variable à prévoir et la forme linéaire retenue par la régression :
- 19 -
Les outils de gestion
Prévision
T
r=
∑ (a
t =1
0
+ a1 X 1,t + a 2 X 2,t + ........a n X n ,t − Y ) 2
T
∑ (Y
t
t =1
¾
− Y )2
1 : X et Y sont fortement corrélées (dépendantes)
r
r
+1 : les deux séries accroissent et décroissent au même
temps.
r
- 1 : si la série de première variable accroît la deuxième
décroît et inversement
¾ r
0 : X et Y sont faiblement corrèle, cela signifie l’absence de
Relation linéaire entre les deux variables
5.4.2.3. Méthode basée sur les réseaux de neurones
5.4.2.3.1 Introduction aux réseaux de neurones artificiels
Un réseau de neurones est une approche inspirée du système nerveux humain.
Introduit par le professeur Hal White (UC-San Diego) aux économistes en 1988, et
définitivement apparue en 1994, les réseau de neurones montre une grande
capacité de résoudre les problèmes de prévisions que les méthodes statistiques
classiques grâce à sa puissance de capter les relations non linéaires existante dans
les séries de données.
5.4.2.3.2 Définition de réseau de neurones
Un réseau de neurones artificiel est un ensemble de neurones interconnectés entre
eux de telle sorte que chaque connexion est munie par un poids. L’architecture du
réseau est entièrement spécifiée par :
•
le nombre de cellules (une cellule représente un neurone)
•
le graphe d’interconnexion des cellules
•
le type de cellule (neurone d’entré, caché ou de sortie)
- 20 -
Les outils de gestion
Prévision
Le type de neurone permet de définir 3 types de couches :
•
Couche d’entré (contient les neurones d’entrés)
•
Couche cachée (contient les neurones cachés)
•
Couche de sortie (contient les neurones de sortie)
Pour simuler un neurone sur un ordinateur, on a besoin d’un modèle mathématique
de ce neurone :
•
Chaque neurone possède un ensemble d’entrées Xi
•
Chaque connexion entre deux neurones Xi ,Xj a un poids wji
•
La sortie d’un neurone est déterminée en appliquant une fonction de
transfert sur la somme des produits de la connexion des entrées avec leurs
poids (Fig. I.32) :
N
S k = f (∑ wkj xkj + bk ) ………………. (1)
j =1
Où :
f ( x) =
1
1 + e −x
f : La fonction d’activation sigmoïde, il y’en a d’autres mais le sigmoïde est le
plus utilisé.
wkj : Le poids synaptique de la connexion entre le neurone j et k.
xkj : L’entré de la neurone k depuis le neurone j.
bk : Le biais
N : Le nombre de neurone de la couche qui précède la couche contenant le
neurone k.
Bias b
Entrées
x1
W1
x2
W2
xm
Wm
Fonction
d’activation
∑
f (−)
Sortie
y
Poids synaptiques
Fig.II.30 : Calcul de la sortie d’un neurone
- 21 -
Les outils de gestion
Prévision
Remarque
Certains livres considèrent que la couche d’entrés en plus, et comme les cellules
d’entrés ne supportent pas les fonctionnalités des cellules du réseau elle ne sera
pas comptée parmi les couches de réseau.
5.4.2.3.3
Les
réseaux
de
neurones
multicouches
MLP
« Multiplayer
Perceptron »
En effet, il existe plusieurs types du réseau de neurones, mais comme nous
intéressons aux problèmes de prévision, nous allons étudier le type le plus utilisé
dans ce domaine. Il s’agit de réseaux de neurones multicouches (multiplayer)
(MLP).
Un réseau multicouche contient une couche d’entré, une couche de sortie et une
ou plusieurs couche(s) caché(s) (Fig. I.33), chaque couche contient un nombre
défini de neurones
et chaque neurone de la couche L est connecté à tous les
neurones le la couche L+1 avec un poids Wji de plus chaque neurone possède une
extra entrée qui a pour valeur une constante, elle est appelée le biais.
Entrés
Couche A
Entrés
Couche A
Couche B
Couche B
Couche C
Sortie
Connexion entre
deux neurones
Fig. I.31 : Réseau de neurone multicouche
5.4.2.3.3.1 Utilisation des réseaux MLP dans le cadre de prévision
Comme tous les réseaux de neurones le fonctionnement des réseaux MLP comporte
deux phases : une phase d’apprentissage et une autre de reconnaissance. Le
premier consiste à entraîner les réseaux (selon un algorithme d’apprentissage) de
reproduire des valeurs proche aux valeurs désirées selon un critère de performance
donné tan disque l’autre consiste à transformer les nouvelles entrées aux valeurs
prévues.
- 22 -
Les outils de gestion
Prévision
Dans notre cas, les entrés représentent l’historique de données (éventuellement
les variables indépendantes)
et la sortie représente la variable à prévoir (la
variable dépendante).
Ajustement
des poids
Entrées
e1
e2
ee
Réseau
de
Neurones
n
Sortie
Erreur
∑
+
Désiré
d1, d2,.....dn
Fig.II.32 : L’apprentissage du réseau de neurone
5.4.2.3.3.2 L’algorithme d’apprentissage
Les MLP et beaucoup d’autres réseaux de neurones apprennent en utilisant un
algorithme appelé ‘Retro propagation’ (back propagation).
Avec la retro propagation la donnée est à plusieurs reprises présentée au RNN, a
chaque présentation la sortie du RNN est comparée à la sortie désiré et une erreur
est calculée, cette erreur est alors retro propager au RNN et employer pour ajuster
les poids de façon à ce que l’erreur diminue à chaque itération et que le modèle
neuronal arrive de plus en plus prés de la reproduction de la sortie désirée.
1- Initialisation des poids Wij à des petites valeurs aléatoires entre 0 et 1.
2- Présentation des données d’apprentissage et les sorties désirées (l’historique)
3- Alimentation-avant. Calcul des valeurs de sorties Sk (équation (1))
4- Retropropagation de l’erreur
Pour les poids de la couche de sortie : δ k = ( Dk − C k ) f ' ( x k )
N
Pour les poids de la couche de cachée : δ j = f ' ( x j )∑ δ k wkj
k =1
5- Ajustement des poids
Pour les poids de la couche de sortie : wkj = wk j − αδ k y j
Remarque
Pour les poids de la couche de cachée : w ji = w ji − αδ j xi
6- Répéter les étapes 2 à 5 jusqu'à la convergence de l’algorithme.
- 23 -
Les outils de gestion
Prévision
α Représente le taux d’apprentissage, il a pour objectif de contrôler la rapidité de
convergence de l’algorithme vers une solution optimal, il est compris entre 0.01 et
0.3
La convergence de l’algorithme est basée sur l’écart quadratique EC tel que :
EC=
1 N
( Dk − C k ) 2
∑
2 k =1
5.4.2.3.3.3 Partition de la série de données
La méthode typique pour l’utilisation des réseaux de neurones dans les problèmes
de prévision, est d’abord de partitionner la série de données de l’historique en
trois ensembles disjoints : les données d’apprentissage, les données de validation
et celles de teste.
Le réseau est entraîné sur les données d’apprentissage, sa capacité de
généralisation est mesurée par les données de validation est sa capacité de
prévision est mesurée par les données de test.
La capacité de généralisation du réseau de neurones mesure le comportement du
réseau avec les entrés imprévues. Un RNN qui produit une grande erreur de
prévision pour les entrés imprévues mais une petite erreur pour les données
d’apprentissage est dite d’avoir une capacité de généralisation pauvre.
Pour contrôler ce phénomène, on
est amené à suivre la tendance de l’erreur
d’apprentissage et l’erreur de validation après chaque cycle d’apprentissage, si le
premier a une tendance descendante et le deuxième a une tendance ascendante on
abandonne l’apprentissage et réinitialiser l’algorithme à nouveaux paramètres.
Erreur
Erreur de validation
Erreur d’apprentissage
Meilleure performance en
généralisation
Itération
Fig.II.33 : Evolution des courbes d’erreurs durant
la phase d’apprentissage
- 24 -
Les outils de gestion
Prévision
6. Exemple d’application
Un gestionnaire d’une grande société de vente des produits informatiques désire
suivre l’évolution des demandes sur les PC. Pour cela il veut utiliser l’outil
Prévision pour établir la demande future (horizon de 4 mois) sur les PC.
5.1. Collecter les données
L’historique des demandes mensuelles de l’année passée est représenté par le
tableau suivant :
Mois
1
Demande 200
2
3
4
5
6
7
8
9
10
11
12
220
330
580
340
320
400
410
450
500
600
650
6.2. Choisir une technique de prévision
La représentation graphique de la série chronologique, montre qu’il y a une
tendance linéaire ce qui nous ramène de choisir entre l’une des deux méthodes de
l’historique avec tendance : Ajustement linéaire ou lissage de Holt, on va utiliser
les deux méthodes et choisir la plus performante (critères d’écart).
Xt
700
600
500
400
300
200
100
0
1
2
3
4
5
6
7
8
9
10
11
12
t
Fig.II.34 : Représentation graphique de la série chronologique
6.3. Etablir les prévisions
¾ Méthode d’ajustement linéaire
On a l’équation d’ajustement linéaire suivant :
y = a + bt
- 25 -
Les outils de gestion
Prévision
Appliquant la méthode de moindre carré, on trouve :
a =207,57
b = 32,16
D’où on déduit les prévisions des 4 mois suivant :
Période
Y
13
14
15
16
625.76 657.93 690.09 722.26
¾ Méthode du lissage de Holt
Le modèle de Holt est base sur les équations récurrentes suivantes :
at = αxt + (1 − α )(at −1 + bt −1 )
bt = β (at − at −1 ) + (1 − β )bt −1
En initialisant at et bt par les paramètres trouvés par la méthode d’ajustement
linéaire ( a et b )
et appliquant la récurrence jusqu’à trouver les prévisions des 4 mois futures, on
obtient les résultats suivants :
Période
Y
13
14
15
16
624,4 665,47 706,54 747,61
Remarque : On a pris : α = 0,3 et β = 0,5
6.4. Calculer les écarts en se basant sur la simulation de l’historique
L’application des deux méthodes aux données de l’historique donne :
¾ Méthode d’ajustement linéaire
Période
1
2
3
4
5
6
7
8
9
X
200
220
330
580
340
320
400
410
450
Y
239,74 271,91 304,07 336,24 368,41 400,58 432,75 464,91 497,08 529,25 561,42 593,58
E=X-Y
-39.74
-51,91
25,93
243,76 -28,41
-80,58
- 26 -
-32,75
-54,91
-47,08
10
500
-29,25
11
600
38,58
12
650
56,42
Les outils de gestion
Prévision
¾ Méthode du lissage de Holt
Période
1
2
3
4
5
6
7
8
9
10
11
12
X
200
220
330
580
340
320
400
410
450
500
600
650
Y
196,91
243,76
322,49
491,21
514,66
495,85
492,33
480,5
479,65
497,1
554,76
624,4
E=X-Y
3,09
-23,76
7,51
88,77
-174,66
-175,87
-92,33
-70,5
-29,65
2,9
45,24
25,6
Les critères d’écart des deux méthodes :
Méthode
Ajustement
ealm
eabsm
eqm
σe
cib
-0,007
60,76
6956,52
83.405
42,93
-32,80
61,65
7252,63
85,16
104,66
linéaire
Lissage de Holt
On note que le premier modèle est plus performant et moins compliqué que le
deuxième car l’écart algébrique moyen (Eqm) de celui-ci est inférieur à celui de
l'autre, même chose pour le cib.
7. Conclusion
La prévision est considérée parmi les outils mathématiques les plus importants
dans le domaine de gestion. Les différentes méthodes de prévision, selon le
contexte, peuvent donner une image du futur qui va aider les gestionnaires dans le
processus de prise de la décision dans l’entreprise.
- 27 -
Les outils de gestion
Prévision
Bibliographie
Livres et mémoires
[1] : Armand Dayan.
« Manuel de Gestion »
Ellipses Edition Marketing S.A., 1999, paris.
[2] : François KOLB, Vladimir BRIJATOFF
« Planification et méthodes des prévisions dans l’entreprise»
Edition du Tambourinaire, 1969, paris.
[3] : Jean-Louis Brossard, Marc Polizzi
« Gerer la production industrielle : Outils et méthodes »
Edition Mare Nostrum, 1996.
[4]: Mme.Hamdad
« Analyse de données »
Support de cours 4eme année (Système d’information), INI.
Sites Web
[5]: http://step.polymtl.ca/~scgi2002/docs/J_C_Nash_Fr.pdf
[6]: http://www.gpa.etsmtl.ca/cours/gpa548/Chapitre2.pdf
[7]: http://www.gmc.ulaval.ca/daouda/gmc10312.asp
[8]: http://www.ifresi.univ-lille1.fr/PagesHTML/delmas/fichCVS.pdf
[9]: http://www-marketing.wharton.upenn.edu/forecast/LongRange%20Forecasting/contents.html
[10]: http://www.gmc.ulaval.ca/cours/65270/Pr%C3%A9visions2001.pdf
[11]: http://www.zozoll-online.com/cours/p4/amphi%20calcul%20%C3%A9
conomique.doc
[12]: http://step.polymtl.ca/~scgi2002/docs/J_C_Nash_Fr.pdf
[13]: http://www.ensmp.fr/Fr/Formation/2emeCycle/IngCivil/Intro/
Actu2/SysProd/Prevision.pdf
[14]: http://www.cs.stir.ac.uk/~lss/NNIntro/InvSlides.html
[15]: http://christophe.benavent.free.fr/cours/dea/dea5.PDF
[16]: http://condor.ucr.edu/class/mohsen/mgt267f03/_private/Introduction.pdf
- 28 -