Les outils de gestion
Transcription
Les outils de gestion
Les outils de gestion Prévision Beida Mohammed Ferhat Taleb Amar Ingénieurs d’état en informatique Option : Systèmes d’Information (SI) Tel: +213 (0) 76 17 36 69 Fax: +213 (0) 21 32 58 93 Email: [email protected] [email protected] Site Web: http://www.mtoolkit.com Résumé 1. Introduction 2. Définition et objectifs 3. Domaine d’utilisation 4. Méthodologie 5. Présentation de l’outil 6. Exemples d’application 7. Conclusion Juillet 2004 Les outils de gestion Prévision 1. Introduction La prévision est un outil très intéressant à la main de tout gestionnaire. Elle joue un rôle très important dans le processus de planification des actions futures dans un avenir incertain. Nous montrons ici quelques concepts liés à la théorie de prévision avec une explication des différentes techniques de prévision les plus utilisées. 2. Définition et objectifs "Par définition, une prévision est une prédiction dans un avenir incertain, d’événements ou de niveaux d’activités"[7]. Le principal objectif de prévision est de réduire l’incertitude liée à la non connaissance du futur. C’est un outil indispensable pour tout gestionnaire dans le processus de planification. 3. Domaines d’application 3.1. Gestion de production - Calcul des besoins externes - Suivie de l’évolution du carnet de commande de l’entreprise. 3.2. Gestion des stocks - Définir les règles de gestion : quand et combien s’approvisionner ? 3.3. Gestion de la maintenance - Prévoir la dégradation des équipements. - Prévoir les périodes d’apparition des pannes dans la maintenance prédictive Les outils de gestion Prévision 4. Méthodologie 1. Recueillir les données pertinentes 2. Choisir une technique de prévision 3. Etablir les prévisions 4. Calculer les écarts en se basant sur la simulation de l’historique. 5. Suivre l’évolution des prévisions 5. Présentation de l’outil Avant d’entamer les différentes techniques de prévision, on doit présenter quelques concepts fondamentaux sur la théorie de la prévision : 5.1. Les séries chronologiques (temporelles) 5.1.1. Définition : une série chronologique ou une chronique est une suite d’observations ordonnées dans le temps prises à des intervalles réguliers. Les données d’une série chronologique sont notées Xt avec t=1,2,…T La valeur d’un modèle de prévision pour la période t est notée par Yt ¾ Pour t ≤ Tl : Yt représente la simulation de l’historique ¾ Pour t > T : Yt représente les valeurs de prévision Xt 80 70 60 50 40 30 20 10 0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 Periode t Fig.II.21 : Représentation graphique d’une série chronologique Les outils de gestion Prévision 5.1.2. Caractéristique d’une série chronologique On isole habituellement trois composants dans les séries chronologiques : ¾ La tendance : caractéristique d’un phénomène à démontrer un patron stable dans un sens déterminé dans le temps. Le patron peut être linéaire (modélisé par une droite) ou non linéaire (logarithmique, exponentiel,…). ¾ La saisonnalité : caractéristique d’un phénomène qui se répète à intervalle fixé, par exemple à tous les hivers, à tous les mois, etc… ¾ Variation ponctuelle : ce sont des variations dues à des circonstances exceptionnelles. (comme conditions climatiques, exceptionnelles, grèves…). Ces phénomènes doivent être corriger pour garantir la qualité du modèle de prévision. 5.2. Indicateurs de qualité d’un modèle de prévision 5.2.1. Ecart ponctuel (l’erreur de prévision) Il est définit par : et = x t − y t ¾ Il représente la différence entre la réalisation et la prévision. 5.2.2. Ecart algébrique moyen (Ealm) Il s’agit de la moyenne arithmétique des erreurs de prévision sur l’historique. Ealm= 1 T ∑ et T t =1 ¾ Plus que l’algébrique moyenne est proche de 0, plus que le modèle de prévision est plus adapté à la situation. 5.2.3. Ecart absolu moyen (Eabsm) Il s’agit de la moyenne arithmétique des valeurs absolues des erreurs de prévision : Eabsm= 1 T T ∑ xt − y t t =1 ¾ Ce critère mesure l’erreur de prévision moyenne du modèle 5.2.4 . Ecart quadratique moyen et écart type (Eqm, σ e ) Il est défini par la moyenne arithmétique des carrés des erreurs de prévision sur l’historique : Les outils de gestion Prévision Eqm= 1 T T ∑ e2t = t =1 1 T T ∑ ( xt − y t ) 2 t =1 ¾ C’est un critère de base à la construction de nombreux modèles. L’écart type est la racine de Eqm : σe= 1 T ( xt − y t ) 2 ∑ T t =1 ¾ Elle représente la dispersion des données autour de la moyenne. 5.2.5 . Critère de complexité du modèle de prévision (Cib) Cib= σ e Tp/2T p : le nombre de paramètre du modèle de prévision ¾ Ce critère mesure la robustesse et la facilité de mise en œuvre du modèle de prévision. 5.3. Détection et correction des valeurs anormales Il est souvent, dans un historique, se présentent des données anormales qui devraient plus se représenter dans le futur. Il faut donc détecter et corriger ces données pour ne pas dégrader la qualité du modèle de prévision. Parmi les méthodes de détection et correction des données, la méthode qui consiste à comparer l’erreur de prévision période par période par l’erreur de prévision moyen, chaque donnée sorte de l’intervalle de confiance ([XtEalm,Xt+Ealm ]) est considéré comme une donnée anormale. La correction de cette donnée consiste à en remplacer par quelques données environnantes. Le modèle de prévision final doit être développé à partir des données corrigées. 5.4. Les méthodes de prévision On peut schématiser les différentes techniques de prévision par le schéma suivant : Méthode Delphi Méthodes qualitatives (Subjectives) Force des ventes Sondage Moyenne mobile Méthode basée sur les réseaux de neurones H Stationnaire Moyenne Lissage exponentiel Méthodes quantitatives (Objectives) Méthodes d’extrapolation H Tendanciel Ajustement linéaire Lissage de Holt (Lissage double) H Saisonnier Méthode de CMA Méthode de Winters Méthodes statistiques Méthode de Box et mmmkkkjh 17 Jenkins (ARIMA) Méthodes causales (associative) Fig.II.22 : Techniques de prévision Régression linéaire Régression linéaire multiple Les outils de gestion Prévision 5.4.1. Les méthodes qualitatives (subjectives) Elles sont basées sur le jugement humain et l’expérience professionnelle des responsables de domaine, les méthodes les plus utilisées sont : ¾ Méthode Delphi ¾ Force de ventes ¾ Sondage ¾ Etude de marché…etc. Ces techniques exploitent des données non chiffrables et difficiles à décrire numériquement, pour cela elles ne seront pas traitées ici. 5.4.2. Les méthodes quantitatives (objectives) Les méthodes quantitatives se basent sur l’étude de l’historique (les données de passé), elles font l’hypothèse que le comportement des données de passé va se poursuivre dans le futur. On distingue deux catégories dans les méthodes quantitatives : ¾ Les méthodes d’extrapolation : « Ces techniques cherchent à déterminer l’avenir de la variable à prévoir à partir de l’analyse des données du passé concernant cette même variable » [1] ¾ Les méthodes causales (ou associative) : Sur la base de donnée passée, elle cherche à établir une relation entre la variable à prévoir (variable expliquée) et une ou plusieurs variables (variables explicatives). ¾ La méthode basée sur les réseaux de neurones: Les réseaux de neurones ont prouvé d'être parmi les meilleures méthodes qui détectent les relations cachées entre les variables, une fois le réseau analyse ces données (l'apprentissage du réseau), il devient capable de générer des prévisions à partir les dépendances trouvées entre la variable à prévoir et le(s) autre(s) variable(s). 5.4.2.1. Les méthodes d’extrapolation On peut classer ces méthodes en fonction de l’historique à modéliser : ¾ Historique stationnaire ¾ Historique avec tendance ¾ Historique avec saisonnalité -7- Les outils de gestion Prévision Remarque : Il y’a aussi la méthode ARIMA qui s’adapte au historique stationnaire mais elle peut être également utilisée pour les historiques avec tendance et saisonnières (après une certaine transformation). 5.4.2.1.1. Méthodes pour les historiques stationnaires Un historique stationnaire a la forme suivante : X t = a + εt a : est une constante ε t : est une variable aléatoire avec : E( ε t )=0, σ (ε t ) = λ Xt t Fig.II.23 : Historique stationnaire L’objective des méthodes d’extrapolation est d’identifier le niveau moyenne de cet historique. On distingue trois méthodes : 5.4.2.1.1.1. La moyenne arithmétique La prévision est représentée par la moyenne arithmétique des données de l’historique : Yt = 1 T ∑ Xk T k =1 ∀t > T 5.4.2.1.1.2. Les moyennes mobiles Une moyenne mobile d’ordre N est définit comme étant la moyenne arithmétique sur les N dernières observations. Cette moyenne représente la prochaine prévision : Yt+1=M (N)= 1 N N ∑X k =1 t −k ∀t > N M (N) : représente la moyenne mobile sur N dernière période. -8- Les outils de gestion Prévision Remarque Il est possible de définir des moyennes mobiles pondérées, dans lesquelles les différentes données ont des poids différents. 5.4.2.1.1.3. Le lissage exponentiel simple (ou lissage de Brown) Dans cette méthode, la prévision courante est calculée en effectuant la moyenne pondérée de la dernière prévision et la dernière réalisation : Yt= α Xt-1+ (1- α )Yt-1 Yt= Yt-1 + α ( Xt-1 –Yt-1) et −1 Yt= Yt-1+ α et −1 En effet, cette méthode consiste à corriger la dernière prévision par une partie de l’erreur. ¾ Le paramètre de lissage α doit vérifier la contrainte : 0 < α < 1 ¾ Un test sur les données historiques avec plusieurs valeur de α permet de choisir la valeur qui minimise les critères d’écart. ¾ Pour les applications de production un α =0.1 ou 0.2 recommandé. 5.4.2.1.2. Méthodes pour les historiques avec tendance Un historique avec tendance prend la forme suivante : X t = a + bt + ε t a , b : sont des constantes ε t : E( ε t )=0, σ (ε t ) = λ Xt t Fig.II.24 : Historique avec tendance -9- Les outils de gestion Prévision Il y a deux techniques de modélisation de tendance à considérer ici : 5.4.2.1.2.1. Méthode d’ajustement linéaire Cette méthode consiste à analyser un ensemble de données et d’en extraire la tendance sous forme d’équation linéaire de premier degré. Le modèle de prévision peut être représenté par l’équation suivant : Yt = a + bt Où a , b sont choisit de manière à optimiser le critère d’erreur quadratique moyenne : Eqm= 1 T 2 1 ∑ et = T T t =1 T ∑ (X t =1 t − Yt ) 2 La solution de ce problème d’optimisation (en utilisant Méthode de moindre carré) ramène à calculer a et b à la base des formules suivantes : T a= T T T ∑ tX t − ∑ t ∑ X t t =1 t =1 t =1 T∑t 2 − ∑t t =1 t =1 T T 2 b= T T t =1 t =1 ∑ X t − a∑ t T 5.4.2.1.2.2. Méthode de lissage de Holt « Lorsque les données historiques présentent une tendance (voire même des évolutions de tendance). Il est possible d’intégrer ce phénomène dans une approche par lissage » [1]. Pour t= 2..T les équations récurrentes sont alors les suivantes : a t = α Xt+(1- α )( a t −1 + b t −1 ) b t = β ( a t - a t −1 )+(1- β ) b t −1 Avec: ¾ 0< α , β <1 ¾ a1 =X1, b1 =0 (initialisation des coefficients) On note que la première équation ajoute la correction de tendance bt-1 par rapport au lissage simple tandis que la deuxième équation remet à jour l’estimation de la tendance. La prévision pour les périodes futures (t>T) sont directement obtenue par : Yt= aT + (t-T) b T - 10 - Les outils de gestion Prévision Pour une simulation de l’historique (2 ≤ t ≤ T) : Yt= a t + b t 5.4.2.1.3. Les méthodes pour les historiques saisonniers (Méthodes saisonnières) « Une série saisonnière est une série dont le patron se répète toutes les n périodes durant un certain nombre de périodes » [6] Xt N Saison t Fig.II.25 : Série saisonnière Un modèle saisonnier a la forme suivant : X t = (a + bt )C t mod T + ε t Avec : X t : la variable à prévoir a, b : Les paramètres de tendance. C0 , C1 ,...CT −1 : Les Coefficients saisonniers ε t : représente l’erreur E ( ε t )=0 σ (ε t ) = λ Le modèle saisonnier est caractérisé par le faite que chaque saison possède son propre coefficient saisonnier. On distingue deux méthodes pour les séries saisonnières : • Méthode de CMA (Moyenne mobile centré) • Méthode de Winters 5.4.2.1.3.1. Méthode de CMA ( Centered moving average)1 La méthode CMA consiste à désaisonnaliser la série en utilisant les coefficients saisonniers et appliquer l’une des méthodes précédentes puis introduire les coefficients saisonniers. 1 Cette méthode est bien détaillée avec un exemple dans la référence [11] - 11 - Les outils de gestion Prévision Elle comprend les étapes suivantes : ¾ Déterminer les coefficients saisonniers par la méthode de moyenne mobile centrée (voir Annexe) ¾ Dessaisonaliser les données ¾ Déterminer les paramètres de tendances ( a et b) ¾ Etablir les prévisions dessaisonalisées ¾ Introduire les coefficients saisonniers 5.4.2.1.3.2. Méthode de Winters « Ce modèle est une extension du lissage simple, permettant la prise en compte des phénomènes saisonniers ainsi que de la tendance ». [1] La forme générique des séries analysées par la méthode de Winters possède une tendance ascendante doublée d’une saisonnalité croissante comme démontrée dans la figure suivante : Xt Tendance Saison t Fig.II.26 : Série saisonnière avec augmentation de tendance En effet la méthode de Winters consiste à un triple lissage exponentiel, dont tous les paramètres du modèle ( a, b, c) sont mis à jours quand une nouvelle observation arrive. Les deux paramètres du modèle ( a, b ) sont mis à jour comme dans le lissage de Holt sauf que l’observation est d’abord dessaisonalisé. La combinaison entre les paramètres et le coefficient saisonnier dans une seule formule donne la prévision. - 12 - Les outils de gestion Prévision at = α ( xt / C t − S ) + (1 − α )(at −1 + bt −1 ) ……………….… (1) bt = β (at − at −1 ) + (1 − β )bt −1 ………………………….. (2) C t = γ ( xt / at ) + (1 − γ )C t − S ………………….……......... (3) Finalement, la prévision sera calculée selon la formule suivante : y t ,t +τ = (at + τbt )C t +τ − S Procédure d’initialisation des paramètres Les données de deux cycles au minimum sont nécessaires. Supposons que nous avons 2S points de données : X1,X2…..,Xs,….X2s Calculer la moyenne arithmétique de chaque cycle : V1 = 1 S ∑ Xi S i =1 V2 = 1 2S ∑ Xi S i = S +1 Définir b0 comme étant : b0= (V2-V1)/S (Si on a plus de 2 saisons (ex : m saisons) : b0 = Vm − V1 ) (m − 1) * S Définir a0 comme étant : a0 = V2 + b0 ( S −1 ) 2 Les facteurs saisonniers sont calculés selon l’équation suivante : Ct = Xt S +1 Vi − ( − j )b0 2 1 ≤ t ≤ 2S i : L’indice du cycle saisonnier comportant le facteur Ct j : L’indice du facteur dans le cycle saisonnier (ie : j=t mod S) Remarque : les facteurs saisonniers doivent être normalisés. (Même méthode que CMA) - 13 - Les outils de gestion Prévision 5.4.2.1.4 Méthode de Box et Jenkins (ARIMA) La méthode ARIMA (Autorégressifs intégrés moyenne mobile) développé par Box et Jenkins (1976) a gagné en popularité dans de nombreux domaines et en particulier dans celui de la recherche. Elle consiste à sélectionner un modèle de prévision parmi une classe de modèles stochastiques. Il s’applique à des séries longues dont la structure est suffisamment stable. 5.4.2.1.4.1. Les Concepts de base 5.4.2.1.4.1.1 Principe de stationnarité La théorie sur laquelle sont fondées les modèles ARIMA ne s’applique qu’aux données stationnaires, c'est-à-dire que la chronique ne doit comporter ni tendance en moyenne, ni tendance en variance, ni variation saisonnière. Des tests ont développées pour juger de la non stationnarité des séries2. Dans le cas ou la chronique n’est pas stationnaire, il y’a 3 cas pour la transformer en série stationnaire : - Présence d’une tendance en moyenne: -tendance linéaire : supprimer la tendance en pratiquant une différenciation de premier ordre (soustraire la série d’origine la série retardée d’une période) -tendance quadratique : une différenciation de second ordre est conseillée. -Présence d’une saisonnalité : On doit travailler avec la série désaisonnalisé, pour cela une différenciation de nombre de période d’une saison est appliquée au chronique. 5.4.2.1.4.1.2 Processus autorégressif Les séries chronologiques sont souvent constituées des éléments autocorrélés au sens ou il est possible de décrire les éléments consécutifs de la série par des éléments (passés) spécifiques décalés dans le temps. On peut synthétiser ce processus par l’équation : X t = φ1 X t −1 + φ 2 X t −2 + ....φ p X t − p + δ + et Où : δ est une constante 2 Pour plus de détails voir la référence [16] - 14 - Les outils de gestion Prévision φ1 ,....φ p Les paramètres du modèle autorégressif à estimer. 5.4.2.1.4.1.3 Processus de moyennes mobiles Dans le processus de moyennes mobiles, chaque élément de la chronique ne dépend pas des éléments antérieurs mais aux valeurs antérieures du terme d’erreurs .on peut également décrire ce processus par l’équation suivante : X t = µ + et − θ1et −1 − θ 2 et −2 − ....θ q et −q Où : µ est une constante θ1 ,θ 2 ,....θ q Les paramètres du processus de moyenne mobile. 5.4.2.1.4.1.4 Modèle autorégressif moyenne mobile : ARIMA (p,d,q) « Le modèle général présenté par Box et Jenkins comporte des paramètres autorégressif ainsi que des moyennes mobiles et comporte explicitement des différenciations dans la formulation du modèle» [19] Les trois types de paramètre du modèle sont : - nombre de paramètre autorégressif (p) - nombre de différenciation (d) - nombre de paramètre de moyenne mobile (q) À noter que dans le modèle autorégressif moyenne mobile les valeurs futurs dépendent à la fois des valeurs passées et des erreurs passées. Il peut être représenté par l’équation suivante : X t = φ1 X t −1 + φ 2 X t −2 + ....φ p X t − p + δ + et − θ1et −1 − θ 2 et −2 − θ 3 et −3 − ....θ p et −q 5.4.2.1.4.1.5 Fonction d’autocorrélation : ACF « L’autocorrélation d’ordre k d’une série chronologique est la corrélation entre cette série et elle-même avec un retard de k période» [15] Sa valeur est donnée par la formulation suivante : n−k rk = ∑ ( yt − y )( yt +k − y ) t =1 n −1 ∑ ( yt − y ) 2 t =1 - 15 - Les outils de gestion Prévision La fonction d’autocorrélation (ACF) est la suite des autocorrélations: r1,r2,….rn. Leur analyse est facilité par la représentation graphique (corrélogramme) suivante : 1,0 ACF 0,5 0,0 -0,5 -1,0 1 3 5 7 9 11 13 15 17 19 21 22 Coefficient Numéro de décalage Fig.II.27 : Exemple d’un corrélogramme 5.4.2.1.4.1.6 Fonction d’autocorrélation partielle: PACF « L’autocorrélation partielle est le coefficient de régression de Yt-k lorsque Yt est régressé par Yt-1, Yt-2,…,Yt-k. Le corrélogramme partiel (PACF) est le diagramme représentant la série des autocorrélations partielles » [1] Les autocorrélations partielles sont calculées selon les formules suivantes : λ 11* = r1 λ*22 = r2 − r12 1 − r12 λ*kj = λ*k −1, j − λ kk λ k −1, k − j rk − λ*kk = 1− k −1 ∑ λ k −1, j rk − j j =1 k −1 ∑ λ k −1, j r j j =1 - 16 - Les outils de gestion Prévision 1,0 PACF 0,5 0,0 -0,5 -1,0 1 3 5 7 9 11 13 15 17 19 21 22 Coefficient d’autocorrélation partielle Numéro de décalage Fig.II.28 : Exemple d’un corrélogramme 5.4.2.1.4.1.7 Brui Blanc La notion de bruit blanc concerne les erreurs (et) qui par hypothèse suivent une loi normale N(0 ; σ 2 ) . On parle de bruit blanc si les erreurs (et) sont stationnaires et non autocorrélés entre elles, qui implique qu’aucune corrélation significative ne doit apparaître sur le corrélogramme des résidus. 5.4.2.1.4.2 Méthodologie ARIMA On peut schématiser la méthodologie de fonctionnement de la méthode ARIMA par le schéma suivant : (1) Identifier un modèle (2) (3) Estimer Les paramètres Tester la validité du (4) (5) Valide Etablir des prévisions Non valide Changer le modèle Fig.II.29 : La Méthode de Box et Jenkins (ARIMA) (1) : Cette étape consiste à trouver les paramètres p et q du modèle en examinant les corrélogrammes et corrélogrammes partielles (2) : L’estimation des paramètres est obtenues généralement selon la méthode des moindre carrées - 17 - Les outils de gestion Prévision (3) et (4) : Une analyse des corrélogrammes et corrélogrammes partielles est nécessaire pour assurer que les résidus suivent un bruit blanc, dans le cas contraire on redéfinit le modèle ARIMA en changeant leurs paramètres (5) : Cette étape vise a élaborer les prévisions a partir du modèle choisi. 5.4.2.2. Les méthodes causales (ou associative) Ces méthodes se basent sur la recherche d’une relation entre la variable à prévoir (variable expliquée) et un ou plusieurs variables (explicatives). Le modèle de prévision a la forme suivante : Yt= a0 + a1 X1,+ a 2 X2,+…. a3 Xnt X1, X2,… Xn sont les variables explicatives a 0 , a1 ,....a n représentent les coefficients à estimer. Les méthodes causales faisant appel aux techniques de régression. on distingue deux techniques : ¾ Régression linéaire simple ; ¾ Régression linéaire multiple. 5.4.2.2.1. Modèle de Régression linéaire simple Il s’agit dans ce modèle d’estimer une variable expliquée Y dépend d’une seule variable explicative X. le modèle a la forme suivante : Y= a 0 + a1 X Les coefficients a0, a1 sont déterminés en minimisant le critère de l’écart quadratique moyenne (Eqm) : Eqm= 1 T T ∑ e2t = t =1 1 T T ∑ (X t =1 t − Yt ) 2 La solution d’optimisation donne : n a 0 = Y -a1 X X= ∑X i =1 n n xy − nx y a = ∑ ∑ x − n( x ) 1 2 Y= 2 - 18 - ∑Y i =1 n i i Les outils de gestion Prévision 5.4.2.2.2. Modèle de Régression linéaire multiple Il s’agit dans ce modèle d’estimer une variable expliquée Y qui est reliées à plusieurs variables explicatives X1,X2,…Xn. Y= a0 + a1 X1+ a 2 X2+… a3 Xn+ e Le modèle peut s’écrire sous forme matricielle : y1 y2 . . y T 1 x11 = 1 xT1 . . x1N a 0 a1 . . xTN a N +e La solution d’optimisation du critère de l’écart quadratique moyenne (Eqm) qui donne les coefficients a0,…aN est la suivante : A=(XtX)-1XtY X : la matrice des variables explicatives Xt : Transposé de X A : le vecteur des coefficients a 0 , a1 ,… a N Y : le vecteur des yi 5.4.2.2.2.1 Coefficients de détermination et de corrélation - Coefficient de détermination (r2) Il exprime le pourcentage de variable de Y expliqué par X . La variabilité totale expliquée par le modèle de régression est donnée par : T r2 = ∑ (a t =1 0 + a1 X 1,t + a 2 X 2,t + ........a n X n ,t − Y ) 2 T ∑ (Y t =1 t −Y) -1 ≤ r ≤ 1 2 - Coefficient de corrélation (r) Il exprime le degré de corrélation de Y et X , il mesure l’intensité d’une liaison linéaire entre la variable à prévoir et la forme linéaire retenue par la régression : - 19 - Les outils de gestion Prévision T r= ∑ (a t =1 0 + a1 X 1,t + a 2 X 2,t + ........a n X n ,t − Y ) 2 T ∑ (Y t t =1 ¾ − Y )2 1 : X et Y sont fortement corrélées (dépendantes) r r +1 : les deux séries accroissent et décroissent au même temps. r - 1 : si la série de première variable accroît la deuxième décroît et inversement ¾ r 0 : X et Y sont faiblement corrèle, cela signifie l’absence de Relation linéaire entre les deux variables 5.4.2.3. Méthode basée sur les réseaux de neurones 5.4.2.3.1 Introduction aux réseaux de neurones artificiels Un réseau de neurones est une approche inspirée du système nerveux humain. Introduit par le professeur Hal White (UC-San Diego) aux économistes en 1988, et définitivement apparue en 1994, les réseau de neurones montre une grande capacité de résoudre les problèmes de prévisions que les méthodes statistiques classiques grâce à sa puissance de capter les relations non linéaires existante dans les séries de données. 5.4.2.3.2 Définition de réseau de neurones Un réseau de neurones artificiel est un ensemble de neurones interconnectés entre eux de telle sorte que chaque connexion est munie par un poids. L’architecture du réseau est entièrement spécifiée par : • le nombre de cellules (une cellule représente un neurone) • le graphe d’interconnexion des cellules • le type de cellule (neurone d’entré, caché ou de sortie) - 20 - Les outils de gestion Prévision Le type de neurone permet de définir 3 types de couches : • Couche d’entré (contient les neurones d’entrés) • Couche cachée (contient les neurones cachés) • Couche de sortie (contient les neurones de sortie) Pour simuler un neurone sur un ordinateur, on a besoin d’un modèle mathématique de ce neurone : • Chaque neurone possède un ensemble d’entrées Xi • Chaque connexion entre deux neurones Xi ,Xj a un poids wji • La sortie d’un neurone est déterminée en appliquant une fonction de transfert sur la somme des produits de la connexion des entrées avec leurs poids (Fig. I.32) : N S k = f (∑ wkj xkj + bk ) ………………. (1) j =1 Où : f ( x) = 1 1 + e −x f : La fonction d’activation sigmoïde, il y’en a d’autres mais le sigmoïde est le plus utilisé. wkj : Le poids synaptique de la connexion entre le neurone j et k. xkj : L’entré de la neurone k depuis le neurone j. bk : Le biais N : Le nombre de neurone de la couche qui précède la couche contenant le neurone k. Bias b Entrées x1 W1 x2 W2 xm Wm Fonction d’activation ∑ f (−) Sortie y Poids synaptiques Fig.II.30 : Calcul de la sortie d’un neurone - 21 - Les outils de gestion Prévision Remarque Certains livres considèrent que la couche d’entrés en plus, et comme les cellules d’entrés ne supportent pas les fonctionnalités des cellules du réseau elle ne sera pas comptée parmi les couches de réseau. 5.4.2.3.3 Les réseaux de neurones multicouches MLP « Multiplayer Perceptron » En effet, il existe plusieurs types du réseau de neurones, mais comme nous intéressons aux problèmes de prévision, nous allons étudier le type le plus utilisé dans ce domaine. Il s’agit de réseaux de neurones multicouches (multiplayer) (MLP). Un réseau multicouche contient une couche d’entré, une couche de sortie et une ou plusieurs couche(s) caché(s) (Fig. I.33), chaque couche contient un nombre défini de neurones et chaque neurone de la couche L est connecté à tous les neurones le la couche L+1 avec un poids Wji de plus chaque neurone possède une extra entrée qui a pour valeur une constante, elle est appelée le biais. Entrés Couche A Entrés Couche A Couche B Couche B Couche C Sortie Connexion entre deux neurones Fig. I.31 : Réseau de neurone multicouche 5.4.2.3.3.1 Utilisation des réseaux MLP dans le cadre de prévision Comme tous les réseaux de neurones le fonctionnement des réseaux MLP comporte deux phases : une phase d’apprentissage et une autre de reconnaissance. Le premier consiste à entraîner les réseaux (selon un algorithme d’apprentissage) de reproduire des valeurs proche aux valeurs désirées selon un critère de performance donné tan disque l’autre consiste à transformer les nouvelles entrées aux valeurs prévues. - 22 - Les outils de gestion Prévision Dans notre cas, les entrés représentent l’historique de données (éventuellement les variables indépendantes) et la sortie représente la variable à prévoir (la variable dépendante). Ajustement des poids Entrées e1 e2 ee Réseau de Neurones n Sortie Erreur ∑ + Désiré d1, d2,.....dn Fig.II.32 : L’apprentissage du réseau de neurone 5.4.2.3.3.2 L’algorithme d’apprentissage Les MLP et beaucoup d’autres réseaux de neurones apprennent en utilisant un algorithme appelé ‘Retro propagation’ (back propagation). Avec la retro propagation la donnée est à plusieurs reprises présentée au RNN, a chaque présentation la sortie du RNN est comparée à la sortie désiré et une erreur est calculée, cette erreur est alors retro propager au RNN et employer pour ajuster les poids de façon à ce que l’erreur diminue à chaque itération et que le modèle neuronal arrive de plus en plus prés de la reproduction de la sortie désirée. 1- Initialisation des poids Wij à des petites valeurs aléatoires entre 0 et 1. 2- Présentation des données d’apprentissage et les sorties désirées (l’historique) 3- Alimentation-avant. Calcul des valeurs de sorties Sk (équation (1)) 4- Retropropagation de l’erreur Pour les poids de la couche de sortie : δ k = ( Dk − C k ) f ' ( x k ) N Pour les poids de la couche de cachée : δ j = f ' ( x j )∑ δ k wkj k =1 5- Ajustement des poids Pour les poids de la couche de sortie : wkj = wk j − αδ k y j Remarque Pour les poids de la couche de cachée : w ji = w ji − αδ j xi 6- Répéter les étapes 2 à 5 jusqu'à la convergence de l’algorithme. - 23 - Les outils de gestion Prévision α Représente le taux d’apprentissage, il a pour objectif de contrôler la rapidité de convergence de l’algorithme vers une solution optimal, il est compris entre 0.01 et 0.3 La convergence de l’algorithme est basée sur l’écart quadratique EC tel que : EC= 1 N ( Dk − C k ) 2 ∑ 2 k =1 5.4.2.3.3.3 Partition de la série de données La méthode typique pour l’utilisation des réseaux de neurones dans les problèmes de prévision, est d’abord de partitionner la série de données de l’historique en trois ensembles disjoints : les données d’apprentissage, les données de validation et celles de teste. Le réseau est entraîné sur les données d’apprentissage, sa capacité de généralisation est mesurée par les données de validation est sa capacité de prévision est mesurée par les données de test. La capacité de généralisation du réseau de neurones mesure le comportement du réseau avec les entrés imprévues. Un RNN qui produit une grande erreur de prévision pour les entrés imprévues mais une petite erreur pour les données d’apprentissage est dite d’avoir une capacité de généralisation pauvre. Pour contrôler ce phénomène, on est amené à suivre la tendance de l’erreur d’apprentissage et l’erreur de validation après chaque cycle d’apprentissage, si le premier a une tendance descendante et le deuxième a une tendance ascendante on abandonne l’apprentissage et réinitialiser l’algorithme à nouveaux paramètres. Erreur Erreur de validation Erreur d’apprentissage Meilleure performance en généralisation Itération Fig.II.33 : Evolution des courbes d’erreurs durant la phase d’apprentissage - 24 - Les outils de gestion Prévision 6. Exemple d’application Un gestionnaire d’une grande société de vente des produits informatiques désire suivre l’évolution des demandes sur les PC. Pour cela il veut utiliser l’outil Prévision pour établir la demande future (horizon de 4 mois) sur les PC. 5.1. Collecter les données L’historique des demandes mensuelles de l’année passée est représenté par le tableau suivant : Mois 1 Demande 200 2 3 4 5 6 7 8 9 10 11 12 220 330 580 340 320 400 410 450 500 600 650 6.2. Choisir une technique de prévision La représentation graphique de la série chronologique, montre qu’il y a une tendance linéaire ce qui nous ramène de choisir entre l’une des deux méthodes de l’historique avec tendance : Ajustement linéaire ou lissage de Holt, on va utiliser les deux méthodes et choisir la plus performante (critères d’écart). Xt 700 600 500 400 300 200 100 0 1 2 3 4 5 6 7 8 9 10 11 12 t Fig.II.34 : Représentation graphique de la série chronologique 6.3. Etablir les prévisions ¾ Méthode d’ajustement linéaire On a l’équation d’ajustement linéaire suivant : y = a + bt - 25 - Les outils de gestion Prévision Appliquant la méthode de moindre carré, on trouve : a =207,57 b = 32,16 D’où on déduit les prévisions des 4 mois suivant : Période Y 13 14 15 16 625.76 657.93 690.09 722.26 ¾ Méthode du lissage de Holt Le modèle de Holt est base sur les équations récurrentes suivantes : at = αxt + (1 − α )(at −1 + bt −1 ) bt = β (at − at −1 ) + (1 − β )bt −1 En initialisant at et bt par les paramètres trouvés par la méthode d’ajustement linéaire ( a et b ) et appliquant la récurrence jusqu’à trouver les prévisions des 4 mois futures, on obtient les résultats suivants : Période Y 13 14 15 16 624,4 665,47 706,54 747,61 Remarque : On a pris : α = 0,3 et β = 0,5 6.4. Calculer les écarts en se basant sur la simulation de l’historique L’application des deux méthodes aux données de l’historique donne : ¾ Méthode d’ajustement linéaire Période 1 2 3 4 5 6 7 8 9 X 200 220 330 580 340 320 400 410 450 Y 239,74 271,91 304,07 336,24 368,41 400,58 432,75 464,91 497,08 529,25 561,42 593,58 E=X-Y -39.74 -51,91 25,93 243,76 -28,41 -80,58 - 26 - -32,75 -54,91 -47,08 10 500 -29,25 11 600 38,58 12 650 56,42 Les outils de gestion Prévision ¾ Méthode du lissage de Holt Période 1 2 3 4 5 6 7 8 9 10 11 12 X 200 220 330 580 340 320 400 410 450 500 600 650 Y 196,91 243,76 322,49 491,21 514,66 495,85 492,33 480,5 479,65 497,1 554,76 624,4 E=X-Y 3,09 -23,76 7,51 88,77 -174,66 -175,87 -92,33 -70,5 -29,65 2,9 45,24 25,6 Les critères d’écart des deux méthodes : Méthode Ajustement ealm eabsm eqm σe cib -0,007 60,76 6956,52 83.405 42,93 -32,80 61,65 7252,63 85,16 104,66 linéaire Lissage de Holt On note que le premier modèle est plus performant et moins compliqué que le deuxième car l’écart algébrique moyen (Eqm) de celui-ci est inférieur à celui de l'autre, même chose pour le cib. 7. Conclusion La prévision est considérée parmi les outils mathématiques les plus importants dans le domaine de gestion. Les différentes méthodes de prévision, selon le contexte, peuvent donner une image du futur qui va aider les gestionnaires dans le processus de prise de la décision dans l’entreprise. - 27 - Les outils de gestion Prévision Bibliographie Livres et mémoires [1] : Armand Dayan. « Manuel de Gestion » Ellipses Edition Marketing S.A., 1999, paris. [2] : François KOLB, Vladimir BRIJATOFF « Planification et méthodes des prévisions dans l’entreprise» Edition du Tambourinaire, 1969, paris. [3] : Jean-Louis Brossard, Marc Polizzi « Gerer la production industrielle : Outils et méthodes » Edition Mare Nostrum, 1996. [4]: Mme.Hamdad « Analyse de données » Support de cours 4eme année (Système d’information), INI. Sites Web [5]: http://step.polymtl.ca/~scgi2002/docs/J_C_Nash_Fr.pdf [6]: http://www.gpa.etsmtl.ca/cours/gpa548/Chapitre2.pdf [7]: http://www.gmc.ulaval.ca/daouda/gmc10312.asp [8]: http://www.ifresi.univ-lille1.fr/PagesHTML/delmas/fichCVS.pdf [9]: http://www-marketing.wharton.upenn.edu/forecast/LongRange%20Forecasting/contents.html [10]: http://www.gmc.ulaval.ca/cours/65270/Pr%C3%A9visions2001.pdf [11]: http://www.zozoll-online.com/cours/p4/amphi%20calcul%20%C3%A9 conomique.doc [12]: http://step.polymtl.ca/~scgi2002/docs/J_C_Nash_Fr.pdf [13]: http://www.ensmp.fr/Fr/Formation/2emeCycle/IngCivil/Intro/ Actu2/SysProd/Prevision.pdf [14]: http://www.cs.stir.ac.uk/~lss/NNIntro/InvSlides.html [15]: http://christophe.benavent.free.fr/cours/dea/dea5.PDF [16]: http://condor.ucr.edu/class/mohsen/mgt267f03/_private/Introduction.pdf - 28 -