OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION
Transcription
OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION
OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION A LA CARACTERISATION ET A L’OPTIMISATION DES CENTRALES EOLIENNES POUR L'INTEGRATION DANS LES RESEAUX ELECTRIQUES A MADAGASCAR. Andriamahitasoa Bernard Andriamparany, Ravelomanampy Donat Hervé, Randriamanantany Zely Arivelo, Phillipe Lauret. Laboratoire de Thermodynamique, Thermique et Combustion (LTTC), Faculté des Sciences Université d’Antananarivo. Résumé Face aux problèmes énergétiques à Madagascar, l'énergie éolienne est parmi les sources endogènes les plus prometteuses sur le littorale Nord et EST de l’ile. Cependant, la promotion de cette source nécessite la connaissance de sa potentialité, mais dans la plupart des cas, elles ne sont pas disponibles à cause de l’inexistence des stations de mesure. Ainsi, nous proposons dans cet article des techniques de prévision non-linéaires de la vitesse de vent afin de l’intégrer dans le Réseau Interconnecté (RI) existant sur l’ile. Parmi ces techniques, nous avons choisi le modèle Neurologique Artificiel Bayesien (NN) et le Processus Gaussien (GP) qui sont en particulier prédominant dans le domaine de prévisions. Mots-clés: Prévision de la vitesse de vent, Réseaux neurologiques bayesiens, Processus Gaussien. 1- Introduction Face aux problèmes énergétiques à Madagascar, l'énergie éolienne est parmi les sources endogènes les plus prometteuses sur le littorale Nord et EST de l’ile. En effet, cette source couplée aux réseaux interconnectés pourrait subvenir d’une part, aux besoins en matière d’énergies de toute la côte Est, et d’autre part, à atteindre un objectif de la promotion des énergies renouvelables sur l’ile. Cependant, la promotion de cette source nécessite la connaissance de sa potentialité, mais dans la plupart des cas, elles ne sont pas disponibles à cause de l’inexistence des stations de mesure. Ainsi, nous proposons dans cet article des techniques de prévision non-linéaires de la vitesse de vent afin de l’intégrer dans le Réseau Interconnecté (RI) existant sur l’ile. Parmi ces techniques, l'utilisation du modèle Neurologique Artificiel Bayesien (NN) et du Processus Gaussien (GP) ([1], [2]). Nous avons développé un arrangement à court terme adaptatif de prévision de la vitesse qui emploie les NNs et le GP comme prédicateur. Ces méthodes de prévision permet, à n'importe quel temps donné t, pour trouver une évaluation de la vitesse à V(t + t), avec l'étape de prévision (ici, en jours pour des données journalières) et t est un nombre entier. Pour les résultats, à titre d’illustration, nous présentons la prévision en disposant les données rassemblées dans la zone d’Antananarivo couvrant l’année 2003 à 2005 et constituante une base de données de 1096 jours (Données IOGA). 2- Contexte de l’étude Les réseaux neurologiques sont les modèles non linéaires utilisés pour la régression [3]. Cependant, comme indiqué par ([4], [5], les NNs sont des modèles flexibles mais concevoir un NN pour une application particulière est loin d’être facile. En effet, les NNs peuvent rapprocher n'importe quelle fonction continue à une exactitude arbitraire, si le nombre de neurones cachés est suffisant [6]. Dans cet article, nous proposons d'abord une approche neurologique en employant la technique classique et l’inférence bayesienne. MacKay [7] a développé la Méthode bayesienne pour les NNs offrant des avantages significatifs par rapport à l’apprentissage classique [8]. Cependant, beaucoup d'approximations doivent être faites dans l’approche bayesienne. Réciproquement, les GPs [9] sont des méthodes puissantes pour la régression où la plupart des calculs sont analytiquement faisable. 3- Réseau Neurologique (NN) 3-1- Réseau classique La forme la plus populaire des NNs est la structure multicouche de Perceptron (MLP). Le MLP se compose d'une couche d'entrée, une ou plusieurs couches cachées et une couche de sorite. La couche d'entrée recueille tous les vecteurs xi des entrées du modèle tandis que la couche de sortie rapporte celui de y. Dans notre cas, y est la sortie qui correspond la prévision de la vitesse de vent du jour suivant. Fig. 1. MLP avec des entrées xi, des neurones cachées h et la sorite y qui est la prévision de la vitesse de vent du jour suivant. Tous les neurones d'une couche donnée, sauf ceux de la dernière couche, émettent une connexion vers chaque neurone de la couche en aval. Les neurones des couches cachées sont caractérisés par la fonction d'activation qui est généralement une fonction tangente hyperbolique : f ( x ) (e x e x ) /(e x e x ) Par conséquent, Avec xi entrées et h neurones cachés, la sortie linéaire y s’exprime à travers l’équation : y f ( ) y ( xi , w) Où le paramètre v appelé "potentiel", lié au biais w0 par la relation : h w0 j 1 d w i 1 ji xi Les paramètres du NN (dont les poids w ji ) sont estimés pendant une phase appelée phase d’apprentissage. La deuxième phase, appelée la phase de généralisation, consiste en évaluant la capacité du NN de généraliser, c'est-à-dire, donnez les prévisions correctes quand elle est confrontée avec de nouveaux exemples d'entrée. Nous tenons à faire remarquer que pendant l'apprentissage si le modèle est trop complexe, cela peut engendrer des mauvaises prédictions : le « surapprentissage ». L'approche bayesienne offre des avantages sur ce contrôle de complexité. 3-2- L’approche Bayesienne L'approche bayesienne consiste à déterminer la distribution de probabilité (pdf). Ce pdf représente les degrés de croyance pris par les différentes valeurs de poids. L’estimation des paramètres neuronaux par inférence bayesienne consiste à déterminer la distribution de probabilité à posteriori, à partir de la distribution de probabilité à priori et de la fonction de vraisemblance [8] par l'utilisation de la règle de Bayes : P(a b) P(b a) P(a) / P(b) Ainsi, les méthodes bayesienne rapportent une distribution complète pour les paramètres du NN. Dans cette étude, l'inférence bayesienne est basée sur les paramètres représentés dans le Tableau 1. Tableau 1 : Inférence bayesienne (NN) Libellé Formulation n* n Données D xi , ti i1 et D* xi* , ti* i1 ti y ( xi ; w) i Modèle c.-à-d. i suit la distribution de Gauss moyenne zéro et variance 2 Remarques Apprentissage ( n échantillons) et test ( n* échantillons) Nous supposons que les y cible est donné par une certaine fonction déterministe du vecteur xi d'entrées avec le bruit gaussien supplémentaire i Fonction de vraisemblan ce Fonction à priori Fonction à posteriori Prédictions Puisque nous avons choisi un bruit gaussien, la fonction de vraisemblance est aussi gaussienne. Règle de Bayes Faites les prévisions pour le test en faisant la moyenne de toutes les valeurs de poids par leur probabilité postérieure. Il est important de noter que dans un contexte de multiparamètres tel que les NNs (la dimension des poids est grande), l'évaluation des poids ne peut pas être analytiquement exécutée. MacKay [7] a proposé l'approximation appelée le cadre d'évidence afin de surmonter ce problème. 4- Processus gaussien Beaucoup de chercheurs se rendaient compte que les réseaux neurologiques n'étaient pas aussi faciles aux réseaux neurologiques appliquez dans la pratique, en raison des nombreuses décisions qui ont dû être prises: quelle architecture, quelle fonction d’activation, etc. GPs sont des développements relativement récents pour les modèles non linéaires [9]. GPs sont bien convenus à la régression et à l'approximation proposé par MacKay [7] qui peuvent être fait analytiquement. Un processus gaussien est une généralisation de la distribution gaussienne de probabilité [9]. Une distribution gaussienne est indiquée par une moyenne µ et la matrice de covariance : De même, un GP est entièrement indiqué par une fonction moyenne m(x) et la matrice de covariance : Le Tableau 2 donne une vue d'ensemble sur les formulations des calculs : Tableau 2 : Formulation GPs Libellé Données et Formulation Remarques Apprentissage et Test Prédiction de la distribution gaussienne pour le test. Prédictions Matrice de covariance s’il y a échantillons d’apprentissage et représente la matrice de covariance x test. . 5- Résultats Pour évaluer la performance des modèles, des exécutions ont été évalués en rapportant leurs erreurs MAE et RMSE. Nous avons reparti les valeurs n=731 jours, qui ont été employées pour l’apprentissage des modèles. Le reste des données ont été employés pour le test (n = 365 échantillons). Le Tableau 3 énumère l'exécution des modèles obtenus sur les ensembles d’apprentissage et de test avec horizon t = 1. On peut voir, l'ajustement est bon sur l’apprentissage et sur le test pour le modèle classique avec 10 neurones cachés (ligne 1 du Tableau 3). Nous avons pris la même structure de NN en employant l'approche bayesienne. Tableau 3 : Résultats Modèle RMSE MAE Apprentissage Apprentissage (m/s) (m/s) Classique NN 0.2364 0.1881 Bayes NN 0.1870 0.1542 GP 0.1874 0.1544 RMSE Test (m/s) MAE Test (m/s) CPU Temps (s) 0.2678 0.2119 0.2107 0.2188 0.1722 0.1711 1.77 7.16 111.63 Le Tableau 3 (ligne 2) montre clairement l'amélioration apportée par la méthode bayesienne. Cependant, l'approche exige plus de performance CPU pour le cadre évidence qui a besoin de plus d'itérations pour trouver la complexité optimale. Le GP (ligne 3 du Tableau 3) mène encore à une exécution plus améliorée en test, même si il nécessite plus de performance CPU. Les Fig. 2.1 et 2.2 montrent les prévisions du modèle GP sur l'ensemble de test (avec vue large). 6 5.5 WIND SPEED (m/s) 5 4.5 4 3.5 3 2.5 0 50 100 150 200 250 X (Days) 300 350 400 Fig. 2.1 Prévisions du modèle GP. La ligne solide indique une évaluation de la moyenne de y Avec l’intervalle de confiance 95%. (a) Training set 5.5 5.5 5 5 4.5 4.5 4 4 3.5 3.5 3 3 3.5 4 4.5 X 5 (b) Test set 6 Y Y 6 5.5 6 3 3 3.5 4 4.5 X 5 5.5 6 Fig. 2.2 Droite de régression en apprentissage et en test du modèle GP. Ainsi, nous avons choisi le meilleurs modèle, le GP pour mener successivement l’étude sur les horizons t = 3 et t = 6. Les Fig. 3.1 et 3.2 montrent les performances des prévisions sur ces horizons. 10 9 8 WIND SPEED (m/s) 7 6 5 4 3 2 1 0 0 50 100 150 200 X (Days) 250 300 350 400 Fig. 3.1 Prévisions du modèle GP avec les horizons t = 3. (RMSE = 0.3523 et MAE = 0.2852). 10 9 8 WIND SPEED (m/s) 7 6 5 4 3 2 1 0 0 50 100 150 200 X (Days) 250 300 350 400 Fig. 3.2 Prévisions du modèle GP avec les horizons t = 6. (RMSE = 0.4291 et MAE = 0.3470). Ainsi, les modèles peuvent prévoir jusqu’à un certaines valeurs de t. Ici, avec t = 3 (Fig. 3.1), le GP arrive à ajuster les données mesurées. 6- Conclusion Dans ce travail, nous avons proposé trois modèles pour la prévision de la vitesse de vent. On a montré que, à la différence des techniques classique de NN, la méthode bayesienne peut traiter tout à fait efficacement le modèle plus complexe (et donc éviter le problème de surapprentissage). L'inconvénient principal du NN bayesien provient du fait que beaucoup d'approximations doivent être faites afin d'évaluer numériquement les intégrales au niveau des paramètres de poids. Réciproquement, GPs offre un autre point de vue en rendant les calculs des approximations de Mackay [7] faisable analytiquement. Les travaux futurs seront consacrés à la conception des modèles robustes avec des données horaires de l’ile. Références [1] Ruddy Blonbou, Stéphanie Monjoly, Rudy Calif. Advanced tools for wind power integration into electrical networks Geosciences and Energy Research Laboratory, French West-Indies and Guyana University, Guadeloupe, France, [email protected]. [2] Philippe Lauret, Mathieu David, Didier Calogine. Nonlinear Models for Short-time Load Forecasting ICAEE 2011. [3] Bishop, CM. Neural networks for pattern recognition. s.l. : Oxford University Press, 1995. [4] Hippert HS, Pedreira CE, Souza RC. Neural networks for short-term load forecasting: a review and evaluation. IEEE transactions on power systems 2001;16:45-55. [5] Zhang G, Patuwo BE, Hu MY. Forecasting with neural networks. International journal of forecasting 1998;14:35-62. [6] Hornik K, Stinchcombe M, White H. Multilayer feedforward networks are universal approximators. Neural Networks 1989;2:359-366. [7] MacKay DJC. A practical Bayesian framework for back-propagation networks. Neural computation 1992;4: 448-472. [8] Lauret P et al.. Bayesian neural network approach to short time load forecasting. Energy Conversion and Management, 2008;49:1156-1166. [9] Rasmussen CE, Williams C. Gaussian Processes for Machine Learning. MIT Press; 2006.