OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION

Transcription

OUTILS DE PREVISION DE LA VITESSE DE VENT : APPLICATION
OUTILS DE PREVISION DE LA VITESSE DE VENT :
APPLICATION A LA CARACTERISATION ET A L’OPTIMISATION DES
CENTRALES EOLIENNES POUR L'INTEGRATION DANS LES RESEAUX
ELECTRIQUES A MADAGASCAR.
Andriamahitasoa Bernard Andriamparany, Ravelomanampy Donat Hervé, Randriamanantany
Zely Arivelo, Phillipe Lauret.
Laboratoire de Thermodynamique, Thermique et Combustion (LTTC), Faculté des Sciences
Université d’Antananarivo.
Résumé
Face aux problèmes énergétiques à Madagascar, l'énergie éolienne est parmi les sources
endogènes les plus prometteuses sur le littorale Nord et EST de l’ile. Cependant, la promotion
de cette source nécessite la connaissance de sa potentialité, mais dans la plupart des cas, elles
ne sont pas disponibles à cause de l’inexistence des stations de mesure. Ainsi, nous proposons
dans cet article des techniques de prévision non-linéaires de la vitesse de vent afin de
l’intégrer dans le Réseau Interconnecté (RI) existant sur l’ile. Parmi ces techniques, nous
avons choisi le modèle Neurologique Artificiel Bayesien (NN) et le Processus Gaussien (GP)
qui sont en particulier prédominant dans le domaine de prévisions.
Mots-clés: Prévision de la vitesse de vent, Réseaux neurologiques bayesiens, Processus
Gaussien.
1- Introduction
Face aux problèmes énergétiques à Madagascar, l'énergie éolienne est parmi les sources
endogènes les plus prometteuses sur le littorale Nord et EST de l’ile. En effet, cette source
couplée aux réseaux interconnectés pourrait subvenir d’une part, aux besoins en matière
d’énergies de toute la côte Est, et d’autre part, à atteindre un objectif de la promotion des
énergies renouvelables sur l’ile.
Cependant, la promotion de cette source nécessite la connaissance de sa potentialité, mais
dans la plupart des cas, elles ne sont pas disponibles à cause de l’inexistence des stations de
mesure. Ainsi, nous proposons dans cet article des techniques de prévision non-linéaires de la
vitesse de vent afin de l’intégrer dans le Réseau Interconnecté (RI) existant sur l’ile. Parmi ces
techniques, l'utilisation du modèle Neurologique Artificiel Bayesien (NN) et du Processus
Gaussien (GP) ([1], [2]).
Nous avons développé un arrangement à court terme adaptatif de prévision de la vitesse qui
emploie les NNs et le GP comme prédicateur. Ces méthodes de prévision permet, à n'importe
quel temps donné t, pour trouver une évaluation de la vitesse à V(t + t), avec l'étape de
prévision (ici, en jours pour des données journalières) et t est un nombre entier.
Pour les résultats, à titre d’illustration, nous présentons la prévision en disposant les données
rassemblées dans la zone d’Antananarivo couvrant l’année 2003 à 2005 et constituante une
base de données de 1096 jours (Données IOGA).
2- Contexte de l’étude
Les réseaux neurologiques sont les modèles non linéaires utilisés pour la régression [3].
Cependant, comme indiqué par ([4], [5], les NNs sont des modèles flexibles mais concevoir
un NN pour une application particulière est loin d’être facile. En effet, les NNs peuvent
rapprocher n'importe quelle fonction continue à une exactitude arbitraire, si le nombre de
neurones cachés est suffisant [6].
Dans cet article, nous proposons d'abord une approche neurologique en employant la
technique classique et l’inférence bayesienne. MacKay [7] a développé la Méthode
bayesienne pour les NNs offrant des avantages significatifs par rapport à l’apprentissage
classique [8]. Cependant, beaucoup d'approximations doivent être faites dans l’approche
bayesienne. Réciproquement, les GPs [9] sont des méthodes puissantes pour la régression où
la plupart des calculs sont analytiquement faisable.
3- Réseau Neurologique (NN)
3-1- Réseau classique
La forme la plus populaire des NNs est la structure multicouche de Perceptron (MLP). Le
MLP se compose d'une couche d'entrée, une ou plusieurs couches cachées et une couche de
sorite. La couche d'entrée recueille tous les vecteurs xi des entrées du modèle tandis que la
couche de sortie rapporte celui de y. Dans notre cas, y est la sortie qui correspond la prévision
de la vitesse de vent du jour suivant.
Fig. 1. MLP avec des entrées xi, des neurones cachées h et la sorite y qui est la prévision de
la vitesse de vent du jour suivant.
Tous les neurones d'une couche donnée, sauf ceux de la dernière couche, émettent une
connexion vers chaque neurone de la couche en aval. Les neurones des couches cachées sont
caractérisés par la fonction d'activation qui est généralement une fonction tangente
hyperbolique :
f ( x )  (e x  e  x ) /(e x  e  x )
Par conséquent, Avec xi entrées et h neurones cachés, la sortie linéaire y s’exprime à travers
l’équation :
y  f ( )  y ( xi , w)
Où le paramètre v appelé "potentiel", lié au biais w0 par la relation :
h
  w0  
j 1
d
w
i 1
ji
xi
Les paramètres du NN (dont les poids w ji ) sont estimés pendant une phase appelée phase
d’apprentissage. La deuxième phase, appelée la phase de généralisation, consiste en évaluant
la capacité du NN de généraliser, c'est-à-dire, donnez les prévisions correctes quand elle est
confrontée avec de nouveaux exemples d'entrée.
Nous tenons à faire remarquer que pendant l'apprentissage si le modèle est trop complexe,
cela peut engendrer des mauvaises prédictions : le « surapprentissage ». L'approche
bayesienne offre des avantages sur ce contrôle de complexité.
3-2- L’approche Bayesienne
L'approche bayesienne consiste à déterminer la distribution de probabilité (pdf). Ce pdf
représente les degrés de croyance pris par les différentes valeurs de poids. L’estimation des
paramètres neuronaux par inférence bayesienne consiste à déterminer la distribution de
probabilité à posteriori, à partir de la distribution de probabilité à priori et de la fonction de
vraisemblance [8] par l'utilisation de la règle de Bayes :
P(a b)  P(b a) P(a) / P(b)
Ainsi, les méthodes bayesienne rapportent une distribution complète pour les paramètres du
NN. Dans cette étude, l'inférence bayesienne est basée sur les paramètres représentés dans le
Tableau 1.
Tableau 1 : Inférence bayesienne (NN)
Libellé
Formulation
n*
n
Données
D  xi , ti i1 et D*  xi* , ti* i1


ti  y ( xi ; w)   i
Modèle
c.-à-d.  i suit la distribution de Gauss
moyenne zéro et variance  2
Remarques
Apprentissage ( n
échantillons) et test ( n*
échantillons)
Nous supposons que les y
cible est donné par une
certaine fonction
déterministe du vecteur
xi d'entrées avec le bruit
gaussien supplémentaire
i
Fonction de
vraisemblan
ce
Fonction à
priori
Fonction à
posteriori
Prédictions
Puisque nous avons choisi
un bruit gaussien, la
fonction de vraisemblance
est
aussi gaussienne.
Règle de Bayes
Faites les prévisions pour
le test en faisant la
moyenne
de toutes les valeurs de
poids par leur probabilité
postérieure.
Il est important de noter que dans un contexte de multiparamètres tel que les NNs (la
dimension des poids est grande), l'évaluation des poids ne peut pas être analytiquement
exécutée. MacKay [7] a proposé l'approximation appelée le cadre d'évidence afin de
surmonter ce problème.
4- Processus gaussien
Beaucoup de chercheurs se rendaient compte que les réseaux neurologiques n'étaient pas aussi
faciles aux réseaux neurologiques appliquez dans la pratique, en raison des nombreuses
décisions qui ont dû être prises: quelle architecture, quelle fonction d’activation, etc. GPs sont
des développements relativement récents pour les modèles non linéaires [9]. GPs sont bien
convenus à la régression et à l'approximation proposé par MacKay [7] qui peuvent être fait
analytiquement.
Un processus gaussien est une généralisation de la distribution gaussienne de probabilité [9].
Une distribution gaussienne est indiquée par une moyenne µ et la matrice de covariance :
De même, un GP est entièrement indiqué par une fonction moyenne m(x) et la matrice de
covariance :
Le Tableau 2 donne une vue d'ensemble sur les formulations des calculs :
Tableau 2 : Formulation GPs
Libellé
Données
et
Formulation
Remarques
Apprentissage et
Test
Prédiction de la
distribution
gaussienne pour
le test.
Prédictions
Matrice de
covariance
s’il y a
échantillons d’apprentissage et
représente la matrice de covariance
x
test.
.
5- Résultats
Pour évaluer la performance des modèles, des exécutions ont été évalués en rapportant leurs
erreurs MAE et RMSE. Nous avons reparti les valeurs n=731 jours, qui ont été employées
pour l’apprentissage des modèles. Le reste des données ont été employés pour le test (n = 365
échantillons).
Le Tableau 3 énumère l'exécution des modèles obtenus sur les ensembles d’apprentissage et
de test avec horizon t = 1. On peut voir, l'ajustement est bon sur l’apprentissage et sur le test
pour le modèle classique avec 10 neurones cachés (ligne 1 du Tableau 3). Nous avons pris la
même structure de NN en employant l'approche bayesienne.
Tableau 3 : Résultats
Modèle
RMSE
MAE
Apprentissage Apprentissage
(m/s)
(m/s)
Classique NN
0.2364
0.1881
Bayes NN
0.1870
0.1542
GP
0.1874
0.1544
RMSE
Test (m/s)
MAE
Test (m/s)
CPU
Temps (s)
0.2678
0.2119
0.2107
0.2188
0.1722
0.1711
1.77
7.16
111.63
Le Tableau 3 (ligne 2) montre clairement l'amélioration apportée par la méthode bayesienne.
Cependant, l'approche exige plus de performance CPU pour le cadre évidence qui a besoin de
plus d'itérations pour trouver la complexité optimale. Le GP (ligne 3 du Tableau 3) mène
encore à une exécution plus améliorée en test, même si il nécessite plus de performance CPU.
Les Fig. 2.1 et 2.2 montrent les prévisions du modèle GP sur l'ensemble de test (avec vue
large).
6
5.5
WIND SPEED (m/s)
5
4.5
4
3.5
3
2.5
0
50
100
150
200
250
X (Days)
300
350
400
Fig. 2.1 Prévisions du modèle GP. La ligne solide indique une évaluation de la moyenne de y
Avec l’intervalle de confiance 95%.
(a) Training set
5.5
5.5
5
5
4.5
4.5
4
4
3.5
3.5
3
3
3.5
4
4.5
X
5
(b) Test set
6
Y
Y
6
5.5
6
3
3
3.5
4
4.5
X
5
5.5
6
Fig. 2.2 Droite de régression en apprentissage et en test du modèle GP.
Ainsi, nous avons choisi le meilleurs modèle, le GP pour mener successivement l’étude sur
les horizons t = 3 et t = 6. Les Fig. 3.1 et 3.2 montrent les performances des prévisions sur
ces horizons.
10
9
8
WIND SPEED (m/s)
7
6
5
4
3
2
1
0
0
50
100
150
200
X (Days)
250
300
350
400
Fig. 3.1 Prévisions du modèle GP avec les horizons t = 3. (RMSE = 0.3523 et MAE =
0.2852).
10
9
8
WIND SPEED (m/s)
7
6
5
4
3
2
1
0
0
50
100
150
200
X (Days)
250
300
350
400
Fig. 3.2 Prévisions du modèle GP avec les horizons t = 6. (RMSE = 0.4291 et MAE =
0.3470).
Ainsi, les modèles peuvent prévoir jusqu’à un certaines valeurs de t. Ici, avec t = 3 (Fig.
3.1), le GP arrive à ajuster les données mesurées.
6- Conclusion
Dans ce travail, nous avons proposé trois modèles pour la prévision de la vitesse de vent. On a
montré que, à la différence des techniques classique de NN, la méthode bayesienne peut
traiter tout à fait efficacement le modèle plus complexe (et donc éviter le problème de
surapprentissage). L'inconvénient principal du NN bayesien provient du fait que beaucoup
d'approximations doivent être faites afin d'évaluer numériquement les intégrales au niveau des
paramètres de poids. Réciproquement, GPs offre un autre point de vue en rendant les calculs
des approximations de Mackay [7] faisable analytiquement. Les travaux futurs seront
consacrés à la conception des modèles robustes avec des données horaires de l’ile.
Références
[1] Ruddy Blonbou, Stéphanie Monjoly, Rudy Calif. Advanced tools for wind power
integration into electrical networks Geosciences and Energy Research Laboratory, French
West-Indies and Guyana University, Guadeloupe, France, [email protected].
[2] Philippe Lauret, Mathieu David, Didier Calogine. Nonlinear Models for Short-time Load
Forecasting ICAEE 2011.
[3] Bishop, CM. Neural networks for pattern recognition. s.l. : Oxford University Press, 1995.
[4] Hippert HS, Pedreira CE, Souza RC. Neural networks for short-term load forecasting: a
review and evaluation. IEEE transactions on power systems 2001;16:45-55.
[5] Zhang G, Patuwo BE, Hu MY. Forecasting with neural networks. International journal of
forecasting 1998;14:35-62.
[6] Hornik K, Stinchcombe M, White H. Multilayer feedforward networks are universal
approximators. Neural Networks 1989;2:359-366.
[7] MacKay DJC. A practical Bayesian framework for back-propagation networks. Neural
computation 1992;4: 448-472.
[8] Lauret P et al.. Bayesian neural network approach to short time load forecasting. Energy
Conversion and Management, 2008;49:1156-1166.
[9] Rasmussen CE, Williams C. Gaussian Processes for Machine Learning. MIT Press; 2006.