Chapitre V Identification des modèles de procédés : les - GIPSA-lab

Transcription

Chapitre V Identification des modèles de procédés : les - GIPSA-lab
Chapitre V
Identification des modèles de procédés : les bases
Version 1/10.11.2002
I.D. Landau Commande des systèmes, Chapitre 5
1
Chapitre 5. Identification des modèles de procédés : les bases
5.1 Principes de l'identification des modèles de procédés
5.2 Algorithmes pour l’estimation paramétrique
5.2.1 Introduction
5.2.2 Algorithme du gradient
5.2.3 Algorithme des moindres carrés
5.2.4 Choix du gain d'adaptation
5.3 Choix de la séquence d'entrée pour l'identification
5.3.1 Le problème
5.3.2 Séquences binaires pseudo-aléatoires (S.B.P.A.)
5.4 Effets des perturbations aléatoires sur l'identification
5.5 Structure des méthodes d'identification récursives
5.6 Conclusion
5.7 Notes et indications bibliographiques
I.D. Landau Commande des systèmes, Chapitre 5
2
Conception et calcul d’un régulateur
SPECIFICATION
DES
CALCUL
DU
PERFORMANCES REGULATEUR
REGULATEUR
MODELE
DU
PROCEDE
PROCEDE
+
-
Pour concevoir et ajuster un « bon » régulateur if faut :
1) Spécifier les performances
2) Connaître le modèle du procédé (modèle de commande)
3) Disposer d’un méthode appropriée de calcul
Identification = opération de détermination du modèle dynamique
(de commande) d’un procédé à partir de donnée expérimentales
I.D. Landau Commande des systèmes, Chapitre 5
3
Modélisation des procédés
Modèles de connaissance
Utilisation: simulation et conception de procédés
Modèles dynamiques de commande (entrée-sortie)
Utilisation : conception et calcul des régulateurs
non paramétriques
(ex: réponses fréquentielles ou temporelles)
Modèles dynamiques
paramétriques
(ex:fonction de transfert)
Modèles paramétriques
continus
échantillonnés
On s’intéresse par la suite à l’identification des modèles paramétriques échantillonnés
I.D. Landau Commande des systèmes, Chapitre 5
4
Méthodologie de l’identification
Acquisition de données E/S
sous protocole
prétraitement de données
Estimation dela compléxité
du Modèle (ou Choix)
Choix du modèle de bruit
Estimation Paramétrique
Validation du Modèle
Non
Oui
Calcul
Régulateur
Il faut voir l’identification comme une procédure itérative dont
l’objectif est l’obtention d’un modèle qui « valide »
I.D. Landau Commande des systèmes, Chapitre 5
5
Identification par calculateur numérique
1)Acquisition
entrée: séquence binaire pseudo aléatoire de faible amplitude
2)Estimation de la complexité du modèle (algorithmes)
3)Estimation des paramètres du modèle (estimation récursive)
PROCEDE DISCRETISE
u(t)
y(t)
C.N.A.
+
PROCEDE
C.A.N.
B.O.Z.
+
ε(t)
modèle
échantillonné
y(t)
-
ajustable
paramètres
du modèle
algorithme
d'adaptation
paramétrique
4) Validation du modèle identifié
Tests statistiques sur ε(t) et ^y(t)
I.D. Landau Commande des systèmes, Chapitre 5
6
Caractéristiques de l’identification par calculateur numérique
• Signaux de tests de faible amplitude
• Excellente précision d’identification
• Critère objectifs de validation
• Possibilité de suivre les variations des paramètres du procédé
• Identification des modèles des perturbations
Autres applications (liste non exhaustive)
• Modélisation des bruits « capteurs » (en vue de suppression)
• Détection et mesure des modes de vibrations
(fréquence et amortissement)
• Analyse spectrale des signaux
• Détection préventive des pannes
I.D. Landau Commande des systèmes, Chapitre 5
7
Identification (estimation) paramétrique récursive
Algorithme d’adaptation paramétrique (AAP)
Vecteur des paramètres = contient l’ensemble des paramètres à identifier
 Nouvelle estimation Estimation précédente
 des paramètres  =  des paramètres  +

 


 

(vecteur)
(vecteur)
Fonction
 Gain
  Fonction  

d' adaptation × des mesures × de l' erreur de prédiction

 
 

 (matrice)   (vecteur)  

(scalaire)
Vecteur des
observations
I.D. Landau Commande des systèmes, Chapitre 5
8
Identification (estimation) paramétrique
Estimation paramétrique non récursive:
Traitement des entrées/sorties par paquets obtenus sur un horizon de temps.
Pas d’estimation des paramètres pendant l’acquisition ou la lecture du fichier
Estimation paramétrique non récursive:
Traitement d’une paire d’entrées/sorties à chaque pas d’échantillonnage.
(pendant l’acquisitione (temps réel )ou lors de la lecture d’un fichier de données).
Estimation des paramètres a chaque pas d’échantillonnage
Avantages de l’estimation paramétrique récursive
• Obtention d’une estimation du modèle à fur et à mesure que le procédé évolue
• Compression importante des données
• Nécessite moins de puissance de calcul et de mémoire
• Mise en œuvre facile sur microprocesseurs
• Identification temps réel si nécessaire
• Possibilité de poursuite des paramètres variables dans le temps
I.D. Landau Commande des systèmes, Chapitre 5
9
Algorithmes pour l’estimation paramétrique
Modèle discrétisé du procédé (paramètres inconnus)
y (t + 1) = −a1 y(t ) + b1 (t )u(t ) = θ T φ (t )
θ T = [a1 , b1 ]
Vecteur des mesures
Vecteur des paramètres ;
φ (t) T = [− y (t), u(t )]
Modèle ajustable de prédiction (à priori)
yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ (t ) y (t ) + bˆ (t )u (t ) = θˆ(t ) T φ (t )
1
θ (t ) T = [aˆ1 (t ), bˆ1 (t )]
1
Vecteur des paramètres ajustables
Erreur de prédiction (à priori)
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = ε o (t + 1,θˆ(t ))
Critère à minimiser (objectif):
[
J (t + 1) = ε o (t + 1)
] = [ε
2
o
(t + 1,θˆ(t ))
]
2
Algorithme d’adaptation paramétrique
θˆ (t + 1) = θˆ (t ) + ∆θˆ(t + 1) = θˆ(t ) + f θˆ (t ),φ (t ), ε o (t + 1)
(
?
)
I.D. Landau Commande des systèmes, Chapitre 5
10
AAP – Algorithme du gradient
[
]
2
Critère à minimiser (objectif):
min J (t + 1) = ε (t + 1)
J(aˆ 1 , bˆ 1 )
∂J (t + 1)
ˆ
ˆ
θ (t + 1) = θ (t ) − F
∂θˆ(t )
b̂1
F = αI
gradient
sens de
l’adaptation
b1
θˆ (t )
o
(α > 0)
gradient
du critère
(I = matrice unité)
1 ∂J (t + 1) ∂ε o (t + 1) o
=
ε (t + 1)
ˆ
ˆ
2 ∂θ (t )
∂θ (t )
â1
a1
courbe (surface)
iso-critère
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ (t )T φ (t )
∂ε o (t + 1)
= −φ (t )
ˆ
∂θ (t )
θˆ (t + 1) = θˆ(t ) + Fφ (t )ε o (t + 1)
I.D. Landau Commande des systèmes, Chapitre 5
11
AAP – Algorithme du gradient
θˆ(t + 1) = θˆ (t ) + Fφ (t )ε o (t + 1)
{
F = αI (α > 0)
F > 0 Matrice définie positive
Gain d’adaptation
θ (t+1)
o
>
Interprétation
géométrique
>
φ (t )
θ (t+1)
Fφ (t ) ε (t+1) ; F = α Ι
>
o
Fφ (t ) ε (t+1) ; F > o
θ (t)
Attention: Risques d’instabilité si F (α) est grand !!
(voir livre pg. 266 – 267 pour les détails)
I.D. Landau Commande des systèmes, Chapitre 5
12
AAP – Algorithme du gradient amélioré
Sortie à posteriori du prédicteur ajustable
yˆ (t + 1) = yˆ (t + 1θˆ(t + 1)) = −aˆ1 (t + 1) y (t ) + bˆ1 (t + 1)u (t ) = θˆ (t + 1)T φ (t )
Erreur de prédiction (à posteriori):
ε (t + 1) = y (t + 1) − yˆ (t + 1)
Critère à minimiser (objectif):
min J (t + 1) = [ε (t + 1) ]2
Technique du gradient:
θˆ (t +1)
∂J (t + 1)
θˆ (t + 1) = θˆ (t ) − F
∂θˆ(t )
1 ∂J (t + 1) ∂ε (t + 1)
=
ε (t + 1)
ˆ
ˆ
2 ∂θ (t + 1) ∂θ (t + 1)
ε (t + 1) = y (t + 1) − yˆ (t + 1) = y (t + 1) − θˆ(t + 1) T φ (t )
∂ε (t + 1)
= −φ (t )
ˆ
∂θ (t + 1)
θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1)
Pour la mise en œuvre il faut exprimer: ε (t + 1) = f (θˆ(t ), φ (t ), ε 0 (t + 1))
I.D. Landau Commande des systèmes, Chapitre 5
13
AAP – Algorithme du gradient amélioré
[
]
{
T
ε (t + 1) = y (t + 1) − θˆ (t )T φ (t ) − θˆ(t + 1) − θˆ(t ) φ (t )
ε 0 (t + 1)
θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1)
θˆ(t + 1) − θˆ(t ) = Fφ (t )ε (t + 1)
ε (t + 1) = ε (t + 1) − φ (t ) Fφ (t )ε (t + 1)
0
θˆ (t + 1) = θˆ(t ) +
ε (t + 1) =
Fφ (t )ε o (t + 1)
1 + φ (t ) Fφ (t )
T
ε o (t + 1)
1 + φ (t ) T Fφ (t )
Stable quel que soit F > 0
Mise en œuvre:
1. Avant t+1 on dispose de : u (t ), u (t − 1),..y (t ), y (t − 1), φ (t ),θˆ(t ), F
2. Avant t+1 on calcule :
Fφ (t ) /(1 + φ (t ) T Fφ (t )), yˆ 0 (t + 1)
3. A t+1 on fait l’acquisition de y(t+1) et en envoie u(t+1)
4. On met en œuvre l’algorithme d’adaptation paramétrique
0
(calcul de : ε (t + 1),θˆ (t + 1) )
I.D. Landau Commande des systèmes, Chapitre 5
14
Algorithmes des moindres carrés
La minimisation à chaque pas de ε 2 (t + 1) n’entraîne pas nécessairement
la minimisation de ∑ ε 2 (i + 1) sur un horizon de t pas.
b̂1
â 1
Pour un bon résultat il faudrait (intuitivement):
• grand gain d’adaptation au début
• petit gain d’adaptation à la fin
L’algorithme des moindres carrés a ces
propriétés.
Modèle discrétisé du procédé (paramètres inconnus)
y (t + 1) = −a1 y (t ) + b1 (t )u (t ) = θ T φ (t )
θ T = [a1 , b1 ]
Vecteur des paramètres
Vecteur des mesures
φ (t )T = [− y (t ), u(t)]
Prédicteur ajustable à priori
yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) = θˆ(t ) T φ (t )
θ (t ) T = [aˆ1 (t ), bˆ1 (t )]
Vecteur des paramètres ajustables
I.D. Landau Commande des systèmes, Chapitre 5
15
Algorithmes des moindres carrés
Critère des moindres carrés (objectif) :
1
min J (t ) =
θˆ ( t )
t
∑ [y(i) − θˆ(t)
t
i =1
T
]
φ (i − 1)
2
1
=
t
∑ (
t
ε 2 i,θˆ(t )
i =1
)
θˆ(t )T φ (i − 1) = − aˆ1 (t ) y (i − 1) + bˆ1 (t )u (i − 1) = yˆ (iθˆ (t ) )
1
Solution:
i
∂J (t )
=0
ˆ
∂θ (t )
t
θˆ(t ) = F (t ) ∑ y(i )φ (i − 1)
i =1
t
Prédiction de la sortie à l’instant i (i ≤ t) basée
sur l’estimation des paramètres à l’instant t
(voir détails livre pg.270-271)
F (t ) −1 =
t
∑
φ (i − 1)φ (i − 1) T
i =1
Algorithme non récursif !
Voir fonction: nrls.sci(.m) sur le site web du livre
I.D. Landau Commande des systèmes, Chapitre 5
16
Moindres carrés récursifs
θˆ(t ) → θˆ(t + 1) sans refaire tous les calculs
t
θˆ(t ) = F (t ) ∑ y(i )φ (i − 1)
i =1
;
t +1
F (t ) −1 =
t
∑
φ (i − 1)φ (i − 1) T
i =1
θˆ(t + 1) = F (t + 1) ∑ y (i )φ (i − 1) = θˆ(t ) + ∆θˆ (t + 1)
F (t + 1) −1 =
t +1
i =1
∑ φ (i − 1)φ (i − 1)T =F (t ) −1 + φ (t )φ (t )T
i =1
(*)
Calcul (pg.271-273)
θˆ (t + 1) = θˆ (t ) + F (t + 1)φ (t )ε o (t + 1)
Version I
?
F (t + 1) = F (t ) −
F (t )φ (t )φ (t ) T F (t )
(**)
(***)
1 + φ (t )T F (t )φ (t )
ε o (t + 1) = y(t + 1) − θˆ(t ) T φ (t )
Le passage de (*) à (***) se fait à l’aide du « Lemme d’inversion matricielle »
Voir fonction: rls.sci(.m) sur le site web du livre
I.D. Landau Commande des systèmes, Chapitre 5
17
Moindres carrés récursifs
En remplaçant F(t+1) dans (**) par (***) on obtient:
ε o (t + 1)
F (t + 1)φ (t )ε (t + 1) = F (t )φ (t )
1 + φ (t )T F (t )φ (t )
Et d’autre part :
o
o
ε
(t + 1)
ε (t + 1) = y (t + 1) − θˆ(t + 1)φ (t ) =
1 + φ (t )T F (t )φ (t )
θˆ (t + 1) = θˆ (t ) + F (t )φ (t )ε (t + 1)
Version II
(pour l’analyse)
F (t + 1) −1 = F (t ) −1 + φ (t )φ (t ) T
F (t + 1) = F (t ) −
F (t )φ (t )φ (t ) T F (t )
1 + φ (t )T F (t )φ (t )
y (t + 1) − θˆ(t )T φ (t )
ε 0 (t + 1)
ε (t + 1) =
=
T
1 + φ (t ) F (t )φ (t ) 1 + φ (t )T F (t )φ (t )
I.D. Landau Commande des systèmes, Chapitre 5
18
Moindres carrés récursifs
Gain d’adaptation initial:
Valeur typique: GI = 1000
1
F (0) = I = (GI ) I ; 0 < δ << 1
δ
Algorithme stable quel que soit F(0)
C’est un algorithme à gain décroissant !!
Considérons le cas d’un seul paramètre. F et φ sont des scalaires.
Dans ce cas:
F (t + 1) =
F (t )
1 + φ (t ) F (t )
2
≤ F (t )
Rem.: ne peut pas suivre les variations des paramètres
I.D. Landau Commande des systèmes, Chapitre 5
19
Moindres carrés récursifs
L’algorithme se généralise pour n’importe quelle dimension.
Modèle à identifier:
y (t ) =
q − d B (q − 1 )
A(q −1 ) = 1 + a1q −1 + ... + a nA q − nA
u (t )
−1
A(q )
nA
nB
i =1
i =1
B (q −1 ) = b1q −1 + ... + bnB q −nB
y (t + 1) = − ∑ ai y(t + 1 − i ) + ∑ bi u(t − d − i + 1) = θ T φ (t )
[
]
T
θ T = a1 ,...anA , b1 ,..., bnB ; φ (t ) = [− y(t )... − y (t − n A + 1), u(t − d )...u(t − d − n B + 1) ]
Prédicteur ajustable à priori:
nA
nB
i =1
i=1
yˆ (t + 1) = − ∑ aˆi (t ) y (t + 1 − i) + ∑ bˆi (t )u(t − d − i + 1) = θˆ(t ) T φ (t )
o
[
θˆ (t ) T = aˆ1 (t ),...aˆ nA (t ), bˆ1 (t ),..., bˆnB (t )
]
Erreur de prédiction à priori:
ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ(t ) T φ (t )
On utilise l’agorithme MCR donné transparent 17
I.D. Landau Commande des systèmes, Chapitre 5
20
Choix du gain d’adaptation F(t)
Forme générale:
F (t + 1) −1 = λ1 (t ) F (t ) −1 + λ 2 (t )φ (t )φ (t ) T
0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0

1 
 F (t ) −
F (t + 1) =
λ1 (t ) 


A.1 Gain décroissant (MCR):

F (t )φ (t )φ (t ) T F (t ) 

λ1 (t )

+ φ (t )T F (t )φ (t ) 
λ 2 (t )

λ1 (t ) = λ1 = 1 ; λ2 (t ) = 1
t F(t)-1 F(t)
Identification des systèmes stationnaires (paramètres constants)
Facteur d’oubli
λ1 (t ) = λ1 ; 0 < λ1 < 1 ; λ 2 (t ) = λ2 = 1
A.2 Facteur d’oubli fixe:
Valeurs typiques pour λ1:
Critère minimisé:
λ1 = 0.95,...,0.99
J (t ) =
t
∑
i =1
[
λ1(t −i ) y (i) − θˆ(t )T φ (i − 1)
]
2
Identification des systèmes lentement variables
I.D. Landau Commande des systèmes, Chapitre 5
21
Choix du gain d’adaptation
A.3 Facteur d’oubli variable:
Valeurs typiques:
Critère minimisé:
λ1 (t ) = λ0 λ1 (t − 1) + 1 − λ0 ; 0 < λ0 < 1
λ2 (t ) = λ 2 = 1
λ1 (0) = 0.95,...,0.99 ; λ0 = 0.95,...,0.99
[
 t −1

J (t ) = ∑  ∏ λ1 ( j − i ) y (i) − θˆ(t )T φ (i − 1)
i=1 j =1

t
]
2
Comme λ1(t) tend vers 1 pour i grand, on oublie que les données initiales
Recommandé pour l’identification des systèmes stationnaires.
Offre en général des meilleures performances que A.1
I.D. Landau Commande des systèmes, Chapitre 5
22
Choix du gain d’adaptation
A.4 Trace constante:
trF (t + 1) = trF (t ) = trF ( 0) = nGI
GI

F (0) = 


0
.
.
0




GI 
n = nombre de paramètres
GI = (0.01)0.1 à 4

1
F (t )φ (t )φ (t )T F (t ) 
trF (t + 1) =
tr  F (t ) −
 = trF (t )
T
λ1 (t ) 
α (t ) + φ (t ) F (t )φ (t ) 
On calcule: λ1 (t ),
pour α (t ) = λ1 (t ) / λ 2 (t ) fixé
Identification des systèmes à paramètres variables dans le temps
A.5 Gain décroissant + trace constante
On commute de A.1 à A.4 quand:
trF (t ) ≤ nG ; G = (0.01) 0.1 à 4
Identification des systèmes à paramètres variables dans le temps en absence
d’information initiale sur les paramètres
I.D. Landau Commande des systèmes, Chapitre 5
23
Choix du gain d’adaptation
A.6 Facteur d’oubli variable + trace constante
On commute de A.1 à A.4 quand:
trF (t ) ≤ nG ; G = (0.01)0.1 à 4
Identification des systèmes à paramètres variables dans le temps en absence
d’information initiale sur les paramètres
A.7 Gain constant (algorithme du gradient amélioré)
λ1 (t ) = λ1 = 1 ; λ2 (t ) = λ 2 = 0
F (t + 1) = F (t ) = F (0)
Identification des systèmes à peu de paramètres (≤ 3) et niveau de bruit réduit.
Mise en œuvre simple mais performances inférieures à A.1, A.2, A.3, A.4
I.D. Landau Commande des systèmes, Chapitre 5
24
Choix du gain d’adaptation initial F(0)
1
I = (GI ) I
δ
Le gain d’adaptation peut être interprété comme une mesure de
l’erreur paramétrique (précision d’estimation).
F (0) =
Pas d’information initiales sur les paramètres : GI = 1000 ; θˆ(0) = 0
Estimation initiale des paramètres disponible : GI =<< 1 ; θˆ(0) = θˆ0
La trace de la matrice de gains est une mesure de la « valeur » du gain d’adaptation
Remarque:
Si la trace de F(t) ne décroît pas d’une façon significative l’estimation
paramétrique est en général mauvaise
(peut se produire quand les signaux d’excitation ne sont pas appropriés)
I.D. Landau Commande des systèmes, Chapitre 5
25
Choix de la séquence d’entrée pour l’identification
« erreur de prédiction nulle » n’implique pas dans tous les cas
« estimation des vrais paramètres »!!
Modèle procédé:
y (t + 1) = −a1 y(t ) + b1u(t )
yˆ (t + 1) = −aˆ1 y (t ) + bˆ1u(t )
Les deux modèles ont le même
b1
bˆ1
u (t ) = const.
=
gain statique mais aˆ1 ≠ a1 ; bˆ1 ≠ b1
1 + a1 1 + aˆ1
b1
bˆ1
y (t + 1) = y (t ) =
u
yˆ (t + 1) = yˆ (t ) =
u
et
1 + a1
1 + aˆ1
ε (t + 1) = y(t + 1) − yˆ (t + 1) = 0 pour u (t ) = const ; aˆ1 ≠ a1 ; bˆ1 ≠ b1
Modèle estimé:
G
procédé Si on veut distinguer les deux modèles
il faut appliquer: u (t ) = sin(ωt ) ; ω ≠ 0
modèle
estimé
ω
I.D. Landau Commande des systèmes, Chapitre 5
26
Analyse
[
]
ε (t + 1) = y (t + 1) − yˆ (t + 1) = −[a1 − aˆ1 ] y (t ) + b1 − bˆ1 u (t ) = 0
y (t ) =
b1q −1
1 + a1q
−1
u (t )
[
( )(
) ] u(t) = 0
ε (t + 1) = [ (b1 − bˆ1 ) + q −1 (b1aˆ1 − a1bˆ1 ) ] u(t) = (α 0 + α1q −1 )u(t ) = 0
ε (t + 1) = (aˆ1 − a1 )b1q −1 + b1 − bˆ1 1 + a1q −1
(*)
Solution équation récurrente: u(t ) = z t = e sTe t
(α0 + z −1α1 ) z t = 0
z =−
α1
= eσTe ; σ = réel
α0
u (t ) = eσTet
b1
bˆ1
ˆ
ˆ
u(t ) = const ⇒ σ = 0 ⇒ z = 1 ⇒ −α1 = α 0 ⇒ b1 − b1 = a1b1 − b1aˆ1 ⇒
=
1 + a1 1 + aˆ1
Problème : trouver u(t) tel que: ε = 0 ⇒ aˆ1 = a1 ; bˆ1 = b1
Réponse: u(t) ne doit pas être une solution (*).
Pour l’exemple :
u (t ) = e jωTet ou e − jωTe t ou sin ωTet , ω ≠ 0
I.D. Landau Commande des systèmes, Chapitre 5
27
Cas général – choix du signal d’excitation
Structure du modèle à identifier:
nA
nB
i =1
i =1
y (t ) = − ∑ ai y (t − i) + ∑ bi u(t − d − i)
Nombre de paramètres à identifier: = n A + nB
p
u (t ) = − ∑ sin ω i Te t
i =1
Il faut choisir p tel que u(t) ne puisse pas être une solution de l’équation récurrente
de ε et faisant intervenir les écarts paramétriques.
n A + nB 

2
n A + nB + 1

nA + nB = impair p ≥

2
nA + nB = pair
p≥
Pour bien identifier il faut appliquer une entrée « riche » en fréquences.
Solution standard: Séquence Binaire Pseudo-Aléatoires (SBPA)
I.D. Landau Commande des systèmes, Chapitre 5
28
Séquences binaires pseudo-aléatoires (SBPA)
Succession d’impulsions rectangulaires modulées en largeur
(très riches en fréquences – spectre uniforme de presque 0 à 0.5fe)
Génération: à l’aide de registres à décalage bouclés
Exemple : génération d’une SBPA de longueur 31=2 5-1
B1
B2
B3
B4
B5
+
( addition modulo 2 )
Longueur de séquence : donne la périodicité.
Variation aléatoire de la largeur des impulsions à l’intérieur d’une longueur de séquence
Eléments caractéristiques:
• nombres de cellules (N)
• durée maximale d’une impulsion ( tim=Nte )
• longueur de la séquence ( L=2 N-1 )
Programme pour la génération des SBPA: voir Annexe A.7 (pg. 533-536)
I.D. Landau Commande des systèmes, Chapitre 5
29
Dimensionnement de la SBPA
Pour bien identifier le gain statique:
Approche 1 (choix de N)
t im = T e .N > t M
NTe
tM
Mais d’autre part :
( 2 N − 1)Te = L < durée de l'essai
N → NTe ≥ t M ; ( 2 N − 1)Te ≤ duréede l ' éssai
Approche 2 (choix de N et de la fréquence d’horloge fSBPA)
fe
f SBPA =
; p = 1,2,3,...
p
N , p → pNTe > t M ; p( 2 N − 1)Te ≤ duréede l ' éssai
L’approche 2 permet d’obtenir une valeur plus grande de l’impulsion de durée
maximale pour la même durée de l’essai (ex : prendre N+1 et respectivement p=2 et N)
I.D. Landau Commande des systèmes, Chapitre 5
30
Densité spectrale de la SBPA
p=1
p=2
p=3
L’utilisation d’un diviseur de fréquence pour fSBPA augmente la densité spectrale
en basses fréquences et la réduit en hautes fréquences.
I.D. Landau Commande des systèmes, Chapitre 5
31
Choix de l’amplitude de la SBPA
• Amplitude faible, mais supérieure au niveau du bruit résiduel
• Rapport signal/bruit faible requiert l’allongement de l’essai
• L’augmentation excessive de l’amplitude n’est pas souhaitable
(des phénomènes non-linéaires liés au procédé peuvent apparaître)
Valeurs typiques :
0.5% à 10% de la valeur de la commande statique (point de fonctionnement)
I.D. Landau Commande des systèmes, Chapitre 5
32
Effets des perturbations aléatoires sur l’estimation des paramètres
La sortie mesurée des procédés est en général bruitée (perturbations, bruits de mesure)
Voir Chapitre IV pour la modélisation des perturbations aléatoires
Effet des perturbations aléatoires sur les « moindres carrés »
Sortie du modèle du procédé en présence de bruit:
y (t + 1) = θ T φ (t ) + w(t )
w(t) représente l’effet du bruit (stationnaire, moyenne nulle, variance finie, indép. de u(t))
−1
Solution des moindres carrés:
N
N

T 
ˆ
θ ( N ) =  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1) y (t )
t =1
 t =1

−1
division et
multiplication
par N
N
N

T 
ˆ
θ ( N ) = θ +  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1)w(t )
t =1
 t =1

−1
Erreur (biais)
N
1 N

T 1
ˆ
θ ( N ) = θ +  ∑ φ (t − 1)φ (t − 1)   ∑ φ (t − 1)w(t ) 
 N t =1
  N t =1

Condition d’estimation
asymptotiquement non biaisée
1
lim 
N →∞  N


φ (t − 1) w(t ) = E{φ (t − 1) w(t )} = 0

i =1
N −1
∑
I.D. Landau Commande des systèmes, Chapitre 5
(*)
33
Estimation non biaisée en présence de bruit
Il faut que φ(t-1) et w(t) soient non corrélés
Pour les « moindres carrés » ceci implique w(t) = e(t) (bruit blanc).
Dans tous les autres cas : estimation biaisée (voir détails, livre pg. 290)
Supposons :θˆ = θ et on souhaite que l’algorithme laisse cette valetur inchangée
yˆ (t + 1θ ) = θ T φ (t )
ε (t + 1θ ) = y (t + 1) − yˆ (t + 1θ ) = w(t + 1)
Condition nécessaire à satisfaire pour l’estimation non biaisée:
 1 N −1

(*)
lim 
φ (t − 1, θ )ε (t ,θ ) = E{φ (t − 1,θ )ε (t ,θ )} = 0
N →∞  N

 i=1
E{φ (t )ε (t + 1)} = 0 pour θˆ ≡ θ
Pour éliminer le biais:
∑
Modification de l’algorithme d’estimation pour obtenir:
ou:
ε(t+1) est un bruit blanc pour θˆ = θ
φ(t) et ε(t+1) sont non corrélés (ou indépendants) pour θˆ = θ
I.D. Landau Commande des systèmes, Chapitre 5
34
Structure des méthodes d’identification récursives
u(t)
Perturbation
y(t)
PROCEDE
q
θˆ(t + 1) = θˆ(t ) + F (t )Φ(t )ε (t + 1)
+ εο(t))
-1
A.A.P.
0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0
>
PREDICTEUR y(t)
AJUSTABLE
F −1 (t + 1) = λ1 (t ) F (t ) + λ2 Φ(t )Φ(t )T
>
φ ( t- 1)
θ (t )
ε (t + 1) =
ε 0 (t + 1)
1 + Φ (t ) T F (t )Φ (t )
Éléments caractéristiques:
• structure du prédicteur
• nature des composantes du vecteur d’observations (F)
• dimension des vecteurs des paramètres ajustables et de Φ ˆ
θ
• génération de l’erreur de prédiction (ε)
• même structure pour l’algorithme d’adaptation paramétrique
Types de méthodes d’identification:
I) Basées sur le blanchissement de l’erreur de prédiction (ε)
II) Basées sur la décorrélation du vecteur Φ et de ε
I.D. Landau Commande des systèmes, Chapitre 5
35
Méthodes d’identification
• Il y a différentes structures « procédé + perturbation »
• Il n’y a pas une méthode d’identification unique utilisable
pour toute les structures
Conséquence:
En pratique il faut un systèmes interactif pour faire de l’identification
Il doit fournir:
• différentes structures « procédé + perturbation
• différentes méthodes d’identification
• des méthodes de validation des modèles identification
• un système d’acquisition et traitement des données E/S
• des outils d’analyse et de visualisation graphique
Exemple: WinPIM (Adaptech). Voir Annexe A.5 et site web Adaptech (pg. d’acceuil)
Des routines pour l’identification (Scilab et Matlab) sont téléchargeable à partir
du site web du livre (www-lag.ensieg.inpg.fr/landau/bookIC)
Le transparent suivant donne un aperçu des principales structures « procédé+
perturbation », de leur taux d’utilisation et des méthodes d’identifications appropriés
I.D. Landau Commande des systèmes, Chapitre 5
36
Structures « procédé + perturbation » et méthodes d’identification
S1 : A(q −1 ) y (t ) = q − d B ( q −1 )u (t ) + e(t )
S 3 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + C ( q −1 )e(t )
e(t)
e(t)
~ 2%
u(t)
+
q-d B
y(t)
u(t)
q-d B
A
+
A
C
A
~ 64%
1
A
y(t)
+
+
Moindres carrés récursifs (MCR)
Moindres carrés étendus (MCE)
ES avec modèle de prédiction étendu (ESMPE)
Maximum de vraisemblance récursif (MVR)
S 2 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + A( q −1 ) w(t )
S 4 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + [1 / C ( q −1 )]e(t )
~ 33%
u(t)
q-d B
A
e(t)
w(t)
+
y(t)
1
CA
~ 1%
+
u(t)
Variable instrumentale…(VIMA)
Erreur de sortie (ESCF, ESFO, ESFAO)
q-d B
A
+
y(t)
+
Moindres carrés généralisés (MCG)
I.D. Landau Commande des systèmes, Chapitre 5
37
Quelques remarques récapitulatives
- L’identification comporte 4 étapes (acquisition E/S, estimation
complexité modèle, estimation des paramètres, validation)
- L’estimation des paramètres peut se faire avec des algorithmes
récursifs ou non récursifs
- L’unicité des paramètres identifiés dépend du choix de l’entrée
- Entrée standard pour l’identification :
Séquence binaire pseudo-aléatoire (SBPA)
- Les perturbations et bruits sur la sortie peuvent provoquer des
erreurs d’estimation (biais)
- Il n’y a pas une structure unique « procédé + perturbation » pour
décrire toutes les situations rencontrés en pratique
- Il n’y a pas de méthode unique d’identification donnant des bons
résultats pour toutes les structures « procédé + perturbation »
- Il faut disposer d’un système interactif pour l’identification
I.D. Landau Commande des systèmes, Chapitre 5
38

Documents pareils