Chapitre V Identification des modèles de procédés : les - GIPSA-lab
Transcription
Chapitre V Identification des modèles de procédés : les - GIPSA-lab
Chapitre V Identification des modèles de procédés : les bases Version 1/10.11.2002 I.D. Landau Commande des systèmes, Chapitre 5 1 Chapitre 5. Identification des modèles de procédés : les bases 5.1 Principes de l'identification des modèles de procédés 5.2 Algorithmes pour l’estimation paramétrique 5.2.1 Introduction 5.2.2 Algorithme du gradient 5.2.3 Algorithme des moindres carrés 5.2.4 Choix du gain d'adaptation 5.3 Choix de la séquence d'entrée pour l'identification 5.3.1 Le problème 5.3.2 Séquences binaires pseudo-aléatoires (S.B.P.A.) 5.4 Effets des perturbations aléatoires sur l'identification 5.5 Structure des méthodes d'identification récursives 5.6 Conclusion 5.7 Notes et indications bibliographiques I.D. Landau Commande des systèmes, Chapitre 5 2 Conception et calcul d’un régulateur SPECIFICATION DES CALCUL DU PERFORMANCES REGULATEUR REGULATEUR MODELE DU PROCEDE PROCEDE + - Pour concevoir et ajuster un « bon » régulateur if faut : 1) Spécifier les performances 2) Connaître le modèle du procédé (modèle de commande) 3) Disposer d’un méthode appropriée de calcul Identification = opération de détermination du modèle dynamique (de commande) d’un procédé à partir de donnée expérimentales I.D. Landau Commande des systèmes, Chapitre 5 3 Modélisation des procédés Modèles de connaissance Utilisation: simulation et conception de procédés Modèles dynamiques de commande (entrée-sortie) Utilisation : conception et calcul des régulateurs non paramétriques (ex: réponses fréquentielles ou temporelles) Modèles dynamiques paramétriques (ex:fonction de transfert) Modèles paramétriques continus échantillonnés On s’intéresse par la suite à l’identification des modèles paramétriques échantillonnés I.D. Landau Commande des systèmes, Chapitre 5 4 Méthodologie de l’identification Acquisition de données E/S sous protocole prétraitement de données Estimation dela compléxité du Modèle (ou Choix) Choix du modèle de bruit Estimation Paramétrique Validation du Modèle Non Oui Calcul Régulateur Il faut voir l’identification comme une procédure itérative dont l’objectif est l’obtention d’un modèle qui « valide » I.D. Landau Commande des systèmes, Chapitre 5 5 Identification par calculateur numérique 1)Acquisition entrée: séquence binaire pseudo aléatoire de faible amplitude 2)Estimation de la complexité du modèle (algorithmes) 3)Estimation des paramètres du modèle (estimation récursive) PROCEDE DISCRETISE u(t) y(t) C.N.A. + PROCEDE C.A.N. B.O.Z. + ε(t) modèle échantillonné y(t) - ajustable paramètres du modèle algorithme d'adaptation paramétrique 4) Validation du modèle identifié Tests statistiques sur ε(t) et ^y(t) I.D. Landau Commande des systèmes, Chapitre 5 6 Caractéristiques de l’identification par calculateur numérique • Signaux de tests de faible amplitude • Excellente précision d’identification • Critère objectifs de validation • Possibilité de suivre les variations des paramètres du procédé • Identification des modèles des perturbations Autres applications (liste non exhaustive) • Modélisation des bruits « capteurs » (en vue de suppression) • Détection et mesure des modes de vibrations (fréquence et amortissement) • Analyse spectrale des signaux • Détection préventive des pannes I.D. Landau Commande des systèmes, Chapitre 5 7 Identification (estimation) paramétrique récursive Algorithme d’adaptation paramétrique (AAP) Vecteur des paramètres = contient l’ensemble des paramètres à identifier Nouvelle estimation Estimation précédente des paramètres = des paramètres + (vecteur) (vecteur) Fonction Gain Fonction d' adaptation × des mesures × de l' erreur de prédiction (matrice) (vecteur) (scalaire) Vecteur des observations I.D. Landau Commande des systèmes, Chapitre 5 8 Identification (estimation) paramétrique Estimation paramétrique non récursive: Traitement des entrées/sorties par paquets obtenus sur un horizon de temps. Pas d’estimation des paramètres pendant l’acquisition ou la lecture du fichier Estimation paramétrique non récursive: Traitement d’une paire d’entrées/sorties à chaque pas d’échantillonnage. (pendant l’acquisitione (temps réel )ou lors de la lecture d’un fichier de données). Estimation des paramètres a chaque pas d’échantillonnage Avantages de l’estimation paramétrique récursive • Obtention d’une estimation du modèle à fur et à mesure que le procédé évolue • Compression importante des données • Nécessite moins de puissance de calcul et de mémoire • Mise en œuvre facile sur microprocesseurs • Identification temps réel si nécessaire • Possibilité de poursuite des paramètres variables dans le temps I.D. Landau Commande des systèmes, Chapitre 5 9 Algorithmes pour l’estimation paramétrique Modèle discrétisé du procédé (paramètres inconnus) y (t + 1) = −a1 y(t ) + b1 (t )u(t ) = θ T φ (t ) θ T = [a1 , b1 ] Vecteur des mesures Vecteur des paramètres ; φ (t) T = [− y (t), u(t )] Modèle ajustable de prédiction (à priori) yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ (t ) y (t ) + bˆ (t )u (t ) = θˆ(t ) T φ (t ) 1 θ (t ) T = [aˆ1 (t ), bˆ1 (t )] 1 Vecteur des paramètres ajustables Erreur de prédiction (à priori) ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = ε o (t + 1,θˆ(t )) Critère à minimiser (objectif): [ J (t + 1) = ε o (t + 1) ] = [ε 2 o (t + 1,θˆ(t )) ] 2 Algorithme d’adaptation paramétrique θˆ (t + 1) = θˆ (t ) + ∆θˆ(t + 1) = θˆ(t ) + f θˆ (t ),φ (t ), ε o (t + 1) ( ? ) I.D. Landau Commande des systèmes, Chapitre 5 10 AAP – Algorithme du gradient [ ] 2 Critère à minimiser (objectif): min J (t + 1) = ε (t + 1) J(aˆ 1 , bˆ 1 ) ∂J (t + 1) ˆ ˆ θ (t + 1) = θ (t ) − F ∂θˆ(t ) b̂1 F = αI gradient sens de l’adaptation b1 θˆ (t ) o (α > 0) gradient du critère (I = matrice unité) 1 ∂J (t + 1) ∂ε o (t + 1) o = ε (t + 1) ˆ ˆ 2 ∂θ (t ) ∂θ (t ) â1 a1 courbe (surface) iso-critère ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ (t )T φ (t ) ∂ε o (t + 1) = −φ (t ) ˆ ∂θ (t ) θˆ (t + 1) = θˆ(t ) + Fφ (t )ε o (t + 1) I.D. Landau Commande des systèmes, Chapitre 5 11 AAP – Algorithme du gradient θˆ(t + 1) = θˆ (t ) + Fφ (t )ε o (t + 1) { F = αI (α > 0) F > 0 Matrice définie positive Gain d’adaptation θ (t+1) o > Interprétation géométrique > φ (t ) θ (t+1) Fφ (t ) ε (t+1) ; F = α Ι > o Fφ (t ) ε (t+1) ; F > o θ (t) Attention: Risques d’instabilité si F (α) est grand !! (voir livre pg. 266 – 267 pour les détails) I.D. Landau Commande des systèmes, Chapitre 5 12 AAP – Algorithme du gradient amélioré Sortie à posteriori du prédicteur ajustable yˆ (t + 1) = yˆ (t + 1θˆ(t + 1)) = −aˆ1 (t + 1) y (t ) + bˆ1 (t + 1)u (t ) = θˆ (t + 1)T φ (t ) Erreur de prédiction (à posteriori): ε (t + 1) = y (t + 1) − yˆ (t + 1) Critère à minimiser (objectif): min J (t + 1) = [ε (t + 1) ]2 Technique du gradient: θˆ (t +1) ∂J (t + 1) θˆ (t + 1) = θˆ (t ) − F ∂θˆ(t ) 1 ∂J (t + 1) ∂ε (t + 1) = ε (t + 1) ˆ ˆ 2 ∂θ (t + 1) ∂θ (t + 1) ε (t + 1) = y (t + 1) − yˆ (t + 1) = y (t + 1) − θˆ(t + 1) T φ (t ) ∂ε (t + 1) = −φ (t ) ˆ ∂θ (t + 1) θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1) Pour la mise en œuvre il faut exprimer: ε (t + 1) = f (θˆ(t ), φ (t ), ε 0 (t + 1)) I.D. Landau Commande des systèmes, Chapitre 5 13 AAP – Algorithme du gradient amélioré [ ] { T ε (t + 1) = y (t + 1) − θˆ (t )T φ (t ) − θˆ(t + 1) − θˆ(t ) φ (t ) ε 0 (t + 1) θˆ (t + 1) = θˆ(t ) + Fφ (t )ε (t + 1) θˆ(t + 1) − θˆ(t ) = Fφ (t )ε (t + 1) ε (t + 1) = ε (t + 1) − φ (t ) Fφ (t )ε (t + 1) 0 θˆ (t + 1) = θˆ(t ) + ε (t + 1) = Fφ (t )ε o (t + 1) 1 + φ (t ) Fφ (t ) T ε o (t + 1) 1 + φ (t ) T Fφ (t ) Stable quel que soit F > 0 Mise en œuvre: 1. Avant t+1 on dispose de : u (t ), u (t − 1),..y (t ), y (t − 1), φ (t ),θˆ(t ), F 2. Avant t+1 on calcule : Fφ (t ) /(1 + φ (t ) T Fφ (t )), yˆ 0 (t + 1) 3. A t+1 on fait l’acquisition de y(t+1) et en envoie u(t+1) 4. On met en œuvre l’algorithme d’adaptation paramétrique 0 (calcul de : ε (t + 1),θˆ (t + 1) ) I.D. Landau Commande des systèmes, Chapitre 5 14 Algorithmes des moindres carrés La minimisation à chaque pas de ε 2 (t + 1) n’entraîne pas nécessairement la minimisation de ∑ ε 2 (i + 1) sur un horizon de t pas. b̂1 â 1 Pour un bon résultat il faudrait (intuitivement): • grand gain d’adaptation au début • petit gain d’adaptation à la fin L’algorithme des moindres carrés a ces propriétés. Modèle discrétisé du procédé (paramètres inconnus) y (t + 1) = −a1 y (t ) + b1 (t )u (t ) = θ T φ (t ) θ T = [a1 , b1 ] Vecteur des paramètres Vecteur des mesures φ (t )T = [− y (t ), u(t)] Prédicteur ajustable à priori yˆ o (t + 1) = yˆ (t + 1θˆ(t )) = −aˆ1 (t ) y (t ) + bˆ1 (t )u (t ) = θˆ(t ) T φ (t ) θ (t ) T = [aˆ1 (t ), bˆ1 (t )] Vecteur des paramètres ajustables I.D. Landau Commande des systèmes, Chapitre 5 15 Algorithmes des moindres carrés Critère des moindres carrés (objectif) : 1 min J (t ) = θˆ ( t ) t ∑ [y(i) − θˆ(t) t i =1 T ] φ (i − 1) 2 1 = t ∑ ( t ε 2 i,θˆ(t ) i =1 ) θˆ(t )T φ (i − 1) = − aˆ1 (t ) y (i − 1) + bˆ1 (t )u (i − 1) = yˆ (iθˆ (t ) ) 1 Solution: i ∂J (t ) =0 ˆ ∂θ (t ) t θˆ(t ) = F (t ) ∑ y(i )φ (i − 1) i =1 t Prédiction de la sortie à l’instant i (i ≤ t) basée sur l’estimation des paramètres à l’instant t (voir détails livre pg.270-271) F (t ) −1 = t ∑ φ (i − 1)φ (i − 1) T i =1 Algorithme non récursif ! Voir fonction: nrls.sci(.m) sur le site web du livre I.D. Landau Commande des systèmes, Chapitre 5 16 Moindres carrés récursifs θˆ(t ) → θˆ(t + 1) sans refaire tous les calculs t θˆ(t ) = F (t ) ∑ y(i )φ (i − 1) i =1 ; t +1 F (t ) −1 = t ∑ φ (i − 1)φ (i − 1) T i =1 θˆ(t + 1) = F (t + 1) ∑ y (i )φ (i − 1) = θˆ(t ) + ∆θˆ (t + 1) F (t + 1) −1 = t +1 i =1 ∑ φ (i − 1)φ (i − 1)T =F (t ) −1 + φ (t )φ (t )T i =1 (*) Calcul (pg.271-273) θˆ (t + 1) = θˆ (t ) + F (t + 1)φ (t )ε o (t + 1) Version I ? F (t + 1) = F (t ) − F (t )φ (t )φ (t ) T F (t ) (**) (***) 1 + φ (t )T F (t )φ (t ) ε o (t + 1) = y(t + 1) − θˆ(t ) T φ (t ) Le passage de (*) à (***) se fait à l’aide du « Lemme d’inversion matricielle » Voir fonction: rls.sci(.m) sur le site web du livre I.D. Landau Commande des systèmes, Chapitre 5 17 Moindres carrés récursifs En remplaçant F(t+1) dans (**) par (***) on obtient: ε o (t + 1) F (t + 1)φ (t )ε (t + 1) = F (t )φ (t ) 1 + φ (t )T F (t )φ (t ) Et d’autre part : o o ε (t + 1) ε (t + 1) = y (t + 1) − θˆ(t + 1)φ (t ) = 1 + φ (t )T F (t )φ (t ) θˆ (t + 1) = θˆ (t ) + F (t )φ (t )ε (t + 1) Version II (pour l’analyse) F (t + 1) −1 = F (t ) −1 + φ (t )φ (t ) T F (t + 1) = F (t ) − F (t )φ (t )φ (t ) T F (t ) 1 + φ (t )T F (t )φ (t ) y (t + 1) − θˆ(t )T φ (t ) ε 0 (t + 1) ε (t + 1) = = T 1 + φ (t ) F (t )φ (t ) 1 + φ (t )T F (t )φ (t ) I.D. Landau Commande des systèmes, Chapitre 5 18 Moindres carrés récursifs Gain d’adaptation initial: Valeur typique: GI = 1000 1 F (0) = I = (GI ) I ; 0 < δ << 1 δ Algorithme stable quel que soit F(0) C’est un algorithme à gain décroissant !! Considérons le cas d’un seul paramètre. F et φ sont des scalaires. Dans ce cas: F (t + 1) = F (t ) 1 + φ (t ) F (t ) 2 ≤ F (t ) Rem.: ne peut pas suivre les variations des paramètres I.D. Landau Commande des systèmes, Chapitre 5 19 Moindres carrés récursifs L’algorithme se généralise pour n’importe quelle dimension. Modèle à identifier: y (t ) = q − d B (q − 1 ) A(q −1 ) = 1 + a1q −1 + ... + a nA q − nA u (t ) −1 A(q ) nA nB i =1 i =1 B (q −1 ) = b1q −1 + ... + bnB q −nB y (t + 1) = − ∑ ai y(t + 1 − i ) + ∑ bi u(t − d − i + 1) = θ T φ (t ) [ ] T θ T = a1 ,...anA , b1 ,..., bnB ; φ (t ) = [− y(t )... − y (t − n A + 1), u(t − d )...u(t − d − n B + 1) ] Prédicteur ajustable à priori: nA nB i =1 i=1 yˆ (t + 1) = − ∑ aˆi (t ) y (t + 1 − i) + ∑ bˆi (t )u(t − d − i + 1) = θˆ(t ) T φ (t ) o [ θˆ (t ) T = aˆ1 (t ),...aˆ nA (t ), bˆ1 (t ),..., bˆnB (t ) ] Erreur de prédiction à priori: ε o (t + 1) = y (t + 1) − yˆ o (t + 1) = y (t + 1) − θˆ(t ) T φ (t ) On utilise l’agorithme MCR donné transparent 17 I.D. Landau Commande des systèmes, Chapitre 5 20 Choix du gain d’adaptation F(t) Forme générale: F (t + 1) −1 = λ1 (t ) F (t ) −1 + λ 2 (t )φ (t )φ (t ) T 0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0 1 F (t ) − F (t + 1) = λ1 (t ) A.1 Gain décroissant (MCR): F (t )φ (t )φ (t ) T F (t ) λ1 (t ) + φ (t )T F (t )φ (t ) λ 2 (t ) λ1 (t ) = λ1 = 1 ; λ2 (t ) = 1 t F(t)-1 F(t) Identification des systèmes stationnaires (paramètres constants) Facteur d’oubli λ1 (t ) = λ1 ; 0 < λ1 < 1 ; λ 2 (t ) = λ2 = 1 A.2 Facteur d’oubli fixe: Valeurs typiques pour λ1: Critère minimisé: λ1 = 0.95,...,0.99 J (t ) = t ∑ i =1 [ λ1(t −i ) y (i) − θˆ(t )T φ (i − 1) ] 2 Identification des systèmes lentement variables I.D. Landau Commande des systèmes, Chapitre 5 21 Choix du gain d’adaptation A.3 Facteur d’oubli variable: Valeurs typiques: Critère minimisé: λ1 (t ) = λ0 λ1 (t − 1) + 1 − λ0 ; 0 < λ0 < 1 λ2 (t ) = λ 2 = 1 λ1 (0) = 0.95,...,0.99 ; λ0 = 0.95,...,0.99 [ t −1 J (t ) = ∑ ∏ λ1 ( j − i ) y (i) − θˆ(t )T φ (i − 1) i=1 j =1 t ] 2 Comme λ1(t) tend vers 1 pour i grand, on oublie que les données initiales Recommandé pour l’identification des systèmes stationnaires. Offre en général des meilleures performances que A.1 I.D. Landau Commande des systèmes, Chapitre 5 22 Choix du gain d’adaptation A.4 Trace constante: trF (t + 1) = trF (t ) = trF ( 0) = nGI GI F (0) = 0 . . 0 GI n = nombre de paramètres GI = (0.01)0.1 à 4 1 F (t )φ (t )φ (t )T F (t ) trF (t + 1) = tr F (t ) − = trF (t ) T λ1 (t ) α (t ) + φ (t ) F (t )φ (t ) On calcule: λ1 (t ), pour α (t ) = λ1 (t ) / λ 2 (t ) fixé Identification des systèmes à paramètres variables dans le temps A.5 Gain décroissant + trace constante On commute de A.1 à A.4 quand: trF (t ) ≤ nG ; G = (0.01) 0.1 à 4 Identification des systèmes à paramètres variables dans le temps en absence d’information initiale sur les paramètres I.D. Landau Commande des systèmes, Chapitre 5 23 Choix du gain d’adaptation A.6 Facteur d’oubli variable + trace constante On commute de A.1 à A.4 quand: trF (t ) ≤ nG ; G = (0.01)0.1 à 4 Identification des systèmes à paramètres variables dans le temps en absence d’information initiale sur les paramètres A.7 Gain constant (algorithme du gradient amélioré) λ1 (t ) = λ1 = 1 ; λ2 (t ) = λ 2 = 0 F (t + 1) = F (t ) = F (0) Identification des systèmes à peu de paramètres (≤ 3) et niveau de bruit réduit. Mise en œuvre simple mais performances inférieures à A.1, A.2, A.3, A.4 I.D. Landau Commande des systèmes, Chapitre 5 24 Choix du gain d’adaptation initial F(0) 1 I = (GI ) I δ Le gain d’adaptation peut être interprété comme une mesure de l’erreur paramétrique (précision d’estimation). F (0) = Pas d’information initiales sur les paramètres : GI = 1000 ; θˆ(0) = 0 Estimation initiale des paramètres disponible : GI =<< 1 ; θˆ(0) = θˆ0 La trace de la matrice de gains est une mesure de la « valeur » du gain d’adaptation Remarque: Si la trace de F(t) ne décroît pas d’une façon significative l’estimation paramétrique est en général mauvaise (peut se produire quand les signaux d’excitation ne sont pas appropriés) I.D. Landau Commande des systèmes, Chapitre 5 25 Choix de la séquence d’entrée pour l’identification « erreur de prédiction nulle » n’implique pas dans tous les cas « estimation des vrais paramètres »!! Modèle procédé: y (t + 1) = −a1 y(t ) + b1u(t ) yˆ (t + 1) = −aˆ1 y (t ) + bˆ1u(t ) Les deux modèles ont le même b1 bˆ1 u (t ) = const. = gain statique mais aˆ1 ≠ a1 ; bˆ1 ≠ b1 1 + a1 1 + aˆ1 b1 bˆ1 y (t + 1) = y (t ) = u yˆ (t + 1) = yˆ (t ) = u et 1 + a1 1 + aˆ1 ε (t + 1) = y(t + 1) − yˆ (t + 1) = 0 pour u (t ) = const ; aˆ1 ≠ a1 ; bˆ1 ≠ b1 Modèle estimé: G procédé Si on veut distinguer les deux modèles il faut appliquer: u (t ) = sin(ωt ) ; ω ≠ 0 modèle estimé ω I.D. Landau Commande des systèmes, Chapitre 5 26 Analyse [ ] ε (t + 1) = y (t + 1) − yˆ (t + 1) = −[a1 − aˆ1 ] y (t ) + b1 − bˆ1 u (t ) = 0 y (t ) = b1q −1 1 + a1q −1 u (t ) [ ( )( ) ] u(t) = 0 ε (t + 1) = [ (b1 − bˆ1 ) + q −1 (b1aˆ1 − a1bˆ1 ) ] u(t) = (α 0 + α1q −1 )u(t ) = 0 ε (t + 1) = (aˆ1 − a1 )b1q −1 + b1 − bˆ1 1 + a1q −1 (*) Solution équation récurrente: u(t ) = z t = e sTe t (α0 + z −1α1 ) z t = 0 z =− α1 = eσTe ; σ = réel α0 u (t ) = eσTet b1 bˆ1 ˆ ˆ u(t ) = const ⇒ σ = 0 ⇒ z = 1 ⇒ −α1 = α 0 ⇒ b1 − b1 = a1b1 − b1aˆ1 ⇒ = 1 + a1 1 + aˆ1 Problème : trouver u(t) tel que: ε = 0 ⇒ aˆ1 = a1 ; bˆ1 = b1 Réponse: u(t) ne doit pas être une solution (*). Pour l’exemple : u (t ) = e jωTet ou e − jωTe t ou sin ωTet , ω ≠ 0 I.D. Landau Commande des systèmes, Chapitre 5 27 Cas général – choix du signal d’excitation Structure du modèle à identifier: nA nB i =1 i =1 y (t ) = − ∑ ai y (t − i) + ∑ bi u(t − d − i) Nombre de paramètres à identifier: = n A + nB p u (t ) = − ∑ sin ω i Te t i =1 Il faut choisir p tel que u(t) ne puisse pas être une solution de l’équation récurrente de ε et faisant intervenir les écarts paramétriques. n A + nB 2 n A + nB + 1 nA + nB = impair p ≥ 2 nA + nB = pair p≥ Pour bien identifier il faut appliquer une entrée « riche » en fréquences. Solution standard: Séquence Binaire Pseudo-Aléatoires (SBPA) I.D. Landau Commande des systèmes, Chapitre 5 28 Séquences binaires pseudo-aléatoires (SBPA) Succession d’impulsions rectangulaires modulées en largeur (très riches en fréquences – spectre uniforme de presque 0 à 0.5fe) Génération: à l’aide de registres à décalage bouclés Exemple : génération d’une SBPA de longueur 31=2 5-1 B1 B2 B3 B4 B5 + ( addition modulo 2 ) Longueur de séquence : donne la périodicité. Variation aléatoire de la largeur des impulsions à l’intérieur d’une longueur de séquence Eléments caractéristiques: • nombres de cellules (N) • durée maximale d’une impulsion ( tim=Nte ) • longueur de la séquence ( L=2 N-1 ) Programme pour la génération des SBPA: voir Annexe A.7 (pg. 533-536) I.D. Landau Commande des systèmes, Chapitre 5 29 Dimensionnement de la SBPA Pour bien identifier le gain statique: Approche 1 (choix de N) t im = T e .N > t M NTe tM Mais d’autre part : ( 2 N − 1)Te = L < durée de l'essai N → NTe ≥ t M ; ( 2 N − 1)Te ≤ duréede l ' éssai Approche 2 (choix de N et de la fréquence d’horloge fSBPA) fe f SBPA = ; p = 1,2,3,... p N , p → pNTe > t M ; p( 2 N − 1)Te ≤ duréede l ' éssai L’approche 2 permet d’obtenir une valeur plus grande de l’impulsion de durée maximale pour la même durée de l’essai (ex : prendre N+1 et respectivement p=2 et N) I.D. Landau Commande des systèmes, Chapitre 5 30 Densité spectrale de la SBPA p=1 p=2 p=3 L’utilisation d’un diviseur de fréquence pour fSBPA augmente la densité spectrale en basses fréquences et la réduit en hautes fréquences. I.D. Landau Commande des systèmes, Chapitre 5 31 Choix de l’amplitude de la SBPA • Amplitude faible, mais supérieure au niveau du bruit résiduel • Rapport signal/bruit faible requiert l’allongement de l’essai • L’augmentation excessive de l’amplitude n’est pas souhaitable (des phénomènes non-linéaires liés au procédé peuvent apparaître) Valeurs typiques : 0.5% à 10% de la valeur de la commande statique (point de fonctionnement) I.D. Landau Commande des systèmes, Chapitre 5 32 Effets des perturbations aléatoires sur l’estimation des paramètres La sortie mesurée des procédés est en général bruitée (perturbations, bruits de mesure) Voir Chapitre IV pour la modélisation des perturbations aléatoires Effet des perturbations aléatoires sur les « moindres carrés » Sortie du modèle du procédé en présence de bruit: y (t + 1) = θ T φ (t ) + w(t ) w(t) représente l’effet du bruit (stationnaire, moyenne nulle, variance finie, indép. de u(t)) −1 Solution des moindres carrés: N N T ˆ θ ( N ) = ∑ φ (t − 1)φ (t − 1) ∑ φ (t − 1) y (t ) t =1 t =1 −1 division et multiplication par N N N T ˆ θ ( N ) = θ + ∑ φ (t − 1)φ (t − 1) ∑ φ (t − 1)w(t ) t =1 t =1 −1 Erreur (biais) N 1 N T 1 ˆ θ ( N ) = θ + ∑ φ (t − 1)φ (t − 1) ∑ φ (t − 1)w(t ) N t =1 N t =1 Condition d’estimation asymptotiquement non biaisée 1 lim N →∞ N φ (t − 1) w(t ) = E{φ (t − 1) w(t )} = 0 i =1 N −1 ∑ I.D. Landau Commande des systèmes, Chapitre 5 (*) 33 Estimation non biaisée en présence de bruit Il faut que φ(t-1) et w(t) soient non corrélés Pour les « moindres carrés » ceci implique w(t) = e(t) (bruit blanc). Dans tous les autres cas : estimation biaisée (voir détails, livre pg. 290) Supposons :θˆ = θ et on souhaite que l’algorithme laisse cette valetur inchangée yˆ (t + 1θ ) = θ T φ (t ) ε (t + 1θ ) = y (t + 1) − yˆ (t + 1θ ) = w(t + 1) Condition nécessaire à satisfaire pour l’estimation non biaisée: 1 N −1 (*) lim φ (t − 1, θ )ε (t ,θ ) = E{φ (t − 1,θ )ε (t ,θ )} = 0 N →∞ N i=1 E{φ (t )ε (t + 1)} = 0 pour θˆ ≡ θ Pour éliminer le biais: ∑ Modification de l’algorithme d’estimation pour obtenir: ou: ε(t+1) est un bruit blanc pour θˆ = θ φ(t) et ε(t+1) sont non corrélés (ou indépendants) pour θˆ = θ I.D. Landau Commande des systèmes, Chapitre 5 34 Structure des méthodes d’identification récursives u(t) Perturbation y(t) PROCEDE q θˆ(t + 1) = θˆ(t ) + F (t )Φ(t )ε (t + 1) + εο(t)) -1 A.A.P. 0 < λ1 (t ) ≤ 1 ; 0 ≤ λ2 (t ) < 2 ; F (0) > 0 > PREDICTEUR y(t) AJUSTABLE F −1 (t + 1) = λ1 (t ) F (t ) + λ2 Φ(t )Φ(t )T > φ ( t- 1) θ (t ) ε (t + 1) = ε 0 (t + 1) 1 + Φ (t ) T F (t )Φ (t ) Éléments caractéristiques: • structure du prédicteur • nature des composantes du vecteur d’observations (F) • dimension des vecteurs des paramètres ajustables et de Φ ˆ θ • génération de l’erreur de prédiction (ε) • même structure pour l’algorithme d’adaptation paramétrique Types de méthodes d’identification: I) Basées sur le blanchissement de l’erreur de prédiction (ε) II) Basées sur la décorrélation du vecteur Φ et de ε I.D. Landau Commande des systèmes, Chapitre 5 35 Méthodes d’identification • Il y a différentes structures « procédé + perturbation » • Il n’y a pas une méthode d’identification unique utilisable pour toute les structures Conséquence: En pratique il faut un systèmes interactif pour faire de l’identification Il doit fournir: • différentes structures « procédé + perturbation • différentes méthodes d’identification • des méthodes de validation des modèles identification • un système d’acquisition et traitement des données E/S • des outils d’analyse et de visualisation graphique Exemple: WinPIM (Adaptech). Voir Annexe A.5 et site web Adaptech (pg. d’acceuil) Des routines pour l’identification (Scilab et Matlab) sont téléchargeable à partir du site web du livre (www-lag.ensieg.inpg.fr/landau/bookIC) Le transparent suivant donne un aperçu des principales structures « procédé+ perturbation », de leur taux d’utilisation et des méthodes d’identifications appropriés I.D. Landau Commande des systèmes, Chapitre 5 36 Structures « procédé + perturbation » et méthodes d’identification S1 : A(q −1 ) y (t ) = q − d B ( q −1 )u (t ) + e(t ) S 3 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + C ( q −1 )e(t ) e(t) e(t) ~ 2% u(t) + q-d B y(t) u(t) q-d B A + A C A ~ 64% 1 A y(t) + + Moindres carrés récursifs (MCR) Moindres carrés étendus (MCE) ES avec modèle de prédiction étendu (ESMPE) Maximum de vraisemblance récursif (MVR) S 2 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + A( q −1 ) w(t ) S 4 : A( q −1 ) y (t ) = q − d B (q −1 )u (t ) + [1 / C ( q −1 )]e(t ) ~ 33% u(t) q-d B A e(t) w(t) + y(t) 1 CA ~ 1% + u(t) Variable instrumentale…(VIMA) Erreur de sortie (ESCF, ESFO, ESFAO) q-d B A + y(t) + Moindres carrés généralisés (MCG) I.D. Landau Commande des systèmes, Chapitre 5 37 Quelques remarques récapitulatives - L’identification comporte 4 étapes (acquisition E/S, estimation complexité modèle, estimation des paramètres, validation) - L’estimation des paramètres peut se faire avec des algorithmes récursifs ou non récursifs - L’unicité des paramètres identifiés dépend du choix de l’entrée - Entrée standard pour l’identification : Séquence binaire pseudo-aléatoire (SBPA) - Les perturbations et bruits sur la sortie peuvent provoquer des erreurs d’estimation (biais) - Il n’y a pas une structure unique « procédé + perturbation » pour décrire toutes les situations rencontrés en pratique - Il n’y a pas de méthode unique d’identification donnant des bons résultats pour toutes les structures « procédé + perturbation » - Il faut disposer d’un système interactif pour l’identification I.D. Landau Commande des systèmes, Chapitre 5 38