18 Traitement numérique des équations de Lyapunov et de Sylvester

Transcription

18 Traitement numérique des équations de Lyapunov et de Sylvester
OOO FTL LAREQ Publication
T RAITEMENT NUMERIQUE
DE L YAPUNOV
DES EQUATIONS DE
S YLVESTER
ET
Auteur(s) : Jean – Paul K. Tsasa Vangu & Yves Togba Boboy
Source : Laboratoire d’analyse – recherche en économie quantitative
Publié par : LAREQ Publication
Volume : Série alpha-I, numéro 18 [pp. 189 – 199]
Web : http://www.lareq.com
Courriel : [email protected]
Soumission : Juillet 26, 2013
Publication : Janvier 25, 2014
Le LAREQ Publication collabore avec Makroeconomica Review dans la production et la diffusion de la
série des fiches techniques Lareq (FTL).
MAKROECONOMICA REVIEW
Web : http://www.makroeconomica.org
Vous pouvez utiliser le contenu des FTL uniquement pour un usage personnel et non – commercial. Si
vous désirez exploiter tout le contenu de cette fiche, s'il vous plaît, citer la source. Pour un usage
commercial, prière contacter l'éditeur pour en obtenir l’autorisation, en vous dirigeant à l’adresse
suivante : http://www.makroeconomica.org/contact.ws.
MAKROECONOMICA REVIEW travaille en collaboration avec le Laboratoire d'analyse-recherche en
économie quantitative et le réseau congolais de recherche en économie quantitative dans l'objectif de
contribuer à la construction d’une plate-forme de recherche commune qui favorise la découverte et
l'utilisation de ces ressources au sein des universités africaines. Pour plus d'informations sur
MAKROECONOMICA, s'il vous plaît, contactez : [email protected].
Résumé
Cette série de fiches techniques (alpha–I) propose une introduction à la modélisation DSGE et une initiation à la plateforme logicielle Dynare et aux logiciels Dynare++ et MatLab. L’ensemble de publications dans le cadre de cette série, une fois complété, sera diffusé dans un document unique sous forme d’un manuel d’initiation. Avant de nous atteler à l'analyse des modèles SBVAR à changements de régime markoviens, il nous parait opportun de procéder à une brève introduction à l'analyse des équations de Lyapunov et de Sylvester. Pour leur traitement, nous distinguerons d'une part, le cas continu et d'autre part, le cas discret. Ainsi, l'objectif de cette fiche est de fournir les ingrédients qui accélèrent, un tout petit peu, la compréhension du rôle des équations différentielles et des méthodes numériques dans la résolution des modèles DSGE. I. Introduction
La théorie de contrôle ainsi que ses méthodes, trouvent de nombreuses applications en
économie, notamment dans le traitement des modèles DSGE. Avant l’intervention des
ordinateurs, les théoriciens de contrôle ont élaboré plusieurs méthodes, en se basant
notamment sur la notion de réduction des systèmes matriciels à certaines formes
condensées (e.g. formes de Jordan, de Schur, de Hessenberg ou diagonale).
Ainsi, avec ces acquis, et à la suite de l’émergence des logiciels et programmes
informatiques, des algorithmes numériques ont été développés pour résoudre plus
efficacement les différents problèmes théoriques et pratiques posés en recherche,
notamment les équations matricielles algébriques.
Bien que la mise en œuvre de ces algorithmes sur ordinateur nécessite moins d’effort, il
sied tout de même de remarquer que leur appréhension réclame généralement une
connaissance interdisciplinaire (algèbre linéaire, algèbre linéaire numérique, théorie de
contrôle, science computationnelle, système dynamique, etc.), ce qui exige beaucoup
d’efforts et d’exercices pratiques.
Dans cette fiche, notre attention sera essentiellement focalisée sur les différents
algorithmes facilitant la résolution numérique des équations de Sylvester et de
Lyapunov. Quatre méthodes seront distinguées selon que les équations sont perçues de
façon continue ou discrète. Comme nous le verrons dans des publications ultérieures,
ces équations (Sylvester & Lyapunov), ainsi que celle de Riccati1 sont très sollicitées
dans la mise en œuvre des méthodes de résolution des modèles DSGE.
A l’effet de ne pas alourdir le texte, nous supposons que le lecteur maîtrise les
théorèmes qui gouvernent la triangularisation de Schur, ainsi les notions matricielles
(algèbre linéaire). Ainsi, deux sections seront essentiellement développées. La section
première (II) fournira la preuve sur l’unicité de la solution des équations de Sylvester et
de Lyapunov. Et, la section deuxième (III) se focalisera sur l’illustration de différentes
méthodes de résolution numériques des équations de Lyapunov et de Sylvester,
notamment l’algorithme de Bartels – Stewart ; la méthode de Schur – Hessenberg,
l’algorithme de Barraud – Kitagawa et l’algorithme de Golub – Nash – Van Loan.
II. Unicité
II.1. Equations de Sylvester et de Lyapunov
Dans la plupart des méthodes numériques de résolution des équations matricielles, il
est implicitement supposé que la solution de l’équation à résoudre existe et est unique.
Ainsi, les résultats sur l’existence et l’unicité des équations de Sylvester et de Lyapunov
sont importants et classiques. Pour une description plus détaillée des preuves de ces
1
Cf. Vaughan (1970) ; Tsasa (2013).
190
Jean-Paul K. Tsasa & Yves Togba
Traitement numérique des équations de Sylvester et de Lyapunov
résultats, et une analyse de la stabilité de la solution, nous recommandons notamment
Barnett et Storey (1970) ; Barnett et Cameron (1985) ; Horn et Johnson (1999) ;
Lancaster et Rodman (1995) ; Datta (2003). Dans cette section nous nous attarderons
sur la preuve de l’unicité de la solution de ces équations qui revêtent une importance
majeure dans l’analyse macroéconomique moderne.
L’équation de Sylvester en temps continu, est donnée par l’expression suivante :
XA + BX = C, 1𝑎
et en temps discret, par :
BXA − X = C, 1𝑏
où A, B et C sont des systèmes matriciels, respectivement des formats 𝑛×𝑛 ; 𝑚×𝑚 ; 𝑚×𝑛,
avec 𝑛 ≤ 𝑚.
En parallèle, l’équation de Lyapunov en temps continu, s’écrit :
XA + A! X = C, 2𝑎
et en temps discret, par :
A! XA − X = C, 2𝑏
où A et C sont des systèmes matriciels.
En effet, il ressort que 2𝑎 est bien un cas particulier de 1𝑎 et de même, 2𝑏 pour
1𝑏 . Dans les différentes équations, l’inconnu est la matrice X.
II.2. Unicité de la solution de l’équation de Sylvester
Soient les matrices A, B et C respectivement de dimensions 𝑛×𝑛 ; 𝑚×𝑚 ; et 𝑚×𝑛.
Théorème 1. Soient 𝜆! , … , 𝜆! les valeurs propres de A et 𝜇! , … , 𝜇! les valeurs propres de B. Alors, l’équation 1𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜇! ≠ 0, ∀𝑖, ∀𝑗. Preuve. D’après ce théorème, l’équation de Sylvester possède une solution unique si et
seulement si A et −B n’ont pas des valeurs propres communes.
L’équation de Sylvester 1𝑎 est équivalente au système linéaire suivante :
Px = c,
De format 𝑛𝑚×𝑛𝑚, où :
P = I! ⨂B + A! ⨂I! ,
avec :
x = vec X = 𝑥!! , … , 𝑥!! , 𝑥!" , 𝑥!! , … , 𝑥!! , … , 𝑥!! , 𝑥!! , … , 𝑥!" ! ,
et
c = vec C = 𝑐!! , … , 𝑐!! , 𝑐!" , 𝑐!! , … , 𝑐!! , … , 𝑐!! , 𝑐!! , … , 𝑐!" ! .
Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199
Jean-Paul K. Tsasa & Yves Togba
191
Il sied de noter que W⨂Z est un produit de Kronecker de W et Z. Ainsi, si W = 𝑤!" et
Z = 𝑧!" sont des matrices d’ordre 𝑝×𝑝 et 𝑟×𝑟 respectivement, alors :
W⨂Z =
𝑤!! Z
𝑤!" Z
𝑤!! Z
⋮
𝑤!" Z
𝑤!! Z
𝑤!! Z
⋯
⋱
⋯
𝑤!! Z
𝑤!! Z
.
⋮
𝑤!! Z
Ainsi, l’équation de Sylvester possède une solution unique si et seulement la matrice P
est non singulière. Les valeurs propres de la matrice P sont les 𝑚𝑛 nombres 𝜆! + 𝜇! , où
𝑖 = 1, … , 𝑛 et 𝑗 = 1, … , 𝑚. Puisque le déterminant d’une matrice est égal au produit de ses
valeurs propres, cela implique que P est non singulière si et seulement si 𝜆! + 𝜇! ≠
0, ∀𝑖, ∀𝑗. ∎
Théorème 2. Soient 𝜆! , … , 𝜆! les valeurs propres de A et 𝜇! , … , 𝜇! les valeurs propres de B. Alors, l’équation 1𝑎 possède une solution unique X si et seulement si : 𝜆! 𝜇! ≠ 1, ∀𝑖, ∀𝑗. Preuve. Pour prouver l’unicité de la solution aux équations de Sylvester dans le cas
discret, on suit le même développement que précédemment. ∎
II.3. Unicité de la solution de l’équation de Lyapunov
L’équation de Lyapunov 2𝑎 étant un cas spécial de l’équation de Sylvester 1𝑎 , le
corollaire du théorème 1 est immédiat.
Corollaire 1. Soient 𝜆! , … , 𝜆! les valeurs propres de A. Alors, l’équation 2𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜆! ≠ 0, ∀𝑖, ∀𝑗. De même, dans le cas discret, on a immédiatement le corollaire du théorème 2.
Corollaire 2. Soient 𝜆! , … , 𝜆! les valeurs propres de A. Alors, l’équation 2𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜆! ≠ 0, ∀𝑖, ∀𝑗. II.4. Résolution numérique des équations de Sylvester et de
Lyapunov
Une méthode évidente pour résoudre l'équation de Sylvester XA + BX = C ou celle de
Lyapunov XA + A! X = C, c’est d'appliquer l'élimination de Gauss à la forme 𝑃𝑥 = c.
Cependant, à moins que la structure particulière de 𝑃 soit exploitée, l’application d’une
192
Jean-Paul K. Tsasa & Yves Togba
Traitement numérique des équations de Sylvester et de Lyapunov
telle technique à l'équation de Sylvester ou de Lyapunov sera en réalité un calcul
prohibitif. Ainsi, l’alternative permettant d'exploiter convenablement la structure de 𝑃
consiste à transformer A et B à certaines formes simples en utilisant la notion de
matrices semblables. Ainsi, si U et V sont des matrices non singulières de sorte que :
U !! AU = A
V !! BV = B , 3
V !! CU = C
alors l’équation XA + BX = C peut-être transformée et réécrite comme suit :
Y A + B Y = C , 4
où Y = V
!!
XU.
Si les matrices A et B sont des formes simples, alors l’équation Y A + B Y = C peut
facilement être résolue. Et la solution X recherchée peut être obtenue à partir de Y.
De manière générique, on procède comme suit, pour résoudre les équations de
Sylvester et de Lyapunov.
Algorithme générique. Etape 1. Transformer A et B à des formes simples (par exemple, matrices diagonale, de Jordan, compagnon, de Hessenberg, Schur, Schur réelle, etc.) en utilisant les transformations semblables : A = U !! AU et B = V !! BV. Mettre à jour la matrice du second membre : C = V !! CU. Etape 2. Résoudre l’équation transformée : Y A + B Y = C, où Y est l’inconnu. Etape 3. Retrouver X à partir de Y en résolvant le système XU = VY. A présent, analysons plus en détail chaque étape de l’algorithme générique, en
considérant respectivement l’équation de Lyapunov puis un cas plus général, l’équation
de Sylvester. Dans les deux premiers points, nous traiteront le cas continu et les deux
derniers, nous examinerons le cas discret.
III. Algorithmes de Schur et de Schur – Hessenberg
III.1. Algorithme de Bartels – Stewart
L’algorithme de Bartels – Stewart, connu également sous le nom de la méthode de Schur, est une méthode largement sollicitée dans l’implémentation de la solution de
l’équation de Lyapunov. Il est basé sur la décomposition de Schur réelle, c’est – à – dire
sur la réduction de la matrice A! à une forme de Schur réelle (RSF).
Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199
Jean-Paul K. Tsasa & Yves Togba
193
Etant donné que chaque matrice A! est orthogonalement semblable à la matrice
originale, ce qu’elle possède les mêmes valeurs propres que A. Ainsi, suivant Wilkinson
(1965, pp. 518 – 519), on conclut que la séquence A! converge vers la forme de Schur
de A :
A = QR,
où Q! Q = I.
Etape 1. Réduction du problème
Soit R = U ! A! U la RSF de la matrice A! . Alors, en exécutant cette transformation,
l’équation matricielle de Lyapunov :
XA + A! X = C,
est réduite à :
YR! + RY = C,
!
!
où C = U CU, et Y = U XU.
Etape 2. Solution du problème réduit
L’équation réduite à résoudre est :
YR! + RY = C.
Soit Y = 𝑦! , … , 𝑦! , C = 𝑐! , … , 𝑐! , et R = 𝑟!" . Supposons que les colonnes 𝑦!!! par 𝑦! ont
été calculées, et considérons les deux cas suivants :
CAS 1 : 𝑟!,!!! = 0. Alors 𝑦! est déterminé en résolvant le système quasi – triangulaire :
R + 𝑟!! I 𝑦! = 𝑐!
R + 𝑟!!!,!!! I 𝑦!!! = 𝑐!!! − 𝑟!!!,! 𝑦!
⋮
R + 𝑟!,! I 𝑦! = 𝑐! − 𝑟!" 𝑦! − ⋯ − 𝑟!!!,! 𝑦!
CAS 2 : 𝑟!,!!! ≠ 0. Ceci implique qu’il n’y a pas de Schur bump sur la diagonale. Cela
permet de calculer 𝑦!!! et 𝑦! simultanément, en résolvant le système linéaire 2𝑛×2𝑛
suivant :
R 𝑦!!! , 𝑦! + 𝑦!!! , 𝑦!
𝑟!!!,!!!
𝑟!!!,!
𝑟!,!!!
𝑟!,!
!
= 𝑐!!! , 𝑐! −
𝑟!!!,! 𝑦! , 𝑟!" 𝑦!
!!!!!
= 𝑑!!! , 𝑑! .
Etape 3. Récupération de la solution du problème original à partir de la
solution du problème réduit
Une fois que Y est obtenu en résolvant le problème réduit :
YR! + RY = C,
La solution X du problème original :
est récupéré comme suit :
XA + A! X = C,
X = U ! YU.
Note : La fonction MatLab lyap de la forme X = 𝐥𝐲𝐚𝐩 A, C résout l’équation de Lyapunov :
XA + A! X = C,
en utilisant la triangularisation de Schur complexe de la matrice A.
194
Jean-Paul K. Tsasa & Yves Togba
Traitement numérique des équations de Sylvester et de Lyapunov
III.2. Méthode de Hessenberg – Schur
La stratégie développée précédemment pour résoudre l’équation de Lyapunov peut
également être exécutée pour dériver la solution de l’équation de Sylvester XA + BX = C.
Dans ce cas, il faudra transformer respectivement les matrices A et B à une RSF
inférieure et à RSF supérieure. Toutefois, il est possible de réduire la quantité de calcul,
en transformant la matrice B en une forme réduite de Hessenberg et la matrice A en
une RSF, où bien sûr on suppose que B est plus grande que A. Ainsi obtient–on la forme réduite de Hessenberg – Schur (RHSF). Par la suite, il suffit de résoudre le problème de
Hessenberg – Schur et enfin, récupérer la solution du problème original.
In fine, il sied de noter que la méthode de Hessenberg – Schur est une variante de
l’algorithme de Bartels – Stewart, qui a été développée par Golub, Nash et Van Loan
en 1979.
Etape 1. Réduction au problème de Hessenberg – Schur (RSHF)
Soient 𝑚 et 𝑛 tels que 𝑚 > 𝑛 et R = U ! A! U ; H = V ! BV, respectivement la RSF inférieure et
la RHF supérieure de A et de B. Alors :
XA + BX = C ⟹ YR! + HY = C,
où Y = V ! XU et C = V ! CU.
Etape 2. Solution au problème de Hessenberg – Schur
Dans le problème réduit YR! + HY = C, on a que :
Y = 𝑦! , 𝑦! , … , 𝑦! et C = 𝑐! , 𝑐! , … , 𝑐!
!
!
où Y = V XU et C = V CU.
Considérant que 𝑦!!! , … , 𝑦! est toujours calculé, 𝑦! (ou 𝑦! et 𝑦!!! ) peut être calculé
comme dans le cas de l’équation de Lyapunov, en distinguant deux cas.
CAS 1 : 𝑟!,!!! = 0. Alors 𝑦! est calculé en résolvant le système de Hessenberg de format
𝑚×𝑛 :
!
H + 𝑟!! I 𝑦! = 𝑐! −
𝑟!" 𝑦! .
!!!!!
CAS 2 : si 𝑟!,!!! ≠ 0, en égalisant les colonnes 𝑘 − 1 et 𝑘 dans YR! + HY = C, il devient
facile de voir que 𝑦!!! et 𝑦! peut être simultanément calculé en résolvant le système
linéaire 2𝑚×2𝑚 suivant :
H + 𝑟!!!,!!! I
𝑟!!!,! I
𝑟!,!!! I
H + 𝑟!,! I
𝑦!!!
𝑑!!!
𝑦! = 𝑑!
où :
𝑑!!! , 𝑑! = H 𝑦!!! , 𝑦! + 𝑦!!! , 𝑦!
𝑟!!!,!!!
𝑟!!!,!
𝑟!,!!!
𝑟!,!
!
= 𝑐!!! , 𝑐! −
𝑟!!!,! 𝑦! , 𝑟!" 𝑦! .
!!!!!
Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199
Jean-Paul K. Tsasa & Yves Togba
195
Etape 3. Récupération de la solution originale
La solution X est récupérée à partir de Y comme suit :
X = VYU ! .
III.3. Algorithme de Barraud – Kitagawa
L’algorithme de Barraud – Kitagawa2 est pour l’équation de Lyapunov discret, ce qu’est
l’algorithme de Bartels – Stewart (méthode de Schur) pour l’équation de Lyapunov
continu. Soit :
A! XA − X = C.
Comme précédemment, on distingue également trois étapes pour dériver la solution X
recherchée.
Etape 1. Réduction du problème
Soit R = U ! A! U la
RSF
supérieure
de
la
matrice A! . Alors,
en
exécutant
cette
transformation, l’équation matricielle de Lyapunov :
A! XA − X = C,
est réduite à :
RYR! − Y = C,
où C = U ! CU, et Y = U ! XU.
Etape 2. Solution du problème réduit
Soit Y = 𝑦! , 𝑦! , … , 𝑦! , C = 𝑐! , 𝑐! , … , 𝑐! , et R = 𝑟!" . On considère également deux cas.
CAS 1 : 𝑟!,!!! = 0, Alors 𝑦! est déterminé en résolvant le système quasi – triangulaire :
!
𝑟!! R − I 𝑦! = 𝑐! − R
𝑟!" 𝑦! .
!!!!!
En particulier, si R est une matrice triangulaire supérieure, alors 𝑦! par 𝑦! peut être
calculé successivement en résolvant les systèmes triangulaires :
!
𝑟!! R − I 𝑦! = 𝑐! − R
𝑟!" 𝑦! , 𝑘 = 𝑛, 𝑛 − 1, … , 2, 1.
!!!!!
CAS 2 : 𝑟!,!!! ≠ 0. Dans ce cas 𝑦! et 𝑦!!! peuvent être calculés simultanément, comme
précédemment.
Ainsi,
par
exemple,
pour 𝑛 = 3, et 𝑟!,! ≠ 0, alors 𝑦! et 𝑦! peuvent
simultanément en résolvant le système suivant :
𝑟!! − I
𝑟!" R
𝑟!" R
𝑟!! R − I
𝑦!
𝑐! − 𝑟!" Ry!
𝑦! = 𝑐! − 𝑟!" Ry! .
2
Méthode indépendamment proposée par Barraud et Kitagawa en 1977.
196
Jean-Paul K. Tsasa & Yves Togba
Traitement numérique des équations de Sylvester et de Lyapunov
être
calculés
Etape 3. Récupération de la solution recherchée 𝐗 à partir de 𝐘
Une fois que Y est obtenu en résolvant le problème réduit :
RYR! − Y = C,
La solution X du problème original :
A! XA − X = C,
est récupéré comme suit :
X = UYU ! .
Note : La fonction MatLab dlyap résout l’équation de Lyapunov discrète.
III.4. Algorithme de Golub – Nash – Van Loan
L’algorithme de Barraud exécuté dans la résolution de l’équation de Lyapunov discret,
peut être étendu pour résoudre, l’équation de Sylvester discret :
BXA + C = X.
Supposons que le format de la matrice A est plus petit que celui de la matrice B. Soit
A ∈ ℝ!×! , B ∈ ℝ!×! . Soient A! et B deux matrices transformées respectivement, en une
matrice de Schur réel supérieur noté R, et en une matrice de Hessenberg supérieur noté
H telles que :
R = U ! A! U
et par ailleurs,
H = V ! BV.
Alors :
BXA + C = X ⟹ HYR! + C = Y,
où Y = V ! XU, C = V ! CU.
Soit Y = 𝑦! , … , 𝑦! et C = c! , 𝑐! , … , 𝑐! .
Dès lors, l’équation réduite peut être résolue, en suivant exactement la même stratégie
exécutée dans la mise en œuvre de la méthode de Schur – Hessenberg.
In fine, à l’effet de compléter la présente analyse (introductive), dans les fiches
ultérieures, notre attention sera portée sur le traitement de l’équation de Sylvester
généralisée telle que AXB + CXD = F, et sur la description de l’algorithme proposé par
!
Kamenik pour résoudre l’équation de Sylvester spécialisée de forme : AX + BX ⨂C = D.
Ce dernier algorithme est largement sollicité dans l’implémentation des modèles DSGE
sur la plateforme logicielle Dynare.
Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199
Jean-Paul K. Tsasa & Yves Togba
197
Références bibliographiques
•
BARNETT Stephen et Colin STOREY, 1968, Some Applications of the Lyapunov
Matrix Equation, Journal of the Institute of Mathematics and its Applications, 4 (1):
33-42.
•
BARNETT Stephen et Colin STOREY, 1970, Matrix methods in stability theory,
Nelson, London, 148p.
•
BARNETT Stephen et Robert G. CAMERON, 1985, Introduction to Mathematical
Control Theory, 2è edition, Oxford University Press, Oxford, 404p.
•
BARNETT Stephen, 1985, Introduction to mathematical control theory, 2è édition,
Oxford University Press, Oxford, 404p.
•
BARRAUD A.Y., 1977, “A numerical algorithm to solve ATXA – X = Q”, Institute of
Electrical and Electronics Engineers Transactions on Automatic Control, AC-22 (5):
883 – 885.
•
BARRAUD A.Y., 1977, “A numerical algorithm to solve ATXA – X = Q”, Institute of
Electrical and Electronics Engineers Transactions on Automatic Control (Conference
on Decision and Control including the 16th Symposium on Adaptive Processes and
A Special Symposium on Fuzzy Set Theory and Applications) AC-16, Part I, 420 –
423.
•
BARTELS Richard H. et G. W. Pete STEWART, 1972, Solution of the matrix
equation AX + XB = C (Algorithm 432), Communications of the Association for
Computer Machinery, 15 (9): 820 - 826.
•
BLANCHARD Olivier J. et Charles M. KAHN, 1980, “The Solution of Linear
Difference Models Under Rational Expectations”, Econometrica 48(5): 1305 –
1310.
•
DATTA Biswa N., 2003, Numerical Methods for Linear Control Systems, Academic
Press, 640p.
•
FLEMING, Wendell H., 1971, "Stochastic Control for Small Noise Intensities", SIAM
Journal of Control, 9(3): 473 – 517.
•
GIVENS Wallace, 1954, “Numerical computation of the characteristic values of a
real symmetric matrix”, Oak Ridge National Laboratory, Report Number ORNL
1574 (physics), 107.
•
GIVENS Wallace, 1958, “Computation of plane unitary rotations transforming a
general matrix to triangular form”, Journal of the Society for Industrial and Applied
Mathematics, 6 (1): 26 – 50.
•
GOLUB Gene H. et Charles F. VAN LOAN, 1996, Matrix Computations, 3è edition,
The Johns Hopkins University, Baltimore & London, 694p.
•
GOLUB Gene H., Stephen NASH et Charles F. VAN LOAN, 1979, “A HessenbergSchur Method for the Problem AX + XB = C,” Institute of Electrical and Electronics
Engineers Transactions on Automatic Control, AC-24 (6): 909 – 913.
•
HEER Burkhard et Alfred MAUßNER, 2009, Dynamic General Equilibrium Modeling.
Computational Methods and Applications, Second Edition Springer – Verlag, Berlin,
702p.
198
Jean-Paul K. Tsasa & Yves Togba
Traitement numérique des équations de Sylvester et de Lyapunov
•
HORN Roger A. et Charles R. JOHNSON, 1990, Matrix Analysis, Cambridge
University Press, Cambridge, 575p.
•
HORN Roger A. et Charles R. JOHNSON, 1999, Topics in Matrix Analysis, edition de
1991 réimprimée avec correction, Cambridge University Press, Cambridge, 616p.
•
HOUSEHOLDER Alston S., 1953, Principles of Numerical Analysis, McGraw – Hill,
New York, 274p.
•
HOUSEHOLDER Alston S., 1958, “Unitary Triangularization of a Nonsymmetric
Matrix”, Journal of the Association for Computing Machinery, 5 (4): 339 – 342
•
JUDD Kenneth L., 1998, Numerical Methods in Economics, MIT Press, Cambridge,
MA, 656p.
•
KING Robert G., Charles L. PLOSSER et Sergio T. REBELO, 1988, “Production,
Growth and Business Cycles I: The Basic Neoclassical Model”, Journal of Monetary
Economics (juin), 21 (2–3): 195 – 232.
•
KITAGAWA Genshiro, 1977, “An Algorithm for Solving the Matrix Equation X = FXFT
+ S”, International Journal of Control, 25 (5): 745 – 753.
•
LANCASTER Peter et Leiba RODMAN, 1995, Algebraic Riccati Equations, Oxford
University Press, Oxford, 498p.
•
LJUNGQVIST Lars et Thomas J. SARGENT, 2004, Recursive Macroeconomic Theory,
2nd
edition,
The
Massachusetts
Institute
of
Technology
Press,
Cambridge,
Massachusetts, 1082p.
•
SCHMITT – GROHE Stephanie et Martin URIBE, 2004, “Solving Dynamic General
Equilibrium Models using a Second – Order Approximation to the Policy Function”,
Journal of Economic Dynamics and Control, 28 (4): 755 – 775.
•
STOKEY Nancy L. et Robert E. LUCAS Jr., avec Edward C. PRESCOTT, 1989,
Recursive
Methods
in
Economic
Dynamics,
Harvard
University
Press,
Massachusetts, 588p.
•
TSASA Jean – Paul, 2013, « Equation de Riccati Discrète. Illustration de
l'algorithme de Vaughan », One Pager Laréq (décembre), 8 (17): 188 – 199
•
VAUGHAN David R., 1970, “A Nonrecursive Algebraic Solution for the Discrete
Riccati Equation”, Institute of Electrical and Electronics Engineers Transactions on
Automatic Control, AC – 15 (5): 597 – 599.
Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199
Jean-Paul K. Tsasa & Yves Togba
199