18 Traitement numérique des équations de Lyapunov et de Sylvester
Transcription
18 Traitement numérique des équations de Lyapunov et de Sylvester
OOO FTL LAREQ Publication T RAITEMENT NUMERIQUE DE L YAPUNOV DES EQUATIONS DE S YLVESTER ET Auteur(s) : Jean – Paul K. Tsasa Vangu & Yves Togba Boboy Source : Laboratoire d’analyse – recherche en économie quantitative Publié par : LAREQ Publication Volume : Série alpha-I, numéro 18 [pp. 189 – 199] Web : http://www.lareq.com Courriel : [email protected] Soumission : Juillet 26, 2013 Publication : Janvier 25, 2014 Le LAREQ Publication collabore avec Makroeconomica Review dans la production et la diffusion de la série des fiches techniques Lareq (FTL). MAKROECONOMICA REVIEW Web : http://www.makroeconomica.org Vous pouvez utiliser le contenu des FTL uniquement pour un usage personnel et non – commercial. Si vous désirez exploiter tout le contenu de cette fiche, s'il vous plaît, citer la source. Pour un usage commercial, prière contacter l'éditeur pour en obtenir l’autorisation, en vous dirigeant à l’adresse suivante : http://www.makroeconomica.org/contact.ws. MAKROECONOMICA REVIEW travaille en collaboration avec le Laboratoire d'analyse-recherche en économie quantitative et le réseau congolais de recherche en économie quantitative dans l'objectif de contribuer à la construction d’une plate-forme de recherche commune qui favorise la découverte et l'utilisation de ces ressources au sein des universités africaines. Pour plus d'informations sur MAKROECONOMICA, s'il vous plaît, contactez : [email protected]. Résumé Cette série de fiches techniques (alpha–I) propose une introduction à la modélisation DSGE et une initiation à la plateforme logicielle Dynare et aux logiciels Dynare++ et MatLab. L’ensemble de publications dans le cadre de cette série, une fois complété, sera diffusé dans un document unique sous forme d’un manuel d’initiation. Avant de nous atteler à l'analyse des modèles SBVAR à changements de régime markoviens, il nous parait opportun de procéder à une brève introduction à l'analyse des équations de Lyapunov et de Sylvester. Pour leur traitement, nous distinguerons d'une part, le cas continu et d'autre part, le cas discret. Ainsi, l'objectif de cette fiche est de fournir les ingrédients qui accélèrent, un tout petit peu, la compréhension du rôle des équations différentielles et des méthodes numériques dans la résolution des modèles DSGE. I. Introduction La théorie de contrôle ainsi que ses méthodes, trouvent de nombreuses applications en économie, notamment dans le traitement des modèles DSGE. Avant l’intervention des ordinateurs, les théoriciens de contrôle ont élaboré plusieurs méthodes, en se basant notamment sur la notion de réduction des systèmes matriciels à certaines formes condensées (e.g. formes de Jordan, de Schur, de Hessenberg ou diagonale). Ainsi, avec ces acquis, et à la suite de l’émergence des logiciels et programmes informatiques, des algorithmes numériques ont été développés pour résoudre plus efficacement les différents problèmes théoriques et pratiques posés en recherche, notamment les équations matricielles algébriques. Bien que la mise en œuvre de ces algorithmes sur ordinateur nécessite moins d’effort, il sied tout de même de remarquer que leur appréhension réclame généralement une connaissance interdisciplinaire (algèbre linéaire, algèbre linéaire numérique, théorie de contrôle, science computationnelle, système dynamique, etc.), ce qui exige beaucoup d’efforts et d’exercices pratiques. Dans cette fiche, notre attention sera essentiellement focalisée sur les différents algorithmes facilitant la résolution numérique des équations de Sylvester et de Lyapunov. Quatre méthodes seront distinguées selon que les équations sont perçues de façon continue ou discrète. Comme nous le verrons dans des publications ultérieures, ces équations (Sylvester & Lyapunov), ainsi que celle de Riccati1 sont très sollicitées dans la mise en œuvre des méthodes de résolution des modèles DSGE. A l’effet de ne pas alourdir le texte, nous supposons que le lecteur maîtrise les théorèmes qui gouvernent la triangularisation de Schur, ainsi les notions matricielles (algèbre linéaire). Ainsi, deux sections seront essentiellement développées. La section première (II) fournira la preuve sur l’unicité de la solution des équations de Sylvester et de Lyapunov. Et, la section deuxième (III) se focalisera sur l’illustration de différentes méthodes de résolution numériques des équations de Lyapunov et de Sylvester, notamment l’algorithme de Bartels – Stewart ; la méthode de Schur – Hessenberg, l’algorithme de Barraud – Kitagawa et l’algorithme de Golub – Nash – Van Loan. II. Unicité II.1. Equations de Sylvester et de Lyapunov Dans la plupart des méthodes numériques de résolution des équations matricielles, il est implicitement supposé que la solution de l’équation à résoudre existe et est unique. Ainsi, les résultats sur l’existence et l’unicité des équations de Sylvester et de Lyapunov sont importants et classiques. Pour une description plus détaillée des preuves de ces 1 Cf. Vaughan (1970) ; Tsasa (2013). 190 Jean-Paul K. Tsasa & Yves Togba Traitement numérique des équations de Sylvester et de Lyapunov résultats, et une analyse de la stabilité de la solution, nous recommandons notamment Barnett et Storey (1970) ; Barnett et Cameron (1985) ; Horn et Johnson (1999) ; Lancaster et Rodman (1995) ; Datta (2003). Dans cette section nous nous attarderons sur la preuve de l’unicité de la solution de ces équations qui revêtent une importance majeure dans l’analyse macroéconomique moderne. L’équation de Sylvester en temps continu, est donnée par l’expression suivante : XA + BX = C, 1𝑎 et en temps discret, par : BXA − X = C, 1𝑏 où A, B et C sont des systèmes matriciels, respectivement des formats 𝑛×𝑛 ; 𝑚×𝑚 ; 𝑚×𝑛, avec 𝑛 ≤ 𝑚. En parallèle, l’équation de Lyapunov en temps continu, s’écrit : XA + A! X = C, 2𝑎 et en temps discret, par : A! XA − X = C, 2𝑏 où A et C sont des systèmes matriciels. En effet, il ressort que 2𝑎 est bien un cas particulier de 1𝑎 et de même, 2𝑏 pour 1𝑏 . Dans les différentes équations, l’inconnu est la matrice X. II.2. Unicité de la solution de l’équation de Sylvester Soient les matrices A, B et C respectivement de dimensions 𝑛×𝑛 ; 𝑚×𝑚 ; et 𝑚×𝑛. Théorème 1. Soient 𝜆! , … , 𝜆! les valeurs propres de A et 𝜇! , … , 𝜇! les valeurs propres de B. Alors, l’équation 1𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜇! ≠ 0, ∀𝑖, ∀𝑗. Preuve. D’après ce théorème, l’équation de Sylvester possède une solution unique si et seulement si A et −B n’ont pas des valeurs propres communes. L’équation de Sylvester 1𝑎 est équivalente au système linéaire suivante : Px = c, De format 𝑛𝑚×𝑛𝑚, où : P = I! ⨂B + A! ⨂I! , avec : x = vec X = 𝑥!! , … , 𝑥!! , 𝑥!" , 𝑥!! , … , 𝑥!! , … , 𝑥!! , 𝑥!! , … , 𝑥!" ! , et c = vec C = 𝑐!! , … , 𝑐!! , 𝑐!" , 𝑐!! , … , 𝑐!! , … , 𝑐!! , 𝑐!! , … , 𝑐!" ! . Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199 Jean-Paul K. Tsasa & Yves Togba 191 Il sied de noter que W⨂Z est un produit de Kronecker de W et Z. Ainsi, si W = 𝑤!" et Z = 𝑧!" sont des matrices d’ordre 𝑝×𝑝 et 𝑟×𝑟 respectivement, alors : W⨂Z = 𝑤!! Z 𝑤!" Z 𝑤!! Z ⋮ 𝑤!" Z 𝑤!! Z 𝑤!! Z ⋯ ⋱ ⋯ 𝑤!! Z 𝑤!! Z . ⋮ 𝑤!! Z Ainsi, l’équation de Sylvester possède une solution unique si et seulement la matrice P est non singulière. Les valeurs propres de la matrice P sont les 𝑚𝑛 nombres 𝜆! + 𝜇! , où 𝑖 = 1, … , 𝑛 et 𝑗 = 1, … , 𝑚. Puisque le déterminant d’une matrice est égal au produit de ses valeurs propres, cela implique que P est non singulière si et seulement si 𝜆! + 𝜇! ≠ 0, ∀𝑖, ∀𝑗. ∎ Théorème 2. Soient 𝜆! , … , 𝜆! les valeurs propres de A et 𝜇! , … , 𝜇! les valeurs propres de B. Alors, l’équation 1𝑎 possède une solution unique X si et seulement si : 𝜆! 𝜇! ≠ 1, ∀𝑖, ∀𝑗. Preuve. Pour prouver l’unicité de la solution aux équations de Sylvester dans le cas discret, on suit le même développement que précédemment. ∎ II.3. Unicité de la solution de l’équation de Lyapunov L’équation de Lyapunov 2𝑎 étant un cas spécial de l’équation de Sylvester 1𝑎 , le corollaire du théorème 1 est immédiat. Corollaire 1. Soient 𝜆! , … , 𝜆! les valeurs propres de A. Alors, l’équation 2𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜆! ≠ 0, ∀𝑖, ∀𝑗. De même, dans le cas discret, on a immédiatement le corollaire du théorème 2. Corollaire 2. Soient 𝜆! , … , 𝜆! les valeurs propres de A. Alors, l’équation 2𝑎 possède une solution unique X si et seulement si : 𝜆! + 𝜆! ≠ 0, ∀𝑖, ∀𝑗. II.4. Résolution numérique des équations de Sylvester et de Lyapunov Une méthode évidente pour résoudre l'équation de Sylvester XA + BX = C ou celle de Lyapunov XA + A! X = C, c’est d'appliquer l'élimination de Gauss à la forme 𝑃𝑥 = c. Cependant, à moins que la structure particulière de 𝑃 soit exploitée, l’application d’une 192 Jean-Paul K. Tsasa & Yves Togba Traitement numérique des équations de Sylvester et de Lyapunov telle technique à l'équation de Sylvester ou de Lyapunov sera en réalité un calcul prohibitif. Ainsi, l’alternative permettant d'exploiter convenablement la structure de 𝑃 consiste à transformer A et B à certaines formes simples en utilisant la notion de matrices semblables. Ainsi, si U et V sont des matrices non singulières de sorte que : U !! AU = A V !! BV = B , 3 V !! CU = C alors l’équation XA + BX = C peut-être transformée et réécrite comme suit : Y A + B Y = C , 4 où Y = V !! XU. Si les matrices A et B sont des formes simples, alors l’équation Y A + B Y = C peut facilement être résolue. Et la solution X recherchée peut être obtenue à partir de Y. De manière générique, on procède comme suit, pour résoudre les équations de Sylvester et de Lyapunov. Algorithme générique. Etape 1. Transformer A et B à des formes simples (par exemple, matrices diagonale, de Jordan, compagnon, de Hessenberg, Schur, Schur réelle, etc.) en utilisant les transformations semblables : A = U !! AU et B = V !! BV. Mettre à jour la matrice du second membre : C = V !! CU. Etape 2. Résoudre l’équation transformée : Y A + B Y = C, où Y est l’inconnu. Etape 3. Retrouver X à partir de Y en résolvant le système XU = VY. A présent, analysons plus en détail chaque étape de l’algorithme générique, en considérant respectivement l’équation de Lyapunov puis un cas plus général, l’équation de Sylvester. Dans les deux premiers points, nous traiteront le cas continu et les deux derniers, nous examinerons le cas discret. III. Algorithmes de Schur et de Schur – Hessenberg III.1. Algorithme de Bartels – Stewart L’algorithme de Bartels – Stewart, connu également sous le nom de la méthode de Schur, est une méthode largement sollicitée dans l’implémentation de la solution de l’équation de Lyapunov. Il est basé sur la décomposition de Schur réelle, c’est – à – dire sur la réduction de la matrice A! à une forme de Schur réelle (RSF). Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199 Jean-Paul K. Tsasa & Yves Togba 193 Etant donné que chaque matrice A! est orthogonalement semblable à la matrice originale, ce qu’elle possède les mêmes valeurs propres que A. Ainsi, suivant Wilkinson (1965, pp. 518 – 519), on conclut que la séquence A! converge vers la forme de Schur de A : A = QR, où Q! Q = I. Etape 1. Réduction du problème Soit R = U ! A! U la RSF de la matrice A! . Alors, en exécutant cette transformation, l’équation matricielle de Lyapunov : XA + A! X = C, est réduite à : YR! + RY = C, ! ! où C = U CU, et Y = U XU. Etape 2. Solution du problème réduit L’équation réduite à résoudre est : YR! + RY = C. Soit Y = 𝑦! , … , 𝑦! , C = 𝑐! , … , 𝑐! , et R = 𝑟!" . Supposons que les colonnes 𝑦!!! par 𝑦! ont été calculées, et considérons les deux cas suivants : CAS 1 : 𝑟!,!!! = 0. Alors 𝑦! est déterminé en résolvant le système quasi – triangulaire : R + 𝑟!! I 𝑦! = 𝑐! R + 𝑟!!!,!!! I 𝑦!!! = 𝑐!!! − 𝑟!!!,! 𝑦! ⋮ R + 𝑟!,! I 𝑦! = 𝑐! − 𝑟!" 𝑦! − ⋯ − 𝑟!!!,! 𝑦! CAS 2 : 𝑟!,!!! ≠ 0. Ceci implique qu’il n’y a pas de Schur bump sur la diagonale. Cela permet de calculer 𝑦!!! et 𝑦! simultanément, en résolvant le système linéaire 2𝑛×2𝑛 suivant : R 𝑦!!! , 𝑦! + 𝑦!!! , 𝑦! 𝑟!!!,!!! 𝑟!!!,! 𝑟!,!!! 𝑟!,! ! = 𝑐!!! , 𝑐! − 𝑟!!!,! 𝑦! , 𝑟!" 𝑦! !!!!! = 𝑑!!! , 𝑑! . Etape 3. Récupération de la solution du problème original à partir de la solution du problème réduit Une fois que Y est obtenu en résolvant le problème réduit : YR! + RY = C, La solution X du problème original : est récupéré comme suit : XA + A! X = C, X = U ! YU. Note : La fonction MatLab lyap de la forme X = 𝐥𝐲𝐚𝐩 A, C résout l’équation de Lyapunov : XA + A! X = C, en utilisant la triangularisation de Schur complexe de la matrice A. 194 Jean-Paul K. Tsasa & Yves Togba Traitement numérique des équations de Sylvester et de Lyapunov III.2. Méthode de Hessenberg – Schur La stratégie développée précédemment pour résoudre l’équation de Lyapunov peut également être exécutée pour dériver la solution de l’équation de Sylvester XA + BX = C. Dans ce cas, il faudra transformer respectivement les matrices A et B à une RSF inférieure et à RSF supérieure. Toutefois, il est possible de réduire la quantité de calcul, en transformant la matrice B en une forme réduite de Hessenberg et la matrice A en une RSF, où bien sûr on suppose que B est plus grande que A. Ainsi obtient–on la forme réduite de Hessenberg – Schur (RHSF). Par la suite, il suffit de résoudre le problème de Hessenberg – Schur et enfin, récupérer la solution du problème original. In fine, il sied de noter que la méthode de Hessenberg – Schur est une variante de l’algorithme de Bartels – Stewart, qui a été développée par Golub, Nash et Van Loan en 1979. Etape 1. Réduction au problème de Hessenberg – Schur (RSHF) Soient 𝑚 et 𝑛 tels que 𝑚 > 𝑛 et R = U ! A! U ; H = V ! BV, respectivement la RSF inférieure et la RHF supérieure de A et de B. Alors : XA + BX = C ⟹ YR! + HY = C, où Y = V ! XU et C = V ! CU. Etape 2. Solution au problème de Hessenberg – Schur Dans le problème réduit YR! + HY = C, on a que : Y = 𝑦! , 𝑦! , … , 𝑦! et C = 𝑐! , 𝑐! , … , 𝑐! ! ! où Y = V XU et C = V CU. Considérant que 𝑦!!! , … , 𝑦! est toujours calculé, 𝑦! (ou 𝑦! et 𝑦!!! ) peut être calculé comme dans le cas de l’équation de Lyapunov, en distinguant deux cas. CAS 1 : 𝑟!,!!! = 0. Alors 𝑦! est calculé en résolvant le système de Hessenberg de format 𝑚×𝑛 : ! H + 𝑟!! I 𝑦! = 𝑐! − 𝑟!" 𝑦! . !!!!! CAS 2 : si 𝑟!,!!! ≠ 0, en égalisant les colonnes 𝑘 − 1 et 𝑘 dans YR! + HY = C, il devient facile de voir que 𝑦!!! et 𝑦! peut être simultanément calculé en résolvant le système linéaire 2𝑚×2𝑚 suivant : H + 𝑟!!!,!!! I 𝑟!!!,! I 𝑟!,!!! I H + 𝑟!,! I 𝑦!!! 𝑑!!! 𝑦! = 𝑑! où : 𝑑!!! , 𝑑! = H 𝑦!!! , 𝑦! + 𝑦!!! , 𝑦! 𝑟!!!,!!! 𝑟!!!,! 𝑟!,!!! 𝑟!,! ! = 𝑐!!! , 𝑐! − 𝑟!!!,! 𝑦! , 𝑟!" 𝑦! . !!!!! Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199 Jean-Paul K. Tsasa & Yves Togba 195 Etape 3. Récupération de la solution originale La solution X est récupérée à partir de Y comme suit : X = VYU ! . III.3. Algorithme de Barraud – Kitagawa L’algorithme de Barraud – Kitagawa2 est pour l’équation de Lyapunov discret, ce qu’est l’algorithme de Bartels – Stewart (méthode de Schur) pour l’équation de Lyapunov continu. Soit : A! XA − X = C. Comme précédemment, on distingue également trois étapes pour dériver la solution X recherchée. Etape 1. Réduction du problème Soit R = U ! A! U la RSF supérieure de la matrice A! . Alors, en exécutant cette transformation, l’équation matricielle de Lyapunov : A! XA − X = C, est réduite à : RYR! − Y = C, où C = U ! CU, et Y = U ! XU. Etape 2. Solution du problème réduit Soit Y = 𝑦! , 𝑦! , … , 𝑦! , C = 𝑐! , 𝑐! , … , 𝑐! , et R = 𝑟!" . On considère également deux cas. CAS 1 : 𝑟!,!!! = 0, Alors 𝑦! est déterminé en résolvant le système quasi – triangulaire : ! 𝑟!! R − I 𝑦! = 𝑐! − R 𝑟!" 𝑦! . !!!!! En particulier, si R est une matrice triangulaire supérieure, alors 𝑦! par 𝑦! peut être calculé successivement en résolvant les systèmes triangulaires : ! 𝑟!! R − I 𝑦! = 𝑐! − R 𝑟!" 𝑦! , 𝑘 = 𝑛, 𝑛 − 1, … , 2, 1. !!!!! CAS 2 : 𝑟!,!!! ≠ 0. Dans ce cas 𝑦! et 𝑦!!! peuvent être calculés simultanément, comme précédemment. Ainsi, par exemple, pour 𝑛 = 3, et 𝑟!,! ≠ 0, alors 𝑦! et 𝑦! peuvent simultanément en résolvant le système suivant : 𝑟!! − I 𝑟!" R 𝑟!" R 𝑟!! R − I 𝑦! 𝑐! − 𝑟!" Ry! 𝑦! = 𝑐! − 𝑟!" Ry! . 2 Méthode indépendamment proposée par Barraud et Kitagawa en 1977. 196 Jean-Paul K. Tsasa & Yves Togba Traitement numérique des équations de Sylvester et de Lyapunov être calculés Etape 3. Récupération de la solution recherchée 𝐗 à partir de 𝐘 Une fois que Y est obtenu en résolvant le problème réduit : RYR! − Y = C, La solution X du problème original : A! XA − X = C, est récupéré comme suit : X = UYU ! . Note : La fonction MatLab dlyap résout l’équation de Lyapunov discrète. III.4. Algorithme de Golub – Nash – Van Loan L’algorithme de Barraud exécuté dans la résolution de l’équation de Lyapunov discret, peut être étendu pour résoudre, l’équation de Sylvester discret : BXA + C = X. Supposons que le format de la matrice A est plus petit que celui de la matrice B. Soit A ∈ ℝ!×! , B ∈ ℝ!×! . Soient A! et B deux matrices transformées respectivement, en une matrice de Schur réel supérieur noté R, et en une matrice de Hessenberg supérieur noté H telles que : R = U ! A! U et par ailleurs, H = V ! BV. Alors : BXA + C = X ⟹ HYR! + C = Y, où Y = V ! XU, C = V ! CU. Soit Y = 𝑦! , … , 𝑦! et C = c! , 𝑐! , … , 𝑐! . Dès lors, l’équation réduite peut être résolue, en suivant exactement la même stratégie exécutée dans la mise en œuvre de la méthode de Schur – Hessenberg. In fine, à l’effet de compléter la présente analyse (introductive), dans les fiches ultérieures, notre attention sera portée sur le traitement de l’équation de Sylvester généralisée telle que AXB + CXD = F, et sur la description de l’algorithme proposé par ! Kamenik pour résoudre l’équation de Sylvester spécialisée de forme : AX + BX ⨂C = D. Ce dernier algorithme est largement sollicité dans l’implémentation des modèles DSGE sur la plateforme logicielle Dynare. Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199 Jean-Paul K. Tsasa & Yves Togba 197 Références bibliographiques • BARNETT Stephen et Colin STOREY, 1968, Some Applications of the Lyapunov Matrix Equation, Journal of the Institute of Mathematics and its Applications, 4 (1): 33-42. • BARNETT Stephen et Colin STOREY, 1970, Matrix methods in stability theory, Nelson, London, 148p. • BARNETT Stephen et Robert G. CAMERON, 1985, Introduction to Mathematical Control Theory, 2è edition, Oxford University Press, Oxford, 404p. • BARNETT Stephen, 1985, Introduction to mathematical control theory, 2è édition, Oxford University Press, Oxford, 404p. • BARRAUD A.Y., 1977, “A numerical algorithm to solve ATXA – X = Q”, Institute of Electrical and Electronics Engineers Transactions on Automatic Control, AC-22 (5): 883 – 885. • BARRAUD A.Y., 1977, “A numerical algorithm to solve ATXA – X = Q”, Institute of Electrical and Electronics Engineers Transactions on Automatic Control (Conference on Decision and Control including the 16th Symposium on Adaptive Processes and A Special Symposium on Fuzzy Set Theory and Applications) AC-16, Part I, 420 – 423. • BARTELS Richard H. et G. W. Pete STEWART, 1972, Solution of the matrix equation AX + XB = C (Algorithm 432), Communications of the Association for Computer Machinery, 15 (9): 820 - 826. • BLANCHARD Olivier J. et Charles M. KAHN, 1980, “The Solution of Linear Difference Models Under Rational Expectations”, Econometrica 48(5): 1305 – 1310. • DATTA Biswa N., 2003, Numerical Methods for Linear Control Systems, Academic Press, 640p. • FLEMING, Wendell H., 1971, "Stochastic Control for Small Noise Intensities", SIAM Journal of Control, 9(3): 473 – 517. • GIVENS Wallace, 1954, “Numerical computation of the characteristic values of a real symmetric matrix”, Oak Ridge National Laboratory, Report Number ORNL 1574 (physics), 107. • GIVENS Wallace, 1958, “Computation of plane unitary rotations transforming a general matrix to triangular form”, Journal of the Society for Industrial and Applied Mathematics, 6 (1): 26 – 50. • GOLUB Gene H. et Charles F. VAN LOAN, 1996, Matrix Computations, 3è edition, The Johns Hopkins University, Baltimore & London, 694p. • GOLUB Gene H., Stephen NASH et Charles F. VAN LOAN, 1979, “A HessenbergSchur Method for the Problem AX + XB = C,” Institute of Electrical and Electronics Engineers Transactions on Automatic Control, AC-24 (6): 909 – 913. • HEER Burkhard et Alfred MAUßNER, 2009, Dynamic General Equilibrium Modeling. Computational Methods and Applications, Second Edition Springer – Verlag, Berlin, 702p. 198 Jean-Paul K. Tsasa & Yves Togba Traitement numérique des équations de Sylvester et de Lyapunov • HORN Roger A. et Charles R. JOHNSON, 1990, Matrix Analysis, Cambridge University Press, Cambridge, 575p. • HORN Roger A. et Charles R. JOHNSON, 1999, Topics in Matrix Analysis, edition de 1991 réimprimée avec correction, Cambridge University Press, Cambridge, 616p. • HOUSEHOLDER Alston S., 1953, Principles of Numerical Analysis, McGraw – Hill, New York, 274p. • HOUSEHOLDER Alston S., 1958, “Unitary Triangularization of a Nonsymmetric Matrix”, Journal of the Association for Computing Machinery, 5 (4): 339 – 342 • JUDD Kenneth L., 1998, Numerical Methods in Economics, MIT Press, Cambridge, MA, 656p. • KING Robert G., Charles L. PLOSSER et Sergio T. REBELO, 1988, “Production, Growth and Business Cycles I: The Basic Neoclassical Model”, Journal of Monetary Economics (juin), 21 (2–3): 195 – 232. • KITAGAWA Genshiro, 1977, “An Algorithm for Solving the Matrix Equation X = FXFT + S”, International Journal of Control, 25 (5): 745 – 753. • LANCASTER Peter et Leiba RODMAN, 1995, Algebraic Riccati Equations, Oxford University Press, Oxford, 498p. • LJUNGQVIST Lars et Thomas J. SARGENT, 2004, Recursive Macroeconomic Theory, 2nd edition, The Massachusetts Institute of Technology Press, Cambridge, Massachusetts, 1082p. • SCHMITT – GROHE Stephanie et Martin URIBE, 2004, “Solving Dynamic General Equilibrium Models using a Second – Order Approximation to the Policy Function”, Journal of Economic Dynamics and Control, 28 (4): 755 – 775. • STOKEY Nancy L. et Robert E. LUCAS Jr., avec Edward C. PRESCOTT, 1989, Recursive Methods in Economic Dynamics, Harvard University Press, Massachusetts, 588p. • TSASA Jean – Paul, 2013, « Equation de Riccati Discrète. Illustration de l'algorithme de Vaughan », One Pager Laréq (décembre), 8 (17): 188 – 199 • VAUGHAN David R., 1970, “A Nonrecursive Algebraic Solution for the Discrete Riccati Equation”, Institute of Electrical and Electronics Engineers Transactions on Automatic Control, AC – 15 (5): 597 – 599. Fiche technique Laréq, Série alpha–I, Num. 18, pp. 189 – 199 Jean-Paul K. Tsasa & Yves Togba 199