Optimisation Dynamique en temps continu

Transcription

Optimisation Dynamique en temps continu
Dr
aft
Optimisation Dynamique en temps continu
Du Hamiltonien à l’équation de Hamilton-Jacobi-Bellman
Jean-Paul K. Tsasa Vangu
Laboratoire d’analyse-recherche en économie quantitative
Décembre 27, 2014
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
1 / 25
Dr
aft
“Tu me dis, j’oublie...
Tu m’enseignes, je me souviens...
Tu m’impliques, j’apprends.”
Benjamin Franklin
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
2 / 25
Présentation Laréq
Dr
aft
Sommaire
1
Présentation Laréq
2
Exposé du problème
3
Principe du Maximum de Pontryagin
4
Principe d’optimalité de Bellman
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
3 / 25
Présentation Laréq
Dr
aft
Introduction
Cette présentation s’inscrit dans le cadre de la rubrique “DIVERS” des réunions
LAREQ
L’objectif de cette rubrique est :
d’une part, de faire le parallélisme entre les aspirations exprimées par des chercheurs non-économistes, sur l’orientation des théories économiques
et de l’autre, de motiver les chercheurs-L à converger vers la frontière de recherche
Pour plus de détails, cf. : http://www.lareq.com
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
4 / 25
Exposé du problème
Dr
aft
Sommaire
1
Présentation Laréq
2
Exposé du problème
3
Principe du Maximum de Pontryagin
4
Principe d’optimalité de Bellman
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
5 / 25
Exposé du problème
Exposé du problème
Dr
aft
L’analyse macroéconomique moderne est essentiellement micro-fondée : Rational expectations ; optimisation, etc.
Dans cet exposé, nous considérons la version continue des modèles que nous
avons traités dans l’exposé précédent, plus particulièrement le problème de
croissance optimale de Ramsey
L’environnement demeure déterministique, i.e. pas de stochasticité
Principale référence :
BERTSEKAS Dimitri P., 2005 (2012), Dynamic Programming and Optimal
Control, Vol. 1 (Vol. 2), Athena Scientific, 3è éd. (4è ed.), 558p (712p).
URL : http://www.athenasc.com/dpbook.html
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
6 / 25
Dr
aft
Carl G.J. Jacobi
Exposé du problème
Du problème de contrôle optimal au problème de Ramsey
Dr
aft
De manière générale, un problème de contrôle optimal s’écrit :
Z ∞
V (x0 ) = max∞
exp {−ρt}h[x(t), u(t)]dt
{u(t)}t=0
(1)
0
sujet à la loi de transition :
ẋ(t) = g[x(t), u(t)],
(2)
avec t ≥ 0, x(0) = x0 donné, et où :
h(x, u) : X × U → R est la fonction de retour instantanée
x(t) ∈ X ⊆ Rm , le vecteur d’état
u(t) ∈ U ⊆ Rn , le vecteur de contrôle
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
8 / 25
Exposé du problème
Pour rappel :
Dr
aft
Du problème de contrôle optimal au problème de Ramsey
le facteur d’escompte β est tel que :
β=
1
,
1+ρ
(3)
où ρ est le taux d’escompte, ρ > 0.
En temps discret, le problème de croissance optimal s’écrit :
max ∞
{ct ,kt+1 }t=0
∞
X
β t u(ct )
(4)
t=0
sujet à : kt+1 = f (kt ) − ct + (1 − δ)kt , avec k0 donné ; ct ≥ 0 ; kt+1 ≥ 0
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
9 / 25
Exposé du problème
Dr
aft
Illustration d’un problème en temps discret
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
10 / 25
Principe du Maximum de Pontryagin
Dr
aft
Sommaire
1
Présentation Laréq
2
Exposé du problème
3
Principe du Maximum de Pontryagin
4
Principe d’optimalité de Bellman
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
11 / 25
Principe du Maximum de Pontryagin
Dr
aft
Illustration d’un problème en temps continu
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
12 / 25
Principe du Maximum de Pontryagin
Problème de croissance optimale en temps continu
Dr
aft
Ainsi, en temps continue, le modèle de croissance optimale devient :
Z ∞
V (k0 ) = max∞
exp {−ρt}u[c(t)]dt
{c(t)}t=0
(5)
0
sujet à la loi de transition :
k̇(t) = f [k(t)] − c(t) − δk(t),
(6)
avec t ≥ 0, k(0) = k0 donné, et où par correspondance, x = k et u = c :
h(x, u) = u[c(t)]
g(x, u) = f (k) − c − δk
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
13 / 25
Principe du Maximum de Pontryagin
Du Lagrangien au Hamiltonien
Dr
aft
L’équivalent du Lagrangien associé la version continue du problème de croissance optimale, est appelé “Hamiltonien” :
H[k(t), c(t), λ(t)] = u[c(t)] + λ(t){f [k(t)] − c(t) − δk(t)},
(7)
où λ(t) est le vecteur de co-état (variables adjointes), l’équivalent du multiplicateur de Lagrange dans le problème en temps discret tel que :
λ(t) ∈ Λ ⊆ Rm
Les équations de co-état λ̇(t) est un vecteur des équations différentielles d’ordre
1 du négatif du Hamiltonien par rapport à chaque variable d’état x(t). Au
regard du problème (7), il vient que :
λ̇(t) = −
Jean-Paul K. Tsasa (LAREQ)
∂H
∂k
Optimisation Dynamique en temps continu
(8)
Décembre 27, 2014
14 / 25
Principe du Maximum de Pontryagin
Conditions d’optimalité
Dr
aft
Conditions nécessaires et suffisantes, appliquées au problème générique, cf. (1)
et (2) :
∂H
[x(t), u(t), λ(t)] = 0
∂u(t)
λ̇(t) = ρλ(t) −
(9)
∂H
[x(t), u(t), λ(t)]
∂x(t)
(10)
∂H
≡ ẋ(t) − g[x(t), u(t)] = 0
∂λ(t)
(11)
pour tout t ≥ 0.
Condition limite pour les variables de co-état (condition de transversalité) :
lim exp {−ρt}λ(T ) × (T ) = 0
(12)
T→∞
Conditions initiales pour les variables d’état : x(0) = x0
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
15 / 25
Principe du Maximum de Pontryagin
Dérivation de l’équation d’Euler
il vient que :
Dr
aft
En considérant le problème de croissance optimale et une fonction d’utilité
instantanée hyperbolique isoélastique telle que :
1
[c(t)]1−σ ,
(13)
u[c(t)] =
1−σ
Z
V (k0 ) = max∞
{c(t)}t=0
0
∞
1
1−σ
exp {−ρt}[c(t)]1−σ dt
sujet à (6). Au regard de (7), le Hamiltonien correspondent s’écrit :
1
H=
[c(t)]1−σ + λ(t){f [k(t)] − c(t) − δk(t)},
1−σ
(14)
(15)
avec k(0) = k0 donné et pour tout t ≥ 0.
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
16 / 25
Principe du Maximum de Pontryagin
Conditions d’optimalité :
et
(16)
∂f [k(t)]
∂H
[k(t), c(t), λ(t)] = λ(t)
−δ ,
∂k(t)
∂k(t)
(17)
∂u[c(t)]
−σ
≡ u 0 [c(t)] = [c(t)]
∂c(t)
(18)
∂f [k(t)]
= f 0 [k(t)]
∂k(t)
(19)
Dr
aft
où :
∂H
−σ
[k(t), c(t), λ(t)] ≡ [c(t)] − λ(t) = 0
∂c(t)
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
17 / 25
Principe du Maximum de Pontryagin
Dr
aft
Dès lors, les équations différentielles ordinaires (conditions optimales) correspondant à ce problème de contrôle optimale s’écrivent :
λ̇(t) = λ(t) {ρ + δ − f 0 [k(t)]}
=⇒
(20)
λ̇(t)
= ρ + δ − f 0 [k(t)]
λ(t)
k̇(t) = f [k(t)] − c(t) − δk(t)
avec :
(21)
k(0) = k0
et
lim exp {−ρT }λ(T )k(T ) = 0
T→∞
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
18 / 25
Principe du Maximum de Pontryagin
Puisque (16) implique :
Dr
aft
∂u[c(t)]
≡ u 0 [c(t)] = λ(t)
∂c(t)
−σ
=⇒ [c(t)]
(22)
= λ(t)
L’équation d’Euler correspondant à la version continue du problème de croissance optimale est décrite par l’équation différentielle ordinaire suivante :
autrement :
Jean-Paul K. Tsasa (LAREQ)
u˙0 (t)
= ρ + δ − f 0 [k(t)],
u 0 (t)
(23)
u˙0 (t) = u 0 (t){ρ + δ − f 0 [k(t)]}
(24)
Optimisation Dynamique en temps continu
Décembre 27, 2014
19 / 25
Principe du Maximum de Pontryagin
En notation logarithmique, la relation (22) devient :
−σ log c(t) = log λ(t),
Dr
aft
d’où :
(25)
−σ
ċ(t)
λ̇(t)
=
c(t)
λ(t)
(26)
Ainsi, plus spécifiquement, l’équation d’Euler peut s’écrire comme :
ċ(t)
1
= {f 0 [k(t)] − ρ − δ}
c(t)
σ
avec :
−σ
lim exp {−ρT } [c(T )]
T→∞
Jean-Paul K. Tsasa (LAREQ)
(27)
k(T ) = 0
Optimisation Dynamique en temps continu
(28)
Décembre 27, 2014
20 / 25
Principe d’optimalité de Bellman
Dr
aft
Sommaire
1
Présentation Laréq
2
Exposé du problème
3
Principe du Maximum de Pontryagin
4
Principe d’optimalité de Bellman
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
21 / 25
Principe d’optimalité de Bellman
Equation de Hamilton-Jacobi-Bellman
Dr
aft
En programmation dynamique (Cf. Principe d’optimalité de Bellman), la fonction valeur du problème de croissance optimale satisfait l’équation de HamiltonJacobi-Bellman.
Pour rappel, dans la version discrète, la fonction valeur satisfaisait l’équation
de Bellman :
V (kt ) = max ∆u(c) + exp {−ρ∆}V (kt+∆ )
(29)
ct
sujet à kt+∆ = ∆[f (kt ) − ct − δkt ] + kt
Pour une petite variation ∆ telle que ∆ → 0, exp {−ρ∆} = 1 − ρ∆
D’où :
V (kt ) = max ∆u(c) + (1 − ρ∆)V (kt+∆ )
(30)
ct
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
22 / 25
Principe d’optimalité de Bellman
En soustrayant (1 − ρ∆)V (kt ) de deux côtés de (30), il vient que :
ρ∆V (kt ) = max ∆u(c) + (1 − ρ∆)[V (kt+∆ ) − V (kt )]
Dr
aft
ct
(31)
En divisant par ∆ et après réaménagement, il vient que :
ρV (kt ) = max u(c) + (1 − ρ∆)
ct
[V (kt+∆ ) − V (kt )] kt+∆ − kt
kt+∆ − kt
∆
(32)
A présent, il suffit de considérer que ∆ → 0, pour dériver l’équation de
Hamilton-Jacobi-Bellman correspondant au problème de croissance optimale :
ρV (kt ) = max u(ct ) + V 0 (kt )k˙t
(33)
ρV (k) = max u(c) + V 0 (k)k̇
(34)
ct
En notation récursive :
c
avec k̇ = f (k) − c − δk
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
23 / 25
Principe d’optimalité de Bellman
Connexion Hamiltonien et Equation HJB
Dr
aft
De (34), la condition d’optimalité implique, notamment que :
u 0 (c) = V 0 (k)
(35)
Dès lors, il devient possible d’établir une connexion entre le Hamiltonien et
l’équation de Hamilton-Jacobi-Bellman
Pour rappel, de (22) :
u 0 [c(t)] = λ(t)
D’où, en substituant (7) dans (34) :
ρV (k) = max H[k, c, V 0 (k)],
(36)
c
où la variable de co-état λ(t) équivaut à la shadow value V 0 (k).
Jean-Paul K. Tsasa (LAREQ)
Optimisation Dynamique en temps continu
Décembre 27, 2014
24 / 25
Dr
aft
William R. Hamilton