Chaˆınes de Galton-Watson

Transcription

Chaˆınes de Galton-Watson
Chaı̂nes de Galton-Watson
Olivier Garet
septembre 2010
1
Introduction
Pour expliquer l’origine historique du problème, je vais citer Francis Galton
et le révérend Watson (1874).
« The decay of the families of men who occupied conspicuous positions in
past times has been a subject of frequent research, and has given rise to various
conjectures ...The instances are very numerous in which surnames that were once
common have since become scarce or have wholly disappeared. The tendency is
universal, and, in explanation of it, the conclusion has hastily been drawn that
a rise in physical comfort and intellectual capacity is necessarily accompanied
by a diminution in ‘fertility’ . . . »
Les questions mathématiques sont posées un peu plus loin :
« Let p0 , p1 , p2 , . . . be the respective probabilities that a man has 0, 1, 2, . . .
sons, let each son have the same probability of sons of his own, and so on. What
is the probability that the male line is extinct after r generations, and more
generally what is the probability for any given number of descendants in the
male line in any given generation ? »
Nous passerons vite sur le commentaire historique et social de ce texte,
qui aurait très bien pu être écrit par le très victorien docteur Watson. Je me
contenterai de citer cette note pleine d’humour du physicien Sokal :
« One cannot fail to be charmed by the quaint implication that human males
reproduce asexually ; nevertheless, the classism, social-Darwinism and sexism in
this passage are obvious. »
2
Rappels sur la fonction génératrice
Définition : On appelle fonction génératrice d’une variable aléatoire X à valeurs
dans N la fonction
z 7→ GX (z) = Ez X =
+∞
∑
k=0
P(X = k)z k .
Usuellement, on définit cette fonction sur l’intervalle réel [0, 1], mais elle est
en fait toujours définie sur la boule unité complexe fermée.
Théorème 1. Si deux variables aléatoires X et Y sont indépendantes, on a
GX+Y = GX GY .
Démonstration. Soit z ∈ B(0, 1). On a
GX+Y (z) = Ez X+Y = Ez X z Y = Ez X Ez Y = GX (z)GY (z).
1
Théorème 2. Soit X une variable aléatoire de loi ν sur N. Sur [0, 1[, la fonction
x 7→ GX (x) est infiniment dérivable et ces dérivées sont toutes positives, avec
(n)
GX (s) = EX(X − 1) . . . (X − n + 1)sX−n
En particulier
(n)
GX (0)
,
n!
ce qui montre que la fonction génératrice caractérise la loi.
P(X = n) =
Démonstration. La fonction z 7→ GX (z) est la somme d’une série entière de
rayon de convergence au moins égal à 1. Ainsi z 7→ GX (z) est holomorphe sur
le disque unité ouverte et y est infiniment dérivable, avec pour tout z dans le
disque ouvert unité :
(n)
GX (z) =
+∞
∑
k=n
k(k − 1) . . . (k − n + 1)P(X = k)z k−n
Il suffit maintenant d’appliquer le théorème de transfert pour constater que le
membre de droite est l’espérance de X(X − 1) . . . X(X − n + 1)z X−n .
En prenant z = 0, on obtient
(n)
GX (0) = EX(X − 1) . . . (X − n + 1)1
1{X−n=0}
= En(n − 1) . . . (n − n + 1)1
1{X−n=0}
= n!P(X = n)
La restriction à un intervalle de R d’une fonction holomorphe est évidemment
une fonction infiniment dérivable et la notion de dérivée coincide. Lorsque s ∈
[0, 1[, on a pour tout ω ∈ Ω :
X(ω)(X(ω) − 1) . . . X(ω)(X(ω) − n + 1)sX(ω)−n ≥ 0.
Comme l’espérance d’une variable aléatoire positive est positive, le résultat s’ensuit.
Théorème 3. Soit X une variable aléatoire à valeurs dans N.
Alors EX < +∞ si et seulement si GX admet une dérivée à gauche en 1. Dans
ce cas G0X (1) = EX.
Démonstration. On note ν la loi de X. Pour x ∈ [0, 1[,
+∞
GX (1) − GX (x) ∑ 1 − xn
=
ν(n)
1−x
1−x
n=0
n
n−1
: c’est donc une fonction croissante
Pour tout n, on a 1−x
1−x = 1 + x + · · · + x
n
1−x
de x. De plus limx→1− 1−x = n. D’après le théorème de convergence monotone
(on intègre sur N par rapport à la mesure de comptage), on a donc on a
∫
+∞
GX (1) − GX (x) ∑
=
nν(n) = x dν(x) = EX.
lim
x→+∞
1−x
n=0
Exercice : Montrer que P(λ) ∗ P(µ) = P(λ + µ)
2
Théorème 4. Soient (Xn ) une suite de variables aléatoires indépendantes de
même loi non dégénérée à valeurs dans N et T une variable aléatoire à valeurs
dans N
∑nindépendante des précédentes. On définit pour tout n ∈ N la variable
Sn = j=1 Xj , puis S(ω) = ST (ω) (ω) pour tout ω ∈ Ω.
1. Si GT et GX désignent les fonctions génératrices de T et X1 , alors la
fonction génératrice de S est donnée par GS = GT ◦ GX .
2. Formule de Wald
Si X1 et T admettent les moyennes (espérances) m et t, alors E[S|T ] =
mT et E[S] = mt.
Démonstration. Prouvons la première assertion. On a
EsS11{T =n}
=
=
EsSn11{T =n}
= EsSn E1
1{T =n}
GSn (s)P(T = n) = GX (s)n P(T = n)
Maintenant
EsS
+∞
∑
EsS11{T =n}
n=0
(
)T
= E GX (s)
=
=
+∞
∑
n=0
GX (s)n P(T = n)
= GT (GX (s))
Passons à la deuxième assertion.
ES1
1{T =n}
=
=
=
ESn11{T =n}
ESn E1
1{T =n}
nmE1
1{T =n}
=
=
Enm1
1{T =n}
EmT11{T =n}
Ainsi E[S|T ] = mT . Il suffit alors d’intégrer pour obtenir E[S] = mt.
Exercice : Soit N une variable aléatoire suivant une loi de Poisson de
paramètre λ et X1 , . . . , Xn . . . une suite de v.a.r.i.i.d de lois de Bernoulli de
paramètre p, cette suite étant indépendante de N . Montrer que S = X1 +
X2 · · · + XN suit loi de Poisson de paramètre λp.
3
Chaı̂nes de Galton-Walson
Soit ν, µ deux lois sur N. ν est appelée loi de reproduction et µ est la loi de
la taille de la population initiale.
On appelle chaı̂ne de Galton-Waltson de loi initiale µ et de loi de reproduction ν la chaı̂ne de Markov de matrice de transition
{
ν ∗i (j) si i 6= 0
pi,j =
δ0 (j) si i = 0
On peut fabriquer une telle chaı̂ne comme suit : Soient (Xin )i,j≥1 des variables aléatoires de loi ν et Y0 une variable aléatoire de loi µ indépendante des
(Xin )i,j≥1 . On définit par récurrence la suite (Yn )n≥1 par
∑
∀n ≥ 0 Yn+1 =
Xin .
1≤i≤Yn
Alors (Yn )n≥0 est une chaı̂ne de Galton-Watson de loi initiale µ et de loi de
reproduction ν.
3
Dans la suite on notera Pi une probabilité sous laquelle une suite (Yn )n≥0
est une chaı̂ne de Galton-Watson de loi initiale δi et de loi de reproduction ν.
Dans la suite, on notera simplement φn la fonction génératrice de Yn :
φn (z) = Ez Yn .
∫
On notera ausi f la fonction génératrice de ν : f (z) = N z u dν(u)
En appliquant le théorème 4, on obtient φn+1 = φn ◦ f et E[Yn+1 ] = mE[Yn ],
de telle sorte que
EYn = mn EY0 .
Exercice : Montrer que si m < 1, alors Yn tend presque sûrement vers 0.
Exercice : on suppose que µ = δ1 et que ν a un moment d’ordre 2. On note
m l’espérance de ν et σ 2 sa variance. Montrer que
2
E[Yn+1
|Yn ] = σ 2 Yn + m2 Yn2 .
En déduire que la suite vn =
1
2
m2n EYn
vn+1 =
vérifie la récurrence
σ2
+ vn .
mn+2
Calculer la variance de Yn . On trouvera
{
n
−1
σ 2 mn−1 mm−1
Var Yn =
nσ 2
si m 6= 1
si m = 1
(1)
(2)
Yn
Exercice : Montrer que m
n converge presque sûrement vers une variable
aléatoire à valeurs dans [0, +∞].
3.1
Calcul de la probabilité d’extinction
Il est facile de voir que l’état 0 est un état absorbant de la chaı̂ne. On va
s’intéresser maintenant au calcul de la probabilité d’absorbtion en 0, c’est à dire
de l’extinction de l’espèce.
On considère maintenant une population issue d’un unique individu, c’est à
dire avec Y0 = 1 – on verra dans une remarque ultérieure pourquoi la résolution
de ce cas permet de résoudre les autres.
Notons τ = inf{n ≥ 0; Yn = 0}. Comme (Yn = 0) =⇒ (Yn+1 = 0), on a
{τ ≤ n} = P(Yn = 0) = φn (0). Ainsi la suite un = P(τ ≤ n) vérifie la récurrence
un = f (un−1 )
La suite des événements {τ ≤ n} est évidemment croissante, de limite {τ <
+∞} = E. Ainsi, la suite un est croissante, de limite a = P(E). Comme f est
continue, on a f (a) = a.
Montrons que a est la plus petite des racines dans [0, 1] de l’équation f (x) =
x. Soit x une racine de l’équation f (x) = x.
On a u0 = P(τ = 0) = 0 ≤ x. Sur [0, 1], la fonction x 7→ f (x) est croissante.
Par une récurrence évidente, il s’ensuit que pour tout n, un ≤ x ; d’où a ≤ x.
Il s’agit maintenant de préciser le résultat
Théorème 5. On suppose que p0 +p1 < 1 . Soit m la fécondité. Si m > 1, alors
l’équation f (x) = x a une unique solution dans [0, 1[ : c’est donc la probabilité
d’extinction cherchée. Si m ≤ 1, alors l’équation f (x) = x n’a aucune solution
dans [0, 1[ : la probabilité d’extinction est donc 1.
4
Posons g(x) = f (x) − x. Sur [0, 1[, on a g 00 = f 00 > 0. Comme g(1) = 0, il
existe au plus une autre solution sur [0, 1] à g(x) = 0 car une fonction strictement
convexe ne peut prendre 3 fois la même valeur. Si m > 1, alors g(0) = p0 ≥ 0
et g(1 − h) = g(1 − h) − g(1) ∼ −(m − 1)h, donc g est négative au voisinage à
gauche de 1, donc par le théorème des valeurs intermédiaires g a effectivement
un zéro sur [0, 1[. C’est donc la probabilité cherchée.
Si m ≤ 1, alors g 0 (1) = m − 1 ≤ 0. Comme g est strictement convexe, il
s’ensuit que g 0 < 0 sur [0, 1[. Ainsi g(x) > g(1) = 0 pour tout x ∈ [0, 1[. 1 est
donc l’unique racine de g dans [0, 1], c’est donc la probabilité d’extinction.
Exercice : Calculer la probabilité d’extinction lorsque la loi de reproduction est une loi de Bernoulli de paramètres n √
et p, avec n = 2 et n = 3. Pour
1−p 2
2p−3
1−p 3
1
2
np > 1, on trouvera ( p ) si n = 2 et 2p + 2 ( 3−2p
2p ) + 4( p ) pour n = 3.
3.2
Le cas sous-critique (m < 1)
Ici, l’extinction a lieu très vite : en effet
P(τ > n) = P(Yn 6= 0) = P(Yn ≥ 1) ≤ E[Yn ] = mn E[Y0 ].
3.3
Le cas critique (m = 1)
Exercice : On considère une chaine de Galton-Watson Yn partant d’un
individu dont la loi de reproduction non dégénérée admet un moment d’ordre 2
et où le nombre moyen de descendants est m = 1. L’exemple le plus classique
est la loi binomiale B(2, 1/2).
– Montrer qu’il y a presque sûrement extinction.
– On note τ le temps d’extinction τ = inf{n ≥ 0; Yn = 0} et on pose
vn = P(τ > n). Quelle relation de récurrence vérifie la suite (vn ) ?
– Montrer que f 00 admet une dérivée seconde à gauche en 1.
00
1
– Montrer que vn+1
− v1n converge vers f 2(1) .
– Montrer que un ∼ nf 002(1) .
– En déduire que E[τ ] = +∞.
Note : ce résultat est du à Kolmogorov (1938).
3.4
Résultats asymptotiques dans le cas surcritique (m >
1)
Théorème 6. On suppose que m > 1 et que la variance de la loi de reproduction
Yn
2
σ 2 est finie. Alors Wn = m
vers une
n converge presque sûrement et dans L
variable W vérifiant
E[W ] = 1 et Var W =
σ2
.
−m
m2
Démonstration. Comme E[Yn+1 |Fn ] = mYn , (Wn )n≥1 est une martingale. Pour
montrer la convergence presque sûre et dans L2 , il suffit de montrer que la
martingale est bornée dans L2 , ce qui est vrai car on a vu en (1) que E[Yn2 ] =
5
O(mn ). Comme Wn converge dans L2 vers W ,
Var W
=
lim Var Wn
n→+∞
1
Var Yn
m2n
1 2 n−1 mn − 1
σ m
=
lim
n→+∞ m2n
m−1
σ2
=
.
m2 − m
=
lim
n→+∞
puisque le calcul de la variance a été fait en (2).
On peut montrer que, pour m > 1, lorsque le système meurt, il ne peut le
faire que très vite. Plus, précisément, on a
Théorème 7. On suppose que p0 + p1 < 1 et que m > 1. On considère le temps
d’extinction τ du système issu d’un unique individu. Alors, si p = P(τ < +∞),
on a f 0 (p) < 1 et
∀n ≥ 0 P(n < τ < +∞) ≤ f 0 (p)n .
Démonstration. Avec un = P(τ ≤ n), on a
P(n < τ < +∞) = P(τ > n) − P(τ = +∞) = (1 − un ) − (1 − p) = p − un .
Ainsi
P(n+1 < τ < +∞) = p−un+1 = f (p)−f (un ) ≤ f 0 (p)(p−un ) = f 0 (p)P(n < τ < +∞),
par convexité de la fonction f , ce qui nous donne par récurrence
P(n < τ < +∞) ≤ f 0 (p)n .
Mais, comme p0 + p1 < 1, f est strictement convexe, on a
f 0 (p) <
1−p
f (1) − f (p)
=
= 1.
1−p
1−p
Remarque On peut démontrer que si Y 1 , . . . , Y r sont r processus de GaltonWatson de loi initiale δ1 et de loi de reproduction ν , alors Y = Y 1 + · · · + Y r
est un processus de Galton-Watson de loi initiale δr et de loi de reproduction ν.
Ainsi
P(∃n0 , Yn = 0 pour n ≥ n0 ) =
P(
∩
1≤i≤r
∃n0 , Yni = 0 pour n ≥ n0 )
= P(∃n0 , Yn1 = 0 pour n ≥ n0 )r
Si a désigne la probabilité qu’une population issue d’un individu s’éteigne, alors
la probabilité qu’une population issue de r individus s’éteigne vaut ar . Si E est
l’événement “extinction de la population”, on a donc, si on a posé a = P(E),
l’identité P(E|Y1 , Y2 , . . . , Yn ) = aYn .
6
4
Pérennité d’altérations génétiques
Chaque gène particulier peut avec une certaine probabilité donner naissance
à k descendants (k ∈ N) qui sont des gènes de même espèce. Toutefois, il n’est
pas impossible qu’un individu puisse donner naissance à un gène d’un autre type
ou un gène mutant. Ce gène peut devenir le premier d’une suite de générations
de gènes mutants. Il est alors naturel de s’intéresser aux chances de survie d’un
tel gène mutant dans une population globale stable.
Il est ici assez naturel de modéliser le nombre de descendants d’un gène
mutant selon une loi de poisson P(λ).
En effet, chaque gène s’apparie avec un autre gène de la population, population où le gène mutant est rare.
Dans ce cas, on a vu que la fonction génératrice était.
φ(s) = exp(λ(s − 1)).
Le nombre moyen de descendant d’un gène est donc m = λ. D’après le théorème
précédent, l’extinction du gène mutant est assurée si λ ≤ 1, tandis que la survie
de ce nouveau gène est possible si λ > 1. Cela peut être interprété comme
suit : pour que la survie est possible, il faut que l’appariement de ces gènes soit
favorisés dans le cas d’une reproduction sexuée.
5
Processus de Galton Watson à deux types
On va maintenant s’occuper de l’évolution d’une population composée de 2
types d’individus. Chaque individu peut donner naissance à des individus de
type 1 ou/et à des individus de type 2. Ainsi la probabilité qu’un individu de
type i donne naissance à k individus de type 1 et l individus de type 2 sera
νi ((k, l)), avec (k, l) ∈ N2 .
Ainsi, pour les lois de reproduction ν1 , ν2 deux lois sur N. et la loi µ sur N2
de la population initiale, on appellera chaı̂ne de Galton-Waltson de loi initiale µ
et de lois de reproduction ν1 et ν2 la chaı̂ne de Markov de matrice de transition
p(i1 ,i2 ),(j1 ,j2 ))
= (ν1∗i1 ∗ ν2∗i2 )(j1 , j2 )
On est naturellement amené à utiliser des fonctions génératrices à deux paramètres : pour une loi µ sur N2 , on considèrera la la fonction
∑
φ(s, t) =
µ((k, l))sk tl
(k,l)∈N2
Si (X, Y ) suit la loi µ, alors
φ(X,Y ) (s, t) = EsX tY
Dans la suite on notera f1 la fonction génératrice de ν1 et f2 la fonction
génératrice de ν2 . On note également F l’application de [0, 1] × [0, 1] dans luimême définie par
F (s, t) = (f1 (s, t), f2 (s, t))
Dans l’étude des chaı̂nes de Galton-Watson, prédire l’évolution d’un système
partant d’un unique individu permettait (tout au moins d’un point de vue
théorique) de déduire l’évolution d’une chaı̂ne quelconque. Ici, il va nous falloir
étudier (conjointement) l’évolution d’un système partant d’un unique individu
de type 1 et celle d’un système partant d’un unique individu de type 2.
On note Pi une probabilité pour la chaı̂ne de Markov partant d’un individu
de type i, Ei l’espérance correspondante.
7
Notons
1
(2)
1
(2)
Ψn (s, t) = (E1 sXn tXn , E1 sXn tXn )
Pour i ∈ {1, 2} et n ≥ 0, on a
Ei [s
(1)
(2)
Xn+1 Xn+1
t
∫
su tv d(ν1∗k ∗ ν2∗l )(u, v)
∫
∫
=
su dν1∗k (u) tv dν2∗l (v)
|Xn = (k, l)] =
N2
N
N
= f1 (s)k f2 (t)l .
(1)
(2)
(1)
(2)
Ainsi Ei [sXn+1 tXn+1 |Xn = (k, l)] = f1 (s)Xn f2 (t)Xn . Donc
(1)
(2)
(1)
(2)
Ei [sXn+1 tXn+1 ] = Ei f1 (s)Xn f2 (t)Xn .
Cela signifie que
ψn+1 (s, t) = ψn (f1 (s), f2 (t)) = ψn (F (t))
Cela pour tous s, t. En d’autres termes, on a
ψn+1 = ψn ◦ F
Un raisonnement analogue permet de montrer que
(j)
E[Xn+1 |Xn ] = mj,1 Xn(1) + mj,2 Xn(2) ,
où mj,i est le nombre moyen de descendants de type j d’un individu de type i.
On en déduit
(j)
EXn+1 = mi,1 EXn(1) + mi,2 EXn(2) ,
Ainsi, si l’on pose
(
Dni
=
(
et
M=
(1)
EXn
(2)
EXn
m1,1
m2,1
)
m1,2
m2,2
)
,
on a la récurrence Dn+1 = M × Dn , soit
Dn = M n D0
(1)
(2)
Notons τ = inf{n ≥ 0; Xn = Xn = 0} et un = (P1 (τ ≤ n), P2 (τ ≤ n)).
Alors, on a la récurrence
un+1 = F (un ). Pour montrer cela, il suffit simplement de remarquer que
un = P(Xn = (0, 0)) = φn (0, 0).
Notons maintenant u le vecteur des probabilités d’extinction : u = (P1 (τ <
+∞), P2 (τ < +∞)).
Comme F est une fonction croissante de chacune de ses coordonnées, le
même raisonnement que pour les chaı̂nes de Galton-Watson classiques permet
de montrer que u est la limite de un est que c’est la plus petite solution dans
[0, 1]2 de l’équation F (u) = u.
On suppose qu’il y a effectivement mélange, c’est à dire qu’un individu de
type i donne avec probabilité strictement positive naissance à un individu de
type j 6= i.
On va montrer que si ρ > 1, alors u1 < 1 et u2 < 1.
Si u1 = 1, alors Xn converge P1 presque sûrement vers (0, 0), ce qui implique
qu’une sous-suite de Xn converge en norme 1 vers 0. Mais E1 Xn = Dn1 =
M n
n
ρn ( M
ρ ) e1 . D’après le théorème de Perron-Frobenius, la suite ( ρ ) converge vers
une matrice dont tous les coefficients sont positifs. Ainsi kEXn k ∼ kρn → +∞.
Contradiction. On a donc u1 < 1. On procéderait de même pour u2 .
8
Théorème 8 (Théorème de Perron-Frobenius). Soit A une matrice à coefficients positifs dont une puissance est à coefficients strictement positifs. Alors
– il existe un vecteur x0 et un réel λ0 > 0 tel que Ax0 = λ0 x0 .
– pour toute autre valeur propre λ de A, |λ| < λ.
– le sous-espace propre de A associé à la valeur propre λ0 est de dimension 1.
– (A/λ0 )n converge vers une matrice de projection dont toutes les colonnes
sont des multiples non nuls de x0 .
Références :
– Benaı̈m-El Karoui, Promenade aléatoire, chap. 5.
– Harris, The theory of branching processes, chap. 1.
– Toulouse, Agrégation de mathématiques, thèmes de probabilités et statistique, chap 13.
9