Chaˆınes de Galton-Watson
Transcription
Chaˆınes de Galton-Watson
Chaı̂nes de Galton-Watson Olivier Garet septembre 2010 1 Introduction Pour expliquer l’origine historique du problème, je vais citer Francis Galton et le révérend Watson (1874). « The decay of the families of men who occupied conspicuous positions in past times has been a subject of frequent research, and has given rise to various conjectures ...The instances are very numerous in which surnames that were once common have since become scarce or have wholly disappeared. The tendency is universal, and, in explanation of it, the conclusion has hastily been drawn that a rise in physical comfort and intellectual capacity is necessarily accompanied by a diminution in ‘fertility’ . . . » Les questions mathématiques sont posées un peu plus loin : « Let p0 , p1 , p2 , . . . be the respective probabilities that a man has 0, 1, 2, . . . sons, let each son have the same probability of sons of his own, and so on. What is the probability that the male line is extinct after r generations, and more generally what is the probability for any given number of descendants in the male line in any given generation ? » Nous passerons vite sur le commentaire historique et social de ce texte, qui aurait très bien pu être écrit par le très victorien docteur Watson. Je me contenterai de citer cette note pleine d’humour du physicien Sokal : « One cannot fail to be charmed by the quaint implication that human males reproduce asexually ; nevertheless, the classism, social-Darwinism and sexism in this passage are obvious. » 2 Rappels sur la fonction génératrice Définition : On appelle fonction génératrice d’une variable aléatoire X à valeurs dans N la fonction z 7→ GX (z) = Ez X = +∞ ∑ k=0 P(X = k)z k . Usuellement, on définit cette fonction sur l’intervalle réel [0, 1], mais elle est en fait toujours définie sur la boule unité complexe fermée. Théorème 1. Si deux variables aléatoires X et Y sont indépendantes, on a GX+Y = GX GY . Démonstration. Soit z ∈ B(0, 1). On a GX+Y (z) = Ez X+Y = Ez X z Y = Ez X Ez Y = GX (z)GY (z). 1 Théorème 2. Soit X une variable aléatoire de loi ν sur N. Sur [0, 1[, la fonction x 7→ GX (x) est infiniment dérivable et ces dérivées sont toutes positives, avec (n) GX (s) = EX(X − 1) . . . (X − n + 1)sX−n En particulier (n) GX (0) , n! ce qui montre que la fonction génératrice caractérise la loi. P(X = n) = Démonstration. La fonction z 7→ GX (z) est la somme d’une série entière de rayon de convergence au moins égal à 1. Ainsi z 7→ GX (z) est holomorphe sur le disque unité ouverte et y est infiniment dérivable, avec pour tout z dans le disque ouvert unité : (n) GX (z) = +∞ ∑ k=n k(k − 1) . . . (k − n + 1)P(X = k)z k−n Il suffit maintenant d’appliquer le théorème de transfert pour constater que le membre de droite est l’espérance de X(X − 1) . . . X(X − n + 1)z X−n . En prenant z = 0, on obtient (n) GX (0) = EX(X − 1) . . . (X − n + 1)1 1{X−n=0} = En(n − 1) . . . (n − n + 1)1 1{X−n=0} = n!P(X = n) La restriction à un intervalle de R d’une fonction holomorphe est évidemment une fonction infiniment dérivable et la notion de dérivée coincide. Lorsque s ∈ [0, 1[, on a pour tout ω ∈ Ω : X(ω)(X(ω) − 1) . . . X(ω)(X(ω) − n + 1)sX(ω)−n ≥ 0. Comme l’espérance d’une variable aléatoire positive est positive, le résultat s’ensuit. Théorème 3. Soit X une variable aléatoire à valeurs dans N. Alors EX < +∞ si et seulement si GX admet une dérivée à gauche en 1. Dans ce cas G0X (1) = EX. Démonstration. On note ν la loi de X. Pour x ∈ [0, 1[, +∞ GX (1) − GX (x) ∑ 1 − xn = ν(n) 1−x 1−x n=0 n n−1 : c’est donc une fonction croissante Pour tout n, on a 1−x 1−x = 1 + x + · · · + x n 1−x de x. De plus limx→1− 1−x = n. D’après le théorème de convergence monotone (on intègre sur N par rapport à la mesure de comptage), on a donc on a ∫ +∞ GX (1) − GX (x) ∑ = nν(n) = x dν(x) = EX. lim x→+∞ 1−x n=0 Exercice : Montrer que P(λ) ∗ P(µ) = P(λ + µ) 2 Théorème 4. Soient (Xn ) une suite de variables aléatoires indépendantes de même loi non dégénérée à valeurs dans N et T une variable aléatoire à valeurs dans N ∑nindépendante des précédentes. On définit pour tout n ∈ N la variable Sn = j=1 Xj , puis S(ω) = ST (ω) (ω) pour tout ω ∈ Ω. 1. Si GT et GX désignent les fonctions génératrices de T et X1 , alors la fonction génératrice de S est donnée par GS = GT ◦ GX . 2. Formule de Wald Si X1 et T admettent les moyennes (espérances) m et t, alors E[S|T ] = mT et E[S] = mt. Démonstration. Prouvons la première assertion. On a EsS11{T =n} = = EsSn11{T =n} = EsSn E1 1{T =n} GSn (s)P(T = n) = GX (s)n P(T = n) Maintenant EsS +∞ ∑ EsS11{T =n} n=0 ( )T = E GX (s) = = +∞ ∑ n=0 GX (s)n P(T = n) = GT (GX (s)) Passons à la deuxième assertion. ES1 1{T =n} = = = ESn11{T =n} ESn E1 1{T =n} nmE1 1{T =n} = = Enm1 1{T =n} EmT11{T =n} Ainsi E[S|T ] = mT . Il suffit alors d’intégrer pour obtenir E[S] = mt. Exercice : Soit N une variable aléatoire suivant une loi de Poisson de paramètre λ et X1 , . . . , Xn . . . une suite de v.a.r.i.i.d de lois de Bernoulli de paramètre p, cette suite étant indépendante de N . Montrer que S = X1 + X2 · · · + XN suit loi de Poisson de paramètre λp. 3 Chaı̂nes de Galton-Walson Soit ν, µ deux lois sur N. ν est appelée loi de reproduction et µ est la loi de la taille de la population initiale. On appelle chaı̂ne de Galton-Waltson de loi initiale µ et de loi de reproduction ν la chaı̂ne de Markov de matrice de transition { ν ∗i (j) si i 6= 0 pi,j = δ0 (j) si i = 0 On peut fabriquer une telle chaı̂ne comme suit : Soient (Xin )i,j≥1 des variables aléatoires de loi ν et Y0 une variable aléatoire de loi µ indépendante des (Xin )i,j≥1 . On définit par récurrence la suite (Yn )n≥1 par ∑ ∀n ≥ 0 Yn+1 = Xin . 1≤i≤Yn Alors (Yn )n≥0 est une chaı̂ne de Galton-Watson de loi initiale µ et de loi de reproduction ν. 3 Dans la suite on notera Pi une probabilité sous laquelle une suite (Yn )n≥0 est une chaı̂ne de Galton-Watson de loi initiale δi et de loi de reproduction ν. Dans la suite, on notera simplement φn la fonction génératrice de Yn : φn (z) = Ez Yn . ∫ On notera ausi f la fonction génératrice de ν : f (z) = N z u dν(u) En appliquant le théorème 4, on obtient φn+1 = φn ◦ f et E[Yn+1 ] = mE[Yn ], de telle sorte que EYn = mn EY0 . Exercice : Montrer que si m < 1, alors Yn tend presque sûrement vers 0. Exercice : on suppose que µ = δ1 et que ν a un moment d’ordre 2. On note m l’espérance de ν et σ 2 sa variance. Montrer que 2 E[Yn+1 |Yn ] = σ 2 Yn + m2 Yn2 . En déduire que la suite vn = 1 2 m2n EYn vn+1 = vérifie la récurrence σ2 + vn . mn+2 Calculer la variance de Yn . On trouvera { n −1 σ 2 mn−1 mm−1 Var Yn = nσ 2 si m 6= 1 si m = 1 (1) (2) Yn Exercice : Montrer que m n converge presque sûrement vers une variable aléatoire à valeurs dans [0, +∞]. 3.1 Calcul de la probabilité d’extinction Il est facile de voir que l’état 0 est un état absorbant de la chaı̂ne. On va s’intéresser maintenant au calcul de la probabilité d’absorbtion en 0, c’est à dire de l’extinction de l’espèce. On considère maintenant une population issue d’un unique individu, c’est à dire avec Y0 = 1 – on verra dans une remarque ultérieure pourquoi la résolution de ce cas permet de résoudre les autres. Notons τ = inf{n ≥ 0; Yn = 0}. Comme (Yn = 0) =⇒ (Yn+1 = 0), on a {τ ≤ n} = P(Yn = 0) = φn (0). Ainsi la suite un = P(τ ≤ n) vérifie la récurrence un = f (un−1 ) La suite des événements {τ ≤ n} est évidemment croissante, de limite {τ < +∞} = E. Ainsi, la suite un est croissante, de limite a = P(E). Comme f est continue, on a f (a) = a. Montrons que a est la plus petite des racines dans [0, 1] de l’équation f (x) = x. Soit x une racine de l’équation f (x) = x. On a u0 = P(τ = 0) = 0 ≤ x. Sur [0, 1], la fonction x 7→ f (x) est croissante. Par une récurrence évidente, il s’ensuit que pour tout n, un ≤ x ; d’où a ≤ x. Il s’agit maintenant de préciser le résultat Théorème 5. On suppose que p0 +p1 < 1 . Soit m la fécondité. Si m > 1, alors l’équation f (x) = x a une unique solution dans [0, 1[ : c’est donc la probabilité d’extinction cherchée. Si m ≤ 1, alors l’équation f (x) = x n’a aucune solution dans [0, 1[ : la probabilité d’extinction est donc 1. 4 Posons g(x) = f (x) − x. Sur [0, 1[, on a g 00 = f 00 > 0. Comme g(1) = 0, il existe au plus une autre solution sur [0, 1] à g(x) = 0 car une fonction strictement convexe ne peut prendre 3 fois la même valeur. Si m > 1, alors g(0) = p0 ≥ 0 et g(1 − h) = g(1 − h) − g(1) ∼ −(m − 1)h, donc g est négative au voisinage à gauche de 1, donc par le théorème des valeurs intermédiaires g a effectivement un zéro sur [0, 1[. C’est donc la probabilité cherchée. Si m ≤ 1, alors g 0 (1) = m − 1 ≤ 0. Comme g est strictement convexe, il s’ensuit que g 0 < 0 sur [0, 1[. Ainsi g(x) > g(1) = 0 pour tout x ∈ [0, 1[. 1 est donc l’unique racine de g dans [0, 1], c’est donc la probabilité d’extinction. Exercice : Calculer la probabilité d’extinction lorsque la loi de reproduction est une loi de Bernoulli de paramètres n √ et p, avec n = 2 et n = 3. Pour 1−p 2 2p−3 1−p 3 1 2 np > 1, on trouvera ( p ) si n = 2 et 2p + 2 ( 3−2p 2p ) + 4( p ) pour n = 3. 3.2 Le cas sous-critique (m < 1) Ici, l’extinction a lieu très vite : en effet P(τ > n) = P(Yn 6= 0) = P(Yn ≥ 1) ≤ E[Yn ] = mn E[Y0 ]. 3.3 Le cas critique (m = 1) Exercice : On considère une chaine de Galton-Watson Yn partant d’un individu dont la loi de reproduction non dégénérée admet un moment d’ordre 2 et où le nombre moyen de descendants est m = 1. L’exemple le plus classique est la loi binomiale B(2, 1/2). – Montrer qu’il y a presque sûrement extinction. – On note τ le temps d’extinction τ = inf{n ≥ 0; Yn = 0} et on pose vn = P(τ > n). Quelle relation de récurrence vérifie la suite (vn ) ? – Montrer que f 00 admet une dérivée seconde à gauche en 1. 00 1 – Montrer que vn+1 − v1n converge vers f 2(1) . – Montrer que un ∼ nf 002(1) . – En déduire que E[τ ] = +∞. Note : ce résultat est du à Kolmogorov (1938). 3.4 Résultats asymptotiques dans le cas surcritique (m > 1) Théorème 6. On suppose que m > 1 et que la variance de la loi de reproduction Yn 2 σ 2 est finie. Alors Wn = m vers une n converge presque sûrement et dans L variable W vérifiant E[W ] = 1 et Var W = σ2 . −m m2 Démonstration. Comme E[Yn+1 |Fn ] = mYn , (Wn )n≥1 est une martingale. Pour montrer la convergence presque sûre et dans L2 , il suffit de montrer que la martingale est bornée dans L2 , ce qui est vrai car on a vu en (1) que E[Yn2 ] = 5 O(mn ). Comme Wn converge dans L2 vers W , Var W = lim Var Wn n→+∞ 1 Var Yn m2n 1 2 n−1 mn − 1 σ m = lim n→+∞ m2n m−1 σ2 = . m2 − m = lim n→+∞ puisque le calcul de la variance a été fait en (2). On peut montrer que, pour m > 1, lorsque le système meurt, il ne peut le faire que très vite. Plus, précisément, on a Théorème 7. On suppose que p0 + p1 < 1 et que m > 1. On considère le temps d’extinction τ du système issu d’un unique individu. Alors, si p = P(τ < +∞), on a f 0 (p) < 1 et ∀n ≥ 0 P(n < τ < +∞) ≤ f 0 (p)n . Démonstration. Avec un = P(τ ≤ n), on a P(n < τ < +∞) = P(τ > n) − P(τ = +∞) = (1 − un ) − (1 − p) = p − un . Ainsi P(n+1 < τ < +∞) = p−un+1 = f (p)−f (un ) ≤ f 0 (p)(p−un ) = f 0 (p)P(n < τ < +∞), par convexité de la fonction f , ce qui nous donne par récurrence P(n < τ < +∞) ≤ f 0 (p)n . Mais, comme p0 + p1 < 1, f est strictement convexe, on a f 0 (p) < 1−p f (1) − f (p) = = 1. 1−p 1−p Remarque On peut démontrer que si Y 1 , . . . , Y r sont r processus de GaltonWatson de loi initiale δ1 et de loi de reproduction ν , alors Y = Y 1 + · · · + Y r est un processus de Galton-Watson de loi initiale δr et de loi de reproduction ν. Ainsi P(∃n0 , Yn = 0 pour n ≥ n0 ) = P( ∩ 1≤i≤r ∃n0 , Yni = 0 pour n ≥ n0 ) = P(∃n0 , Yn1 = 0 pour n ≥ n0 )r Si a désigne la probabilité qu’une population issue d’un individu s’éteigne, alors la probabilité qu’une population issue de r individus s’éteigne vaut ar . Si E est l’événement “extinction de la population”, on a donc, si on a posé a = P(E), l’identité P(E|Y1 , Y2 , . . . , Yn ) = aYn . 6 4 Pérennité d’altérations génétiques Chaque gène particulier peut avec une certaine probabilité donner naissance à k descendants (k ∈ N) qui sont des gènes de même espèce. Toutefois, il n’est pas impossible qu’un individu puisse donner naissance à un gène d’un autre type ou un gène mutant. Ce gène peut devenir le premier d’une suite de générations de gènes mutants. Il est alors naturel de s’intéresser aux chances de survie d’un tel gène mutant dans une population globale stable. Il est ici assez naturel de modéliser le nombre de descendants d’un gène mutant selon une loi de poisson P(λ). En effet, chaque gène s’apparie avec un autre gène de la population, population où le gène mutant est rare. Dans ce cas, on a vu que la fonction génératrice était. φ(s) = exp(λ(s − 1)). Le nombre moyen de descendant d’un gène est donc m = λ. D’après le théorème précédent, l’extinction du gène mutant est assurée si λ ≤ 1, tandis que la survie de ce nouveau gène est possible si λ > 1. Cela peut être interprété comme suit : pour que la survie est possible, il faut que l’appariement de ces gènes soit favorisés dans le cas d’une reproduction sexuée. 5 Processus de Galton Watson à deux types On va maintenant s’occuper de l’évolution d’une population composée de 2 types d’individus. Chaque individu peut donner naissance à des individus de type 1 ou/et à des individus de type 2. Ainsi la probabilité qu’un individu de type i donne naissance à k individus de type 1 et l individus de type 2 sera νi ((k, l)), avec (k, l) ∈ N2 . Ainsi, pour les lois de reproduction ν1 , ν2 deux lois sur N. et la loi µ sur N2 de la population initiale, on appellera chaı̂ne de Galton-Waltson de loi initiale µ et de lois de reproduction ν1 et ν2 la chaı̂ne de Markov de matrice de transition p(i1 ,i2 ),(j1 ,j2 )) = (ν1∗i1 ∗ ν2∗i2 )(j1 , j2 ) On est naturellement amené à utiliser des fonctions génératrices à deux paramètres : pour une loi µ sur N2 , on considèrera la la fonction ∑ φ(s, t) = µ((k, l))sk tl (k,l)∈N2 Si (X, Y ) suit la loi µ, alors φ(X,Y ) (s, t) = EsX tY Dans la suite on notera f1 la fonction génératrice de ν1 et f2 la fonction génératrice de ν2 . On note également F l’application de [0, 1] × [0, 1] dans luimême définie par F (s, t) = (f1 (s, t), f2 (s, t)) Dans l’étude des chaı̂nes de Galton-Watson, prédire l’évolution d’un système partant d’un unique individu permettait (tout au moins d’un point de vue théorique) de déduire l’évolution d’une chaı̂ne quelconque. Ici, il va nous falloir étudier (conjointement) l’évolution d’un système partant d’un unique individu de type 1 et celle d’un système partant d’un unique individu de type 2. On note Pi une probabilité pour la chaı̂ne de Markov partant d’un individu de type i, Ei l’espérance correspondante. 7 Notons 1 (2) 1 (2) Ψn (s, t) = (E1 sXn tXn , E1 sXn tXn ) Pour i ∈ {1, 2} et n ≥ 0, on a Ei [s (1) (2) Xn+1 Xn+1 t ∫ su tv d(ν1∗k ∗ ν2∗l )(u, v) ∫ ∫ = su dν1∗k (u) tv dν2∗l (v) |Xn = (k, l)] = N2 N N = f1 (s)k f2 (t)l . (1) (2) (1) (2) Ainsi Ei [sXn+1 tXn+1 |Xn = (k, l)] = f1 (s)Xn f2 (t)Xn . Donc (1) (2) (1) (2) Ei [sXn+1 tXn+1 ] = Ei f1 (s)Xn f2 (t)Xn . Cela signifie que ψn+1 (s, t) = ψn (f1 (s), f2 (t)) = ψn (F (t)) Cela pour tous s, t. En d’autres termes, on a ψn+1 = ψn ◦ F Un raisonnement analogue permet de montrer que (j) E[Xn+1 |Xn ] = mj,1 Xn(1) + mj,2 Xn(2) , où mj,i est le nombre moyen de descendants de type j d’un individu de type i. On en déduit (j) EXn+1 = mi,1 EXn(1) + mi,2 EXn(2) , Ainsi, si l’on pose ( Dni = ( et M= (1) EXn (2) EXn m1,1 m2,1 ) m1,2 m2,2 ) , on a la récurrence Dn+1 = M × Dn , soit Dn = M n D0 (1) (2) Notons τ = inf{n ≥ 0; Xn = Xn = 0} et un = (P1 (τ ≤ n), P2 (τ ≤ n)). Alors, on a la récurrence un+1 = F (un ). Pour montrer cela, il suffit simplement de remarquer que un = P(Xn = (0, 0)) = φn (0, 0). Notons maintenant u le vecteur des probabilités d’extinction : u = (P1 (τ < +∞), P2 (τ < +∞)). Comme F est une fonction croissante de chacune de ses coordonnées, le même raisonnement que pour les chaı̂nes de Galton-Watson classiques permet de montrer que u est la limite de un est que c’est la plus petite solution dans [0, 1]2 de l’équation F (u) = u. On suppose qu’il y a effectivement mélange, c’est à dire qu’un individu de type i donne avec probabilité strictement positive naissance à un individu de type j 6= i. On va montrer que si ρ > 1, alors u1 < 1 et u2 < 1. Si u1 = 1, alors Xn converge P1 presque sûrement vers (0, 0), ce qui implique qu’une sous-suite de Xn converge en norme 1 vers 0. Mais E1 Xn = Dn1 = M n n ρn ( M ρ ) e1 . D’après le théorème de Perron-Frobenius, la suite ( ρ ) converge vers une matrice dont tous les coefficients sont positifs. Ainsi kEXn k ∼ kρn → +∞. Contradiction. On a donc u1 < 1. On procéderait de même pour u2 . 8 Théorème 8 (Théorème de Perron-Frobenius). Soit A une matrice à coefficients positifs dont une puissance est à coefficients strictement positifs. Alors – il existe un vecteur x0 et un réel λ0 > 0 tel que Ax0 = λ0 x0 . – pour toute autre valeur propre λ de A, |λ| < λ. – le sous-espace propre de A associé à la valeur propre λ0 est de dimension 1. – (A/λ0 )n converge vers une matrice de projection dont toutes les colonnes sont des multiples non nuls de x0 . Références : – Benaı̈m-El Karoui, Promenade aléatoire, chap. 5. – Harris, The theory of branching processes, chap. 1. – Toulouse, Agrégation de mathématiques, thèmes de probabilités et statistique, chap 13. 9