Corrigé de Banque PT 2016 – Épreuve A

Transcription

Corrigé de Banque PT 2016 – Épreuve A
Lycée Laetitia Bonaparte
Spé PT
Corrigé de Banque PT 2016 – Épreuve A
Problème d’algèbre linéaire
Partie I
1. La matrice A est symétrique réelle, donc d’après le théorème spectral, elle est diagonalisable avec une matrice de passage
orthogonale, i.e. il existe une base orthonormée de R3 formée de vecteurs propres de A.
2. • Le polynôme caractéristique de A est
X −2
1
0
= (X − 2)3 − 2(X − 2) =
X −2
1
χA (X) = det(XI3 − A) = 1
0
1
X−2 √
√
= (X − 2)(X − 2 − 2)(X − 2 + 2) ,
√
√
donc les valeurs propres de A sont 2 − 2 ; 2 et 2 + 2, toutes simples.
√
• L’espace propre associé à la valeur propre 2 − 2 s’obtient en résolvant le système
√




(
2x − y = 0
√

x

y = 2x
√
⇐⇒  y  = x 
−x + 2y − z = 0 ⇐⇒

z=x

√
z

−y + 2z = 0
!
√
1 √1
donc un vecteur propre unitaire associé à 2 − 2 est v1 =
2 .
2
1


(X − 2) (X − 2)2 − 2

√1
2 ,
1
0
−1 0
0 −1  a ses première et troisième colonnes identiques, donc un vecteur propre unitaire
0 −1 0
√ !
!
2
1
1
1
0
0
dirigeant l’espace propre Ker(A − 2I3 ) est v2 = √
.
=
2 −√2
2 −1
• La matrice A − 2I3 =  −1
1
• Enfin, le vecteur v3 = v1 ∧ v2 =
2
La famille B ′ = (v1 , v2 , v3 ) =
1
2
√1
2
1
−1
√
2
−1
!
!
1
,
2
vecteurs propres de A.
dirige nécessairement l’espace propre associé à la valeur propre 2 +
√
2
0
√
− 2
!
1
,
2
−1
√
2
−1
!!
√
2.
est une base orthonormée (directe) de R3 formée de
3. 0 n’est pas valeur propre de A, donc A est inversible.

1
1 √
4. La matrice de passage de la base B à la base B ′ est la matrice orthogonale P =  2
2
1
de u dans B ′ s’obtiennent par la formule de passage
−1
[ u ]β = P × [ u ]β ′ =⇒ [ u ]β ′ = |P{z
} ×[ u ]β =⇒
= PT
5. • Avec u =
x
y
z
!
, on a Au =
2x − y
−x + 2y − z
−y + 2z
!
′
x
y′
z′
!

1
1 √
=  2
2
−1
√
2
0
√
2

1
√
− 2
−1
x
y
z
!
√
2
0
√
− 2
−1

√

x′ = 12 (x + 2y + z)


√
=⇒
y ′ = 22 (x − z)


√
 ′ 1
z = 2 (−x + 2y − z)
donc h Au, u i = 2x2 + 2y 2 + 2z 2 − 2xy − 2yz .
1

−1
√
2  . Les coordonnées
• On peut remplacer dans le résultat précédent les expressions de x, y,!z en fonction de x′ , y ′ , z ′ (obtenue par la formule
′
de passage [ u ]β = P × [ u ]β ′ ) ou bien constater, en notant u′ =
√
!
D=
2− 2
0
0
0
0
2
0√
0 2+ 2
x
y′
z′
que u = P u′ et A = P DP −1 = P DP T avec
, donc
h Au, u i = (Au)T u =
= (2 −
AP u′
T
T T
× P u′ = u′T P
A P} u′ = u′T D u′
| {z
=D
√ ′2
√
2)x + 2y ′2 + (2 + 2)z ′2 .
√
2
6. C’est λ = 2 − 2. La base B ′ est orthonormée, donc ||u|| = x′2 + y ′2 + z ′2 . Il ne reste qu’à minorer chaque valeur propre
de A par λ pour conclure :
√
√
2
h Au, u i = (2 − 2)x′2 + 2y ′2 + (2 + 2)z ′2 > λ x′2 + y ′2 + z ′2 = λ ||u|| .
7. L’application (u, v) 7→ h Au, v i est bien définie de R3 dans R, et c’est une forme bilinéaire par bilinéarité du produit
scalaire. Elle est symétrique car la matrice A est symétrique :
h Av, u i = (Av)T u = v T AT u = (v T AT u)T = uT Av
réel
=
A=AT
uT AT v = (Au)T v = h Au, v i .
2
2
Enfin, elle est définie positive d’après l’inégalité précédente : h Au, u i > λ ||u|| > 0 et h Au, u i = 0 entraîne ||u|| = 0 et
finalement u = 0R3 (car λ > 0).
Partie II
1. Elle est définie sur R3 , à valeurs dans R, et vérifie Jb (0) = 0.
2.
•
◮
! La matrice Hessienne en taille 3 n’est pas (plus) au programme. Il fallait donc inventer sa définition ...
1re méthode : On pose b =
b1
b2
b3
!
et on a l’expression Jb (u) = x2 + y 2 + z 2 − xy − yz − (xb1 + yb2 + zb3 ), donc Jb est de
classe C2 sur R3 (polynôme à trois indéterminées), et on a
 ∂Jb



2x − y − b1
∂x (u)


−
→
∂Jb

 −x − 2y − z − b2  = Au − b .
∇ Jb (u) = 
 ∂y (u)  =
∂Jb
−y + 2z − b3
∂z (u)
◮
−
→
2de méthode : On identifie le gradient dans l’identité de la dérivée Jb (u + h) = Jb (u) + ∇ Jb (u) , h + ◦(h) . On a
1
1
h A(u + h), u + h i − h u + h, b i − h Au, u i + h u, b i
2
2
1
1
h Au, h i + h Ah, u i − h h, b i + h Ah, h i
=
2
2
= h Au − b, h i + ◦(h) ,
Jb (u + h) − Jb (u) =
(symétrie de ( · , · )A )
−
→
donc ∇ Jb (u) = Au − b .
• Pour ceux qui ont osé,


∂ 2 Jb
 ∂x2
∂ 2 Jb
∂x∂y
∂ 2 Jb
∂y 2
∂ 2 Jb
∂x∂z 
∂ Jb
∂z∂x
∂ 2 Jb
∂z∂y
∂ Jb
∂z 2

 ∂2 J
b
HJb (u) = 
 ∂y∂x

 2

2 −1

∂ 2 Jb 
 (u) = 
 −1 2
∂y∂z 

0 −1

2
2

0

−1  = A .
2
3. D’après l’inégalité de Cauchy-Schwarz, on a h u, b i 6 | h u, b i | 6 ||u|| ||b|| pour tout u ∈ R3 , donc
∀ u ∈ R3 ,
1
1
2
h Au, u i − ||b|| ||u|| >
λ ||u|| − ||b|| ||u|| .
2
(I.6) 2
Jb (u) >
4. Soit f l’application définie de R dans R par f (t) =
λ 2
2 t
− ||b|| t = t
λ
2
t − ||b|| . C’est une fonction polynôme de degré 2
qui s’annule en t = 0 et t = 2 ||b||
λ , donc elle atteint son minimum (signe de « a ») sur R en t =
||b|| On a donc ∀ t ∈ R , f (t) > f λ .
||b||
λ
.
Comme on a montré à la question précédente que ∀ u ∈ R3 , Jb (u) > f (||u||) on en déduit que ∀ u ∈ R3 , Jb (u) > f
qui montre que Jb est minorée.
Comme f (t) −−−−→ +∞, l’inégalité Jb (u) > f (||u||) montre aussi que Jb n’est pas majorée sur R3 .
||b|| ,
λ
ce
t→+∞
5. L’ensemble Jb (u) , u ∈ R3 est une partie non vide et minorée de R, elle possède donc une borne inférieure.
De plus, inf 3 Jb (u) 6 Jb (0) = 0 .
u∈R
6. D’après l’inégalité de la question 3, si ||u|| >
2||b||
λ
, on a
λ
||u|| − ||b|| > 0 .
Jb (u) > ||u||
2
|
{z
}
>0
7. Notons A = Jb (u) , u ∈ R3 ; B = Jb (u) , u ∈ B(0, r) et C = Jb (u) , u ∈ R3 \ B(0, r) , de sorte que A = B ∪ C.
On a inf B 6 0 car 0 ∈ B, et inf C > 0 d’après la question précédente, donc
inf Jb (u) = inf A = inf B ∪ C = min(inf B, inf C) = inf B =
u∈R3
inf
Jb (u) .
u∈B(0,r)
8. La fonction polynomiale Jb est continue sur la partie fermée et bornée B(0, r) , elle atteint donc sa borne inférieure sur
cet ensemble, qui est la borne inférieure sur R3 d’après la question précédente.
La borne inférieure sur R3 est atteinte, c’est donc un minimum global.
9. Comme R3 est une partie ouverte de R3 (si !) et Jb est C1 , le minimum global est atteint en un point critique de Jb . Or
−
→
∇ Jb (u) = Au − b
donc
−
→
∇ Jb (u) = 0 ⇐⇒ Au − b = 0 ⇐⇒ u = A−1 b ,
donc l’unique point critique de Jb est u = A−1 b , c’est donc en ce point que Jb admet son minimum global sur R3 .
On peut remarquer que la valeur du minimum est Jb (A−1 b) = 12 b, A−1 b − A−1 b, b = − 21 b, A−1 b ce qui est strictement
négatif lorsque b 6= 0.
Partie III
1.(a) A étant symétrique réelle, le théorème spectral s’applique, comme à la question I.1.
2
1.(b) Comme (e1 , . . . , en ) est une base orthonormée,
( on peut affirmer directement d’après le cours que ||u|| =
1 si i = j
On peut aussi le redémontrer : on a h ei , ej i = δij =
, donc
0 si i 6= j
2
||u|| = h u, u i =
X
n
i=1
αi ei ,
n
X
j=1
αj ej
=
bilin.
n X
n
X
αi αj h ei , ej i =
| {z }
i=1 j=1
= δij
n
X
α2i .
i=1
Pn
Pn
Pn
De même, Au = A( i=1 αi ei ) = i=1 αi Aei = i=1 λi αi ei , donc
X
n X
n
n
n
n
X
X
X
λi αi αj h ei , ej i =
=
αj ej
λi αi ei ,
h Au, u i =
λi α2i .
bilin.
|
{z
}
i=1 j=1
j=1
i=1
i=1
= δij
3
Pn
i=1
α2i .
1.(c) On minore chaque λi par λ1 , les réels α2i étant positifs :
h Au, u i =
n
X
λi α2i >
n
X
λ1 α2i = λ1
i=1
i=1
i=1
n
X
α2i = λ1 ||u||2 .
2
1.(d) Si u n’est pas le vecteur nul, ||u|| =
6 0, donc h Au, u i > λ1 ||u|| > 0.
2. La famille (v0 , . . . , vn−1 ) est de cardinal n = dim(Rn ), il suffit donc de démontrer qu’elle est libre pour conclure que c’est
une base de Rn . Soient µ0 , . . . , µn−1 des réels tels que µ0 v0 + · · · + µn−1 vn−1 = 0Rn . Pour tout j ∈ {0, . . . , n − 1}, on a
0 = h A × 0Rn , vj i =
n−1
n−1
X
X
µi Avi , vj
µi vi , vj =
A
i=0
i=0
=
bilin.
n−1
X
i=0
µi h Avi , vj i = µj h Avj , vj i ,
| {z }
= 0 si i6=j
or vj n’est pas nul par hypothèse, donc h Avj , vj i > 0 d’après la question précédente, et par conséquent µj = 0. On a obtenu
que µ0 = · · · = µn−1 = 0, ce qui prouve que la famille (v0 , . . . , vn−1 ) est libre.
3. (αM + βN )T = αM T + βN T (linéarité de la transposition) et (M N )T = N T M T .
2
4. v T v est une matrice de taille 1 × 1, donc un réel (c’est ||v|| ), et vv T est une matrice de taille n × n.
5. Par associativité du produit matriciel,
h Bu, v i = (Bu)T × v = (uT B T ) × v = uT × (B T v) =
u, B T v
.
6.(a) Une somme de matrices symétriques est symétrique, il suffit donc de montrer que chaque matrice
Or
1
T
T
est un scalaire, et (vi viT ) = (viT ) viT = vi viT , donc cette matrice est symétrique.
h Avi , vi i
vi viT
l’est.
h Avi , vi i
6.(b) Soit k ∈ {1, . . . , n} et w ∈ Rn . On a pour tout i ∈ {1, . . . , n} , viT Aw = h vi , Aw i = h Avi , w i (car A est symétrique),
donc
!
k−1
k−1
k−1
X
X h Avi , w i
X vi v T
1
i
T
Aw =
Ck Aw =
vi vi Aw =
vi .
h Avi , vi i
h Avi , vi i
h Avi , vi i
i=0
i=0
i=0
6.(c) On applique l’expression précédente à w = vj . Comme h Avi , vj i = 0 pour i 6= j ∈ {0, . . . , k − 1} , il reste
Ck Avj =
k−1
X
i=0
h Avi , vj i
h Avj , vj i
vi =
vj = vj .
h Avi , vi i
h Avj , vj i
6.(d) Soient j et k deux entiers tels que 0 6 j 6 k − 1 6 n . On a
Dk vj = (In − Ck A)vj = vj − Ck Avj
= vj − vj = 0 ,
6.(c)
et, puisque A et Ck sont symétriques,
DkT Avj = (In − Ck A)T Avj = (In − ACk )Avj = Avj − ACk Avj
= Avj − Avj = 0 .
6.(c)
6.(e) Comme (v0 , . . . , vn−1 ) est une base de Rn (question 2), on en déduit par linéarité que ∀ w ∈ Rn , Dn w = 0, ce qui
prouve que Dn = 0 (par exemple, on peut constater que Dn ej est la j e colonne de Dn , où (e1 , . . . , en ) est la base canonique
de Rn ).
On a alors 0 = Dn = In − Cn A, donc Cn A = In et Cn = A−1 (on rappelle que A est inversible car elle possède n valeurs
propres strictement positives).
4
Exercice de probabilités
1. N est le rang du premier succès dans une suite d’épreuves de Bernoulli indépendantes de paramètre p, donc N suit la loi
géométrique de paramètre p : N ֒→ G(p) , c’est-à-dire
N (Ω) = N∗
et
∀ n ∈ N∗ ,
P (N = n) = pq n−1 ,
où on a posé q = 1 − p ∈ ]0, 1[ .
Sachant que N = n, la variable aléatoire X est le nombre de succès dans une suite de n épreuves de Bernoulli indépendantes
de paramètre p, donc la loi conditionnelle de X sachant N = n est B(n, p), i.e.
n k n−k
∀ k ∈ {0, . . . , n} , PN =n (X = k) =
p q
.
k
2. Le couple (N, X) est à valeurs dans (n, k) ∈ N∗ × N , 0 6 k 6 n , et pour (n, k) dans cet ensemble,
n k n−k
n k+1 2n−k−1
P (N = n, X = k) = PN =n (X = k) × P (N = n) =
p q
× pq n−1 =
p q
.
k
k
3. Par une récurrence évidente, ∀ x ∈ ] − 1, 1[ , f (k) (x) =
k!
.
(1 − x)k+1
Par des dérivations terme à terme successives du développement en série entière f (x) =
∀ x ∈ ] − 1, 1[ ,
f
(k)
(x) =
n=k
On en déduit que
∀ x ∈ ] − 1, 1[ ,
+∞
X
n−k
n(n − 1) · · · (n − k + 1)x
=
+∞
X
+∞
X
1
=
xn , on a
1−x
n=0
(n + k)(n + k − 1) · · · (n + 1)xn ,
n=0
+∞
+∞ X
X
(n + k)(n + k − 1) · · · (n + 1) n
n+k n
1 (k)
1
x .
=
f
(x)
=
x
=
k
(1 − x)k+1
k!
k!
n=0
n=0
4. On applique la formule des probabilités totales au système complet d’événements (N = n)n∈N∗ , ce qui donne, pour k > 1,
+∞
X
+∞
X
+∞ X
n k+1 2n−k−1
P (X = k) =
P (X = k, N = n) =
P (X = k, N = n) =
p
q
k
n=1
n=k
n=k
+∞ +∞ X
X
pk+1 q k−1
n + k 2n
n + k k+1 2n+k−1
q
=
p q
= pk+1 q k−1
,
=
(3.) (1 − q 2 )k+1
k
k
n=0
n=0
ce qui est légitime, car q 2 ∈ ]0, 1[ ⊂ ] − 1, 1[ . Comme 1 − q 2 = (1 − q)(1 + q) = p(2 − p) , on obtient P (X = k) =
comme voulu.
Pour k = 0, on a
P (X = 0) =
+∞
X
P (X = 0, N = n) =
n=1
+∞
X
pq 2n−1 =
n=1
+∞
X
pq 2n+1 =
n=0
q
1−p
pq
=
=
.
1 − q2
1+q
2−p
5.(a) U et V étant indépendantes, on a admis dans le cours que
E(Y ) = E(U V ) = E(U ) × E(V ) = λ ×
1
= 1.
λ
5.(b) Pour k = 0, on a P (Y = 0) = P (U = 0) = 1 − λ , et pour k 6= 0, on a
P (Y = k) = P (U = 1, V = k)
5.(c)
◮
=
indep.
P (U = 1) × P (V = k) = λ × (1 − λ)k−1 λ = λ2 (1 − λ)k−1 .
1re méthode : Comme U 2 = U et V 2 sont indépendantes,
V (Y ) = E(Y 2 ) − E(Y )2 = E(U 2 V 2 ) − 1 = E(U 2 )E(V 2 ) − 1 = λ E(V 2 ) − 1 .
5
(1 − p)k−1
,
(2 − p)k+1
Or la variance de V (comme son espérance) est dans le cours, c’est
1−λ
1
= E(V 2 ) − E(V )2 = E(V 2 ) − 2
2
λ
λ
On en déduit que
V (Y ) = λ
◮
1−λ
, c’est-à-dire
λ2
donc
E(V 2 ) =
1−λ
1
2−λ
+ 2 =
.
2
λ
λ
λ2
1−λ
2−λ
−1 = 2
.
λ2
λ
2de méthode : On démontre facilement par dérivation terme à terme (comme à la question 3) que
+∞
X
∀ x ∈ ] − 1, 1[ ,
k 2 xk =
k=0
x
2x2
+
.
(1 − x)2
(1 − x)3
On applique alors le théorème du transfert à la fonction t 7→ (t − 1)2 :
V (Y ) = E (Y − E(Y ))2
= 1 − λ + λ2
+∞
X
k=0
= E (Y − 1)2
=
+∞
X
k=0
k 2 (1 − λ)k = 1 − λ + λ2
6. On choisit λ ∈ ]0, 1[ tel que
∀k > 1,
(k − 1)2 P (Y = k) = P (Y = 0) +
+∞
X
(k − 1)2 λ2 (1 − λ)k−1
k=1
1 − λ 2(1 − λ)2
(1 − λ)2
1−λ
= 2(1 − λ) + 2
+
= 2
.
2
3
λ
λ
λ
λ
1
1−p
= P (X = 0) = P (Y = 0) = 1 − λ , c’est-à-dire λ =
∈ ]0, 1[ . On a alors
2−p
2−p
P (Y = k) = λ2 (1 − λ)k−1 =
1
(1 − p)k−1
(1 − p)k−1
=
= P (X = k) ,
(2 − p)2 (2 − p)k−1
(2 − p)k+1
et de plus Y (Ω) = X(Ω) = N . Autrement dit, pour ce choix de λ, X et Y ont même loi.
6

Documents pareils