Précis d`analyse numérique

Transcription

Précis d`analyse numérique
Maı̂trise de Mathématiques
Aide-mémoire Analyse Numérique
J-L.Maltret
Octobre 2001
http://lumimath.univ-mrs.fr/~jlm/cours/analnum
1
Equations à une variable
1.1
Méthode du point fixe
On résoud x = f (x) en définissant par récurrence xn+1 = f (xn ) . La suite est convergente si f est contractante : |f (x)−f (y)| ≤ k|x−y| avec k < 1 ; cette condition est vérifiée
si |f 0 | < 1 et en particulier si |f 0 (y)| < 1 pour la solution y = f (y) .
Si x0 est suffisamment proche de y on a |xn+1 − y| < k|xn − y| ; la meilleure convergence est obtenue si f 0 (y) = 0 . On peut essayer de se ramener à ce cas par un procedé
d’accélération de convergence : on remplace la résolution de x = x + (f (x) − x) par celle de
1
.
x = ϕ(x) = x + α(f (x) − x) et on choisit α pour que ϕ0 (y) = 0, c’est-à-dire α =
1 − f 0 (y)
En pratique on se contente d’une estimation de f 0 pour déterminer la valeur optimale
f (xn ) − xn
de α, par exemple
.
xn − xn−1
1.2
Méthode de Newton
f (xn )
.
f 0 (xn )
xn → y tel que f (y) = 0 si x0 est suffisamment proche de y.
On a alors convergence quadratique : |xn+1 − y| < k|xn − y|2 .
On peut avoir divergence, cyclage ou attraction de racines parasites .
On résoud f (x) = 0 en formant la suite xn+1 = xn −
1.3
Cas des polynômes : méthode de Bernoulli
Soit un polynôme P de degré d :
P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad
On suppose qu’il admet des racines réelles r1 , . . . , rd , de modules distincts, ordonnées par
modules décroissants :
|r1 | > |r2 | > · · · |rd |
On considère les suites définies par des termes initiaux u1 , . . . , ud et par la relation de
récurrence
(R) uk = −a1 uk−1 − a2 uk−2 − · · · − ad uk−d
1
On prend le cas particulier où uk = rk : r est alors nécessairement une racine de P .
On note b(i) la suite dont le terme général est rik . Les b(i) , 1 ≤ i ≤ d forment une base
de l’espace des suites qui satisfont (R) . Si uk satisfait (R) on écrit donc :
uk = c1 r1k + c2 r2k + · · · + cd rdk
Quand k → ∞ on a alors
gk =
uk+1
→ r1 et
uk
gk+1 − r1
r2
→
gk − r1
r1
D’où l’algorithme :
tant que degré P positif
calculer r limite de la suite gk
diviser P par x-r
1.4
Méthode de Maehly
Soit un polynôme P de degré d :
P = xd + a1 xd−1 + . . . + ad−1 x + ad
On calcule ses racines par la méthode de Newton : x0 donné on forme
xk+1 = xk −
P (xk )
P 0 (xk )
Soit r1 la première racine trouvée et P1 (x) =
P10 (x) =
P (x)
,
x−r1
on a
P 0 (x)
P (x)
−
x − r1 (x − r1 )2
La méthode de newton appliquée à P1 donne la relation de récurrence :
xk+1 = xk −
P (xk )
P 0 (xk ) −
P (xk )
xk −r1
Si on a déjà trouvé j racines réelles de P : r1 , . . . , rj , et si on note
Pj (x) =
alors
Pj0 (x)
P (x)
(x − r1 ) . . . (x − rj )
j
X
P 0 (x)
P (x)
1
−
=
(x − r1 ) . . . (x − rj ) (x − r1 ) . . . (x − rj ) i=1 x − ri
et la méthode de Newton appliquée à Pj donne la relation de récurrence :
xk+1 = xk −
P (xk )
P
P 0 (xk ) − P (xk ) ji=1
2
1
x−ri
2
Systèmes linéaires
2.1
2.1.1
Méthodes directes
Gauss
Soit une matrice A de dimension n × n, x, b ∈ Rn
Soit A(1) = A, on définit par récurrence A(k+1) à partir de A(k) en faisant des combinaisons de lignes :
(k)
aik
`i ← `i − (k)
`k i > k
akk
On obtient ainsi des 0 au-dessous de la diagonale dans la colonne k, à condition que
(k)
akk 6= 0. A l’étape n on a un système triangulaire qu’on résoud par remontée :

xn







xi







x1
1
b
ann n
=
...
=
...
=
P
1
(− j>i
aii
aij xj + bi )
P
1
(−
j>1
a11
a1j xj + b1 )
La méthode de Gauss équivaut à écrire la décomposition A = LU où L est triangulaire
inférieure avec des coefficients diagonaux égaux à 1 et U est triangulaire supérieure avec
des coefficients diagonaux 6= 0 .
Stratégie de pivot : à chaque étape on effectue un échange de lignes pour avoir le
coefficient diagonal le plus grand en module .
2.1.2
Cholesky
A symétrique définie positive il existe L triangulaire inférieure inversible telle que
A = LLt .
On détermine L colonne par colonne en commençant par l’élément diagonal :
2
akk = lkk
+
k−1
X
2
lki
d0 où lkk
i=1
i>k
aik = lik lkk +
k−1
X
v
u
k−1
u
X
2
= takk −
lki
i=1
lij lkj
j=1

On résoud alors 2 systèmes triangulaires : Lz = b puis Lt x = z .
2.1.3

k−1
X
1 
d0 où lik =
aik −
lij lkj 
lkk
j=1
Householder
On note u ∈ Rn sous forme de vecteur-colonne .
On définit une matrice de Householder par
H(u) = I −
H(u) est symétrique et orthogonale .
3
2
uut
ut u
Si a et b sont 2 vecteurs non nuls et non colinéaires v = a± kak
b est tel que H(v)a = αb
kbk
où α est un coefficient réel .
Soit une matrice A de dimension n × n : Il existe une matrice
 de
 Householder H1 =
x


 0 

H(u1 ) telle que A1 = H1 A ait sa première colonne de la forme  .. 
.
 . 
0
Par récurrence il existe n − 1 matrices Hi de la forme








1
0 ...
..
.
0
..
.
1
H(ui )






(H(ui ) de dimension n+1−i) et telles que Hn−1 . . . H2 H1 A soit triangulaire supérieure.
On a l’algorithme de résolution du système linéaire Ax = b :
pour i de 1 à n-1
construction matrice Hi
multiplication de A et b par Hi
résolution du système triangulaire
2.2
2.2.1
Méthodes itératives
Convergence
On écrit A, matrice n × n inversible, sous la forme A = M − N avec M inversible .
On forme la suite récurrente définie par :
M xk+1 = N xk + b
Si cette suite converge vers x alors M x = N x + b, x est solution du système Ax = b .
xk → x ssi toutes les valeurs propres de M −1 N sont de module < 1 .
2.2.2
Jacobi
Si aii 6= 0 , 1 ≤ i ≤ n, on écrit A sous la forme : A = D + L + U , où D est diagonale
, L est triangulaire inférieure (lij = aij si i > j , lij = 0 si i ≤ j) , U est triangulaire
supérieure (uij = aij si i < j , uij = 0 si i ≥ j) .
On considère un vecteur x(0) et la suite donnée par
Dx(k+1) = −(L + U )x(k) + b
La suite z (k) = x(k) − x satisfait z (k+1) = Jz (k) . La condition de convergence est vérifiée
si A satisfait
X
(C) 1 ≤ i ≤ n |aii | >
|aij |
i6=j
(matrice à diagonale dominante)
4
Implémentation de la récurrence :

(k+1)


x1







=
...
=
...
=
(k+1)
xi









2.2.3
x(k+1)
n
1
a11
1
aii
−
P
−
P
1
ann
(k)
j>1
(k)
j<i
−
a1j xj + b1
aij xj −
(k)
P
(k)
P
j<n
aij xj + bi
j>i
anj xj + bn
Gauss-Seidel
On considère la suite donnée par
(D + L)y (k+1) = −U y (k) + b
w(k) = y (k) − x satisfait une relation w(k+1) = Gw(k) . y (k) → x quand k → ∞ sous la
même condition (C) .
On obtient pour la récurrence :

(k+1)


y1







=
...
=
...
=
(k+1)
yi









2.2.4
yn(k+1)
1
a11
1
aii
1
ann
(k)
−
P
a1j yj + b1
−
P
(k+1)
j>1
−
j<i aij yj
−
(k+1)
P
j<n anj yj
(k)
P
j>i aij yj + bi
+ bn
Relaxation
On se donne ω ∈R et la suite
1
ω−1
D + L z (k+1) = −
D + U z (k) + b
ω
ω
La récurrence devient :

(k+1)


z1







(k+1)
zi









zn(k+1)
=
...
=
...
=
ω
a11
ω
aii
ω
ann
(k)
− ω−1
a11 z1 −
ω
−
(k+1)
P
−
j<i aij zj
P
(k)
P
j>1
−
(k+1)
j<n anj zj
a1j zj + b1
(k)
ω−1
aii zi
ω
−
−
ω−1
ann zn(k)
ω
(k)
P
j>i aij zj + bi
+ bn
Pour A symétrique définie positive, on a convergence ssi 0 < ω < 2
De plus si A est tridiagonale par blocs il existe un ω0 optimal (assurant la meilleure
vitesse de convergence) :
2
q
ω0 =
1 + 1 − ρ[D−1 (L + U )]
5
2.2.5
Méthodes de gradient
A symétrique définie positive, valeurs propres λ1 > . . . > λn , b vecteur donné.
On pose J(x) = 12 (x|Ax) − (b|x), on a G(x) = Ax − b gradient de J(x) .
Ax = b ⇔ J minimum en x
Pour x(0) fixé on construit une suite de vecteurs x(k) par récurrence :
x(k+1) = x(k) − ρk G(x(k) )
G(x(k) ) est la direction de descente, ρk est le pas .
– pas fixe : on choisit ρk = ρ ∀k
On a convergence si 0 < ρ <
2
λ1
et convergence optimale pour ρ0 =
2
λ1 +λn
– pas optimal : Soit f (ρ) = J(x(k) − ρG(x(k) ), on choisit ρk tel que f (ρk ) = inf ρ f (ρ) .
On a alors ρk =
3
(G(x(k) )|G(x(k) ))
(G(x(k) )|AG(x(k) ))
et
(G(x(k+1) )|G(x(k) )) = 0.
Systèmes non linéaires
3.1
Point fixe
Soit F une contraction stricte sur un espace métrique complet :
d(F (x), F (y)) ≤ kd(x, y) k < 1
alors la suite définie par x0 et xn+1 = F (xn ) converge vers une solution x telle que
x = F (x)
3.2
Newton-Raphson
F : D → D et y ∈ D tel que F (y) = 0
Si F est différentiable et telle que :
kF 0 (x)−1 kbornée dans D
kF (z) − F (x) − F 0 (x)(z − x)k ≤ kkz − xk2 z, x ∈ D
La suite définie par x0 et
xn+1 = xn − F 0 (xn )−1 F (xn )
converge vers y si x0 est suffisamment proche de cette solution . De plus
kxn − yk ≤ c2
n −1
6
kx0 − yk2
n
3.3
Racines de polynômes : méthode de Bairstow
P polynôme de degré d > 2 :
P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad
On considère sa division par le polynôme du second degré x2 + bx + c :
P (x) = (x2 + bx + c)Q(x) + rx + s
On cherche à déterminer b et c pour que r(b, c) = s(b, c) = 0 .
Pour ceci on calcule b et c par la méthode de Newton-Raphson : à partir d’une estimation de b et c on cherche ∆b et ∆c tels que
r(b + ∆b, c + ∆c) = s(b + ∆b, c + ∆c) = 0
soit au premier ordre :
r(b, c) +
∂r
∂r
∆b + ∆c = 0
∂b
∂c
∂s
∂s
∆b + ∆c = 0
∂b
∂c
on calcule ∆b et ∆c en résolvant ce système de 2 équations puis on remplace b par
b + ∆b et c par c + ∆c ; la suite des estimations obtenues converge .
En dérivant la relation entre P et Q par rapport à b et c on calcule les dérivées partielles
∂r
∂r
,
, ∂s
, ∂s
, qui s’obtiennent par division de Q(x) et de xQ(x) par x2 + bx + c .
∂b
∂c
∂b
∂c
On a l’algorithme :
s(b, c) +
répéter
initialisation de b et c
répeter
calcul de Q par division de P
calcul des dérivées partielles par division de Q et xQ
résolution du système
correction de b et c
jusqu’à test d’arr^
et
résolution équation du second degré
division de P
jusqu’à degré 2
4
Valeurs propres
4.1
Cas symétrique : méthode de Jacobi
Si M est une matrice 2 × 2 symétrique et Rθ une matrice de rotation
M=
α β
β γ
!
Rθ =
7
cosθ −sinθ
sinθ cosθ
!
on peut choisir θ pour que Rθ M Rθt soit diagonale.
Si on note
!
α0 β 0
0
M =
= Rθ M Rθt
β0 γ0
alors α0 2 + 2β 0 2 + γ 0 2 = α2 + 2β 2 + γ 2 . d’où α0 2 + γ 0 2 ≥ α2 + γ 2 dans le cas où β 0 = 0 .
Si A est une matrice symétrique n × n on note Uθpq la matrice définie par
uii = 1 si i 6= p, q
upp = uqq = cos θ
upq = sin θ
uqp = − sin θ
uij = 0 dans les autres cas
On pose A0 =
Uθpq AUθpq t
n
X
i=1
2
a0ii
≥
. et on choisit θ pour que a0pq = 0 . On a alors
n
X
i=1
a2ii
X
2
a0ij =
i,j
X
a2ij
i,j
X
2
a0ij ≤
i6=j
X
a2ij
i6=j
En répetant cette transformation pour tous les indices (p, q) la somme des carrés des
coefficients non diagonaux tend vers 0, i.e. la matrice transformée tend vers une matrice
diagonale. Pour cela on peut choisir p et q tels que |apq | = maxi<j |aij | .
On en déduit l’algorithme :
répéter
choisir p et q
calculer cosθ et sinθ
calculer A0
P
jusqu’à ni6=j a0ij 2 ≤ ε
4.2
Cas symétrique : méthode de Givens
Réduction : A ∈ Mn (R), symétrique, ∃P orthogonale, produit de n − 2 matrices de
Householder, telle que P t AP soit tridiagonale .
Bissection : la suite des polynômes pi associés à une matrice tridiagonale a des racines
emboitées ; le nombre de racines de pi qui sont < a est le nombre de changements de signe
dans la suite :
(1, p1 (a), p2 (a), . . . , pi (a))
4.3
Cas général : méthode de la puissance
A diagonalisable, λ1 valeur propre de plus grand module , u0 donné on forme
wk+1 = Auk
et uk+1 =
wk+1
kwk+1 k
1 |v1 )
Alors uk → v1 , vecteur propre associé à λ1 et λ1 = (Av
.
(v1 |v1 )
n
t
Déflation : soit w ∈R tel que w v1 = 1, alors A − λ1 v1 wt a les mêmes valeurs propres
que A, sauf λ1 qui est remplaçée par 0 .
8
4.4
Cas général : méthode QR
Décomposition QR : A ∈ Mn (R), ∃Q orthogonale et R triangulaire supérieure telles
que A = QR ; si on impose rii > 0 cette décomposition est unique .
Convergence méthode QR : on forme A1 = A puis par récurrence Ak = Qk Rk et on
définit Ak+1 = Rk+1 Qk+1
Si les valeurs propres de A sont toutes de modules différents alors
lim (Ak )ii = λi
k→+∞
4.5
Calcul de vecteurs propres : méthode de la puissance inverse
A diagonalisable, λ valeur propre de A, on choisit µ 6= λ tel que l’intervalle (µ, λ) ne
contienne aucune autre valeur propre de A
Pour u0 donné on définit la suite (uk ) par
(A − µI)uk+1 = uk
Alors
uk
→ vλ vecteur propre associé à λ .
kuk k
5
Interpolation
5.1
Interpolation polynômiale de Lagrange
Soient des réels distincts : x0 < x1 < . . . < xn et αi ∈ R, 0 ≤ i ≤ n .
Il existe un polynôme P unique de degré ≤ n tel que P (xi ) = αi 0 ≤ i ≤ n.
P
P = i=n
i=0 αi Li où les Li sont les polynômes satisfaisant Li (xj ) = δij :
Li (x) =
j=n
Y
j=0j6=i
x − xj
xi − xj
!
Pour f ∈ C n+1 ([a, b]) on note Lf le polynôme de degré ≤ n tel que
0≤i≤n
Lf (xi ) = f (xi )
Méthode de Newton
On forme les différences divisées de f :
δ[y] = f (y)
δ[y1 , y2 ] =
δ[y1 , . . . , yk ] =
f (y1 ) − f (y2 )
,...
y1 − y2
δ[y1 , . . . , yk−1 ] − δ[y2 , . . . , yk ]
y1 − yk
On a alors
δ[y1 , . . . , yk ] =
i=k
X
i=1
9
Q
f (yi )
j6=i (yi − yj )
Lf (x) =
k=n−1
X
δ[x0 , . . . , xk ]
j=k−1
Y
(x − xj )
j=0
k=0
Approximation de f
∀x ∈ [a, b] ∃c ∈]a, b[ tel que
i=n
Y
1
(x − xi )f (n+1) (c)
(n + 1)! i=0
f (x) − Lf (x) =
Soit a > 0 et f : [−a, a] 7→ R définie par f (x) =
Soit h > 0 et 0 < α < a . On définit
1
1 + x2
1
{xi ; i = 0, . . . , n} = {x ∈ [0, a]; x = α + (k + )h, k ∈ Z}
2
Le polynôme P satisfaisant P (xi ) = f (xi ) et P (−xi ) = f (−xi ), 0 ≤ i ≤ n est pair et de
degré ≤ 2n .
Quand h → 0 on a |f (α) − P (α)| → 0 si 0 < α < b et |f (α) − P (α)| → ∞ si b < α < a
5.2
Interpolation d’Hermite
k
Soient xi ∈ R, x0 < x1 < . . . < xq , ni ∈ N ∗ , n = i=q
i=0 ni − 1 et yi ∈ R, 0 ≤ k ≤ ni − 1
Il existe un polynôme P unique de degré ≤ n tel que P (k) (xi ) = yik 0 ≤ i ≤ q,
0 ≤ k ≤ ni − 1 .
Soient les polynômes h définis par
P
Y
(x − xi )k j=q
x − xj
hik (x) =
k!
j=0j6=i xi − xj
!nj
0 ≤ k ≤ ni − 1
On définit les polynômes H par les relations :
Hi,ni −1 (x) = hi,ni −1 (x)
Hik (x) = hik (x) −
p=n
i −1
X
(p)
hik (xi )Hip (x) k < ni − 1
p=k+1
On a alors
(l)
Hik (xj ) = δij δkl
d’où
P =
i=n
i −1
X k=n
X
i=0
yik Hik
k=0
Cas particulier : ∀i ni = 2 i.e. on impose les valeurs P (xi ) = yi0 et P 0 (xi ) = yi1
On pose
Qi (x) =
k=q
Y
(x − xk )2
k=0,k6=i
On a alors
P (x) =
q
X
Qi (x)
i=0
Qi (xi )
"
Q0 (xi ) 0
1 − (x − xi ) i
y + (x − xi )yi1
Qi (xi ) i
!
10
#
(k)
Pour f ∈ C n+1 ([a, b]) on note Pf le polynôme de degré ≤ n tel que Pf (xi ) = f (k) (xi )
0 ≤ i ≤ q, 0 ≤ k ≤ ni − 1 .
Alors ∀x ∈ [a, b] ∃ξ ∈]a, b[ tel que
f (x) − Pf (x) =
i=q
Y
1
(x − xi )ni f (n+1) (ξ)
(n + 1)! i=0
Cas particulier : q = 1, n0 = n1 = m + 1, n = 2m + 1 . On suppose u ∈ C 2m+2 ([x0 , x1 ])
et P (k) (xi ) = u(k) (xi ) i = 0, 1 0 ≤ k ≤ m . On a alors
sup |u(k) (x) − P (k) (x)| ≤ ck (x1 − x0 )2m+2−k sup |u2m+2 (x)|
x0 ≤x≤x1
5.3
x0 ≤x≤x1
Interpolation par splines cubiques
Soient des réels distincts : x0 < x1 < . . . < xn < xn+1
On pose hi = xi+1 − xi et on définit sur [xi , xi+1 ] :
P (xi ) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di
Pour avoir continuité, dérivabilité et dérivabilité seconde de P aux points xi 1 ≤ i ≤ n
les bi doivent satisfaire un système linéaire ne dépendant que des di et hi dont on note A
la matrice .


4 1
0 ...
..


.
4
1
1



.
.
.
.
.
.


.
.
.
A = 0

 .. . .

.
. 1
4 1
1 4
4
2
Pour f ∈ C ([x0 , xn+1 ]) il existe g ∈ C ([x0 , xn+1 ]), unique, telle que
– g|[xj ,xj+1 ] est un polynôme de degré 3 pour 0 ≤ j ≤ n
– g(xj ) = f (xj ) 0 ≤ j ≤ n + 1
– g 00 (0) = g 00 (1) = 0
On pose h =
1
,
n+1
I = [0, 1], xi = ih . Soit f ∈ C 4 (I) et g la fonction associée .
sup |f (k) (x) − g (k) (x)| ≤ Ck h4−k
k = 0, 1, 2, 3
0≤x≤1
( C0 , C1 , C2 , C3 constantes indépendantes de h )
On a
Z 1
Z 1
Z 1
|f 00 (x)|2 dx =
|f 00 (x) − g 00 (x)|2 dx +
|g 00 (x)|2 dx
0
0
0
Soit ϕ ∈ C (I) telle que ϕ(xj ) = f (xj ), 0 ≤ j ≤ n + 1 , ϕ00 (0) = ϕ00 (1) = 0 . Alors
2
Z
0
1
|g 00 (x)|2 dx ≤
Z
1
0
|ϕ00 (x)|2 dx
Soit ψ ∈ C 2 (I) polynômiale de degré 3 sur [xj , xj+1 ] pour 0 ≤ j ≤ n et telle que
ψ 00 (0) = ψ 00 (1) = 0 .
Z
0
1
|f 00 (x) − g 00 (x)|2 dx ≤
Z
0
1
|f 00 (x) − ψ 00 (x)|2 dx
Les conditions g 00 (0) = g 00 (1) = 0 peuvent être remplaçées par g 0 (0) = f 0 (0) et g 0 (1) =
f 0 (1)
11
6
Approximation
6.1
Moindres carrés
A matrice m × n, m > n et rang(A)=n . Le système linéaire Ax = b peut-être résolu
P
aux moindres carrés : ∃x0 unique tel que kAx0 − bk2 = j ((Ax0 )j − bj )2 soit minimum.
x0 est solution de At Ax = At b (équations normales du système) .
Moindres carrés pondérés : pour des coefficients wj > 0 on cherche le minimum de
X
wj ((Ax0 )j − bj )2
j
6.2
Approximation des fonctions
f continue sur [a, b], x1 , . . . , xm dans [a, b] , ϕ1 , . . . , ϕn fonctions fixées . On cherche à
P
approcher f par i αi ϕi . On résoud aux moindres carrés le système :
X
αi ϕi (xj ) = f (xj ) j = 1 . . . m
i
A = (ϕi (xj ))1≤i≤n,1≤j≤m
Le système des équations normales est N α = c où
Nij =
X
ϕi (xk )ϕj (xk ) ci =
k
X
ϕi (xk )f (xk )
k
N est symétrique, définie positive si les ϕi et les xj satisfont une condition d’indépendance
Approximation polynômiale : ϕi (x) = xi et les xj tous distincts .
6.3
6.3.1
Polynômes Orthogonaux
Notations
– w(x) ≥ 0 sur [a, b], (f, g)w =
Rb
a
f (x)g(x)w(x)dx est un produit scalaire
– L2w [a, b] est l’espace de Hilbert des fonctions de carré sommable sur [a, b] pour w(x)
2
– kf kw = (f, f )1/2
w est la norme de Lw [a, b]
– kf k[a,b] = supx∈[a,b] |f (x)| est la norme de la convergence uniforme sur [a, b]
– un polynôme dont le coefficient du terme de plus haut degré est égal à 1 est dit
unitaire
6.3.2
Définitions
Il existe une suite unique de polynômes pn tels que :
– 1) le degré de pn est exactement n et le coefficient de xn est positif
– 2) les pn sont orthonormés dans L2w [a, b] ,
12
Rb
a
pn (x)pm (x)w(x)dx = δnm
Exemples classiques
– Polynômes de Jacobi
Pn(α,β) a = −1 b = 1 w(x) = (1 − x)α (1 + x)β α > −1 β > −1
En particulier :
– Polynômes de Gegenbauer Gαn pour α = β
– Polynômes de Tchebycheff de 1ere espece Tn pour α = β = −1/2
– Polynômes de Tchebycheff de 2eme espece Un pour α = β = 1/2
– Polynômes de Legendre Pn pour α = β = 0
– Polynômes de Laguerre L(α)
a = 0 b = +∞ w(x) = xα e−x α > −1
n
– Polynômes d’Hermite Hn a = −∞ b = +∞ w(x) = e−x
6.3.3
2
Propriétés algébriques
– Récurrence : les polynômes pn orthogonaux sur [a, b] pour w(x) satisfont une relation
de récurrence de la forme pn (x) = (An x + Bn )pn−1 (x) − Cn pn−2 (x) où An > 0 et
Cn > 0
– Formule de Christoffel : on a l’identité
Kn (x, y) =
i=n
X
pi (x)pi (y) =
i=0
kn pn+1 (x)pn (y) − pn (x)pn+1 (y)
kn+1
x−y
où kn est le coefficient du terme de plus haut degré de pn
– Matrices tridiagonales : soient les matrices


b1 c 2


 c 2 b2 c 3
0 




c3 b3 c4
Jn = 


.. .. .. 

.
.
. 
0


c n bn
n≥1
les polynômes caractéristiques des matrices Jn satisfont la relation de récurrence
Pn (x) = (−x + bn )Pn−1 (x) − c2n Pn−2 (x)
6.3.4
Propriétés extrémales
– Approximation hilbertienne : f ∈ L2w [a, b] le polynôme P de degré n qui realise le
P
minimum de kf − P kw est i=n
i=0 fi pi où fi = (f, pi )w
– P (x) polynôme unitaire de degré n, le minimum de kP kw est atteint pour cPn .
13
– x0 ∈ C, P (x) polynôme de degré n tel que kP kw = 1 le maximum de |P (x0 )| est
atteint pour
P (x) = εKn (x0 , x0 )−1/2 Kn (x0 , x) ε = ±1
– Propriété d’alternance : Q ∈ Pn réalise l’approximation uniforme de f ( kf − Qk[a,b]
minimale ) ssi il existe n+2 points xi dans l’intervalle [a, b] tels que
(f − Q)(xi ) = (−1)i kf − Qk[a,b]
– Approximation uniforme : f continue sur [a, b] il existe un polynôme Q unique de
degré n tel que
kf − Qk[a,b] = inf kf − P k[a,b]
P ∈Pn
– Tn satisfait
Tn n−1 2
6.3.5
[−1,1]
= inf kP k[−1,1]
P ∈Qn
Propriétés différentielles
– Les polynômes orthogonaux classiques satisfont une equation différentielle du second
ordre
– Jacobi : (1 − x)y 00 + [β − α − (α + β + 2x]y 0 + n(n + α + β + 1)y = 0
– Laguerre : xy 00 + [α + 1 − x]y0 + ny = 0
– Hermite : y 00 − 2xy 0 + 2ny = 0
– Fonctions propres : en mettant les equations différentielles sous la forme
ay 00 + by 0 + cy = 0
les polynômes orthogonaux apparaissent comme vecteurs propres d’un operateur
différentiel D(y) = ay 00 + by 0
– Formules de Rodrigues : On a les representations
Pn(α,β) (x) = (1 − x)−α (1 + x)−β cn
dn n+α
n+β
(1
−
x)
(1
+
x)
dxn
dn −x n+α e x
dxn
dn 2 2
Hn (x) = ex (−1)n n e−x
dx
Lαn (x) = x−α ex cn
6.3.6
Racines
– Les racines des pn orthogonaux dans L2w [a, b] sont réelles , simples et dans [a, b]
– Entre deux racines de pn il existe une racine de pn+1
– pn (µ) 6= 0, le nombre de racines de pn supérieures à µ est égal au nombre de changements de signe dans la suite p0 (µ), p1 (µ), . . . , pn (µ)
14
6.3.7
Intégration
– Condition de Haar : ti 1 ≤ i ≤ n réels distincts, la matrice

p0 (t1 )

..

.


...
p0 (tn )

..

.

pn−1 (t1 ) . . . pn−1 (tn )
est non singulière
– Formule de Gauss : Soient
x1 < x2 < · · · < xn les zéros de pn , il existe n réels
R
P
λ1 , λ2 , . . . , λn tels que ab p(x)w(x)dx = i=n
i=1 λi p(xi ) pour tout polynôme p de degré
Pj=n
2
2n − 1 et on a 1/λi = j=0 (pj (xi ) ) = Kn (xi , xi )
6.3.8
Fonction génératrice
– Les polynômes orthogonaux classiques peuvent être obtenus comme coefficients d’un
développement en série entière d’une fonction génératrice :
– Legendre :
P∞
– Laguerre :
P∞
– Hermite :
6.3.9
n=0
Pn (x)z n = (1 − 2xz + z 2 )−1/2
n
α
n=0 Ln (x)z
P∞
n=0
−α−1
= (1 − z)
xz
exp −
1−z
Hn (x) n
2
n! z = exp(2xz − z )
Polynômes trigonométriques
– Les polynômes complexes z n sont orthogonaux pour le produit scalaire
(p, q) =
Z
π
p(z)q(z)dz
z = eiθ
−π
– g(θ) polynôme trigonométrique de degré n , g(θ) = a0 +
aj , bj ∈ R
Pj=n
j=1
aj cos(θ) + bj sin(θ),
– g(θ) est non-négatif pour tout θ ssi il existe p(z) polynôme de degré n tel que
g(θ) = |p(z)|2 pour z = eiθ
– en multipliant p(z) par des expressions de la forme (1 − ᾱz)/(z − α) on peut obtenir
un polynome sans zéros de module < 1 .
π
– Pour le produit scalaire (p, q)f = −π
p(z)q(z)f (z)dz où f (z) ≥ 0 on peut définir des
polynômes orthogonaux en z avec des propriétés algébriques analogues à celles du
cas réel .
R
15
Références
[1] Bakhvalov, N. Méthodes numériques. Mir 1976
[2] Ciarlet, P. Introduction à l’analyse numérique. 2ème Ed. Masson, 1995
[3] Chatelin, F. Valeurs propres de matrices. Masson, 1988
[4] Demailly, J-P. Analyse numérique et équations différentielles Presses Universitaires de Grenoble, 1991
[5] Euvrard, D. Résolution numérique des équations aux dérivées partielles Masson,
1988
[6] Golub, G. VanLoan, C. Matrix Computations. 2nd Ed. John Hopkins, 1989
[7] Guilpin, C. Calcul numérique appliqué EDP Sciences, 1999
[8] Lascaux, P. Theodor, R. Analyse numérique matricielle appliquée à l’art de
l’ingénieur Masson, 1986
[9] Rombaldi, J-E. Problèmes d’Analyse numérique Masson, 1996
[10] Schatzman, M. Analyse numérique : cours et exercices InterEditions, 1991
[11] Sibony, M. Mardon, J-C. Analyse numérique I-II-III. Hermann, 1982-1988
[12] Stoer, J. Bulirsch, R. Introduction to numerical analysis. Springer, 1980
16