Précis d`analyse numérique
Transcription
Précis d`analyse numérique
Maı̂trise de Mathématiques Aide-mémoire Analyse Numérique J-L.Maltret Octobre 2001 http://lumimath.univ-mrs.fr/~jlm/cours/analnum 1 Equations à une variable 1.1 Méthode du point fixe On résoud x = f (x) en définissant par récurrence xn+1 = f (xn ) . La suite est convergente si f est contractante : |f (x)−f (y)| ≤ k|x−y| avec k < 1 ; cette condition est vérifiée si |f 0 | < 1 et en particulier si |f 0 (y)| < 1 pour la solution y = f (y) . Si x0 est suffisamment proche de y on a |xn+1 − y| < k|xn − y| ; la meilleure convergence est obtenue si f 0 (y) = 0 . On peut essayer de se ramener à ce cas par un procedé d’accélération de convergence : on remplace la résolution de x = x + (f (x) − x) par celle de 1 . x = ϕ(x) = x + α(f (x) − x) et on choisit α pour que ϕ0 (y) = 0, c’est-à-dire α = 1 − f 0 (y) En pratique on se contente d’une estimation de f 0 pour déterminer la valeur optimale f (xn ) − xn de α, par exemple . xn − xn−1 1.2 Méthode de Newton f (xn ) . f 0 (xn ) xn → y tel que f (y) = 0 si x0 est suffisamment proche de y. On a alors convergence quadratique : |xn+1 − y| < k|xn − y|2 . On peut avoir divergence, cyclage ou attraction de racines parasites . On résoud f (x) = 0 en formant la suite xn+1 = xn − 1.3 Cas des polynômes : méthode de Bernoulli Soit un polynôme P de degré d : P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad On suppose qu’il admet des racines réelles r1 , . . . , rd , de modules distincts, ordonnées par modules décroissants : |r1 | > |r2 | > · · · |rd | On considère les suites définies par des termes initiaux u1 , . . . , ud et par la relation de récurrence (R) uk = −a1 uk−1 − a2 uk−2 − · · · − ad uk−d 1 On prend le cas particulier où uk = rk : r est alors nécessairement une racine de P . On note b(i) la suite dont le terme général est rik . Les b(i) , 1 ≤ i ≤ d forment une base de l’espace des suites qui satisfont (R) . Si uk satisfait (R) on écrit donc : uk = c1 r1k + c2 r2k + · · · + cd rdk Quand k → ∞ on a alors gk = uk+1 → r1 et uk gk+1 − r1 r2 → gk − r1 r1 D’où l’algorithme : tant que degré P positif calculer r limite de la suite gk diviser P par x-r 1.4 Méthode de Maehly Soit un polynôme P de degré d : P = xd + a1 xd−1 + . . . + ad−1 x + ad On calcule ses racines par la méthode de Newton : x0 donné on forme xk+1 = xk − P (xk ) P 0 (xk ) Soit r1 la première racine trouvée et P1 (x) = P10 (x) = P (x) , x−r1 on a P 0 (x) P (x) − x − r1 (x − r1 )2 La méthode de newton appliquée à P1 donne la relation de récurrence : xk+1 = xk − P (xk ) P 0 (xk ) − P (xk ) xk −r1 Si on a déjà trouvé j racines réelles de P : r1 , . . . , rj , et si on note Pj (x) = alors Pj0 (x) P (x) (x − r1 ) . . . (x − rj ) j X P 0 (x) P (x) 1 − = (x − r1 ) . . . (x − rj ) (x − r1 ) . . . (x − rj ) i=1 x − ri et la méthode de Newton appliquée à Pj donne la relation de récurrence : xk+1 = xk − P (xk ) P P 0 (xk ) − P (xk ) ji=1 2 1 x−ri 2 Systèmes linéaires 2.1 2.1.1 Méthodes directes Gauss Soit une matrice A de dimension n × n, x, b ∈ Rn Soit A(1) = A, on définit par récurrence A(k+1) à partir de A(k) en faisant des combinaisons de lignes : (k) aik `i ← `i − (k) `k i > k akk On obtient ainsi des 0 au-dessous de la diagonale dans la colonne k, à condition que (k) akk 6= 0. A l’étape n on a un système triangulaire qu’on résoud par remontée : xn xi x1 1 b ann n = ... = ... = P 1 (− j>i aii aij xj + bi ) P 1 (− j>1 a11 a1j xj + b1 ) La méthode de Gauss équivaut à écrire la décomposition A = LU où L est triangulaire inférieure avec des coefficients diagonaux égaux à 1 et U est triangulaire supérieure avec des coefficients diagonaux 6= 0 . Stratégie de pivot : à chaque étape on effectue un échange de lignes pour avoir le coefficient diagonal le plus grand en module . 2.1.2 Cholesky A symétrique définie positive il existe L triangulaire inférieure inversible telle que A = LLt . On détermine L colonne par colonne en commençant par l’élément diagonal : 2 akk = lkk + k−1 X 2 lki d0 où lkk i=1 i>k aik = lik lkk + k−1 X v u k−1 u X 2 = takk − lki i=1 lij lkj j=1 On résoud alors 2 systèmes triangulaires : Lz = b puis Lt x = z . 2.1.3 k−1 X 1 d0 où lik = aik − lij lkj lkk j=1 Householder On note u ∈ Rn sous forme de vecteur-colonne . On définit une matrice de Householder par H(u) = I − H(u) est symétrique et orthogonale . 3 2 uut ut u Si a et b sont 2 vecteurs non nuls et non colinéaires v = a± kak b est tel que H(v)a = αb kbk où α est un coefficient réel . Soit une matrice A de dimension n × n : Il existe une matrice de Householder H1 = x 0 H(u1 ) telle que A1 = H1 A ait sa première colonne de la forme .. . . 0 Par récurrence il existe n − 1 matrices Hi de la forme 1 0 ... .. . 0 .. . 1 H(ui ) (H(ui ) de dimension n+1−i) et telles que Hn−1 . . . H2 H1 A soit triangulaire supérieure. On a l’algorithme de résolution du système linéaire Ax = b : pour i de 1 à n-1 construction matrice Hi multiplication de A et b par Hi résolution du système triangulaire 2.2 2.2.1 Méthodes itératives Convergence On écrit A, matrice n × n inversible, sous la forme A = M − N avec M inversible . On forme la suite récurrente définie par : M xk+1 = N xk + b Si cette suite converge vers x alors M x = N x + b, x est solution du système Ax = b . xk → x ssi toutes les valeurs propres de M −1 N sont de module < 1 . 2.2.2 Jacobi Si aii 6= 0 , 1 ≤ i ≤ n, on écrit A sous la forme : A = D + L + U , où D est diagonale , L est triangulaire inférieure (lij = aij si i > j , lij = 0 si i ≤ j) , U est triangulaire supérieure (uij = aij si i < j , uij = 0 si i ≥ j) . On considère un vecteur x(0) et la suite donnée par Dx(k+1) = −(L + U )x(k) + b La suite z (k) = x(k) − x satisfait z (k+1) = Jz (k) . La condition de convergence est vérifiée si A satisfait X (C) 1 ≤ i ≤ n |aii | > |aij | i6=j (matrice à diagonale dominante) 4 Implémentation de la récurrence : (k+1) x1 = ... = ... = (k+1) xi 2.2.3 x(k+1) n 1 a11 1 aii − P − P 1 ann (k) j>1 (k) j<i − a1j xj + b1 aij xj − (k) P (k) P j<n aij xj + bi j>i anj xj + bn Gauss-Seidel On considère la suite donnée par (D + L)y (k+1) = −U y (k) + b w(k) = y (k) − x satisfait une relation w(k+1) = Gw(k) . y (k) → x quand k → ∞ sous la même condition (C) . On obtient pour la récurrence : (k+1) y1 = ... = ... = (k+1) yi 2.2.4 yn(k+1) 1 a11 1 aii 1 ann (k) − P a1j yj + b1 − P (k+1) j>1 − j<i aij yj − (k+1) P j<n anj yj (k) P j>i aij yj + bi + bn Relaxation On se donne ω ∈R et la suite 1 ω−1 D + L z (k+1) = − D + U z (k) + b ω ω La récurrence devient : (k+1) z1 (k+1) zi zn(k+1) = ... = ... = ω a11 ω aii ω ann (k) − ω−1 a11 z1 − ω − (k+1) P − j<i aij zj P (k) P j>1 − (k+1) j<n anj zj a1j zj + b1 (k) ω−1 aii zi ω − − ω−1 ann zn(k) ω (k) P j>i aij zj + bi + bn Pour A symétrique définie positive, on a convergence ssi 0 < ω < 2 De plus si A est tridiagonale par blocs il existe un ω0 optimal (assurant la meilleure vitesse de convergence) : 2 q ω0 = 1 + 1 − ρ[D−1 (L + U )] 5 2.2.5 Méthodes de gradient A symétrique définie positive, valeurs propres λ1 > . . . > λn , b vecteur donné. On pose J(x) = 12 (x|Ax) − (b|x), on a G(x) = Ax − b gradient de J(x) . Ax = b ⇔ J minimum en x Pour x(0) fixé on construit une suite de vecteurs x(k) par récurrence : x(k+1) = x(k) − ρk G(x(k) ) G(x(k) ) est la direction de descente, ρk est le pas . – pas fixe : on choisit ρk = ρ ∀k On a convergence si 0 < ρ < 2 λ1 et convergence optimale pour ρ0 = 2 λ1 +λn – pas optimal : Soit f (ρ) = J(x(k) − ρG(x(k) ), on choisit ρk tel que f (ρk ) = inf ρ f (ρ) . On a alors ρk = 3 (G(x(k) )|G(x(k) )) (G(x(k) )|AG(x(k) )) et (G(x(k+1) )|G(x(k) )) = 0. Systèmes non linéaires 3.1 Point fixe Soit F une contraction stricte sur un espace métrique complet : d(F (x), F (y)) ≤ kd(x, y) k < 1 alors la suite définie par x0 et xn+1 = F (xn ) converge vers une solution x telle que x = F (x) 3.2 Newton-Raphson F : D → D et y ∈ D tel que F (y) = 0 Si F est différentiable et telle que : kF 0 (x)−1 kbornée dans D kF (z) − F (x) − F 0 (x)(z − x)k ≤ kkz − xk2 z, x ∈ D La suite définie par x0 et xn+1 = xn − F 0 (xn )−1 F (xn ) converge vers y si x0 est suffisamment proche de cette solution . De plus kxn − yk ≤ c2 n −1 6 kx0 − yk2 n 3.3 Racines de polynômes : méthode de Bairstow P polynôme de degré d > 2 : P (x) = xd + a1 xd−1 + . . . + ad−1 x + ad On considère sa division par le polynôme du second degré x2 + bx + c : P (x) = (x2 + bx + c)Q(x) + rx + s On cherche à déterminer b et c pour que r(b, c) = s(b, c) = 0 . Pour ceci on calcule b et c par la méthode de Newton-Raphson : à partir d’une estimation de b et c on cherche ∆b et ∆c tels que r(b + ∆b, c + ∆c) = s(b + ∆b, c + ∆c) = 0 soit au premier ordre : r(b, c) + ∂r ∂r ∆b + ∆c = 0 ∂b ∂c ∂s ∂s ∆b + ∆c = 0 ∂b ∂c on calcule ∆b et ∆c en résolvant ce système de 2 équations puis on remplace b par b + ∆b et c par c + ∆c ; la suite des estimations obtenues converge . En dérivant la relation entre P et Q par rapport à b et c on calcule les dérivées partielles ∂r ∂r , , ∂s , ∂s , qui s’obtiennent par division de Q(x) et de xQ(x) par x2 + bx + c . ∂b ∂c ∂b ∂c On a l’algorithme : s(b, c) + répéter initialisation de b et c répeter calcul de Q par division de P calcul des dérivées partielles par division de Q et xQ résolution du système correction de b et c jusqu’à test d’arr^ et résolution équation du second degré division de P jusqu’à degré 2 4 Valeurs propres 4.1 Cas symétrique : méthode de Jacobi Si M est une matrice 2 × 2 symétrique et Rθ une matrice de rotation M= α β β γ ! Rθ = 7 cosθ −sinθ sinθ cosθ ! on peut choisir θ pour que Rθ M Rθt soit diagonale. Si on note ! α0 β 0 0 M = = Rθ M Rθt β0 γ0 alors α0 2 + 2β 0 2 + γ 0 2 = α2 + 2β 2 + γ 2 . d’où α0 2 + γ 0 2 ≥ α2 + γ 2 dans le cas où β 0 = 0 . Si A est une matrice symétrique n × n on note Uθpq la matrice définie par uii = 1 si i 6= p, q upp = uqq = cos θ upq = sin θ uqp = − sin θ uij = 0 dans les autres cas On pose A0 = Uθpq AUθpq t n X i=1 2 a0ii ≥ . et on choisit θ pour que a0pq = 0 . On a alors n X i=1 a2ii X 2 a0ij = i,j X a2ij i,j X 2 a0ij ≤ i6=j X a2ij i6=j En répetant cette transformation pour tous les indices (p, q) la somme des carrés des coefficients non diagonaux tend vers 0, i.e. la matrice transformée tend vers une matrice diagonale. Pour cela on peut choisir p et q tels que |apq | = maxi<j |aij | . On en déduit l’algorithme : répéter choisir p et q calculer cosθ et sinθ calculer A0 P jusqu’à ni6=j a0ij 2 ≤ ε 4.2 Cas symétrique : méthode de Givens Réduction : A ∈ Mn (R), symétrique, ∃P orthogonale, produit de n − 2 matrices de Householder, telle que P t AP soit tridiagonale . Bissection : la suite des polynômes pi associés à une matrice tridiagonale a des racines emboitées ; le nombre de racines de pi qui sont < a est le nombre de changements de signe dans la suite : (1, p1 (a), p2 (a), . . . , pi (a)) 4.3 Cas général : méthode de la puissance A diagonalisable, λ1 valeur propre de plus grand module , u0 donné on forme wk+1 = Auk et uk+1 = wk+1 kwk+1 k 1 |v1 ) Alors uk → v1 , vecteur propre associé à λ1 et λ1 = (Av . (v1 |v1 ) n t Déflation : soit w ∈R tel que w v1 = 1, alors A − λ1 v1 wt a les mêmes valeurs propres que A, sauf λ1 qui est remplaçée par 0 . 8 4.4 Cas général : méthode QR Décomposition QR : A ∈ Mn (R), ∃Q orthogonale et R triangulaire supérieure telles que A = QR ; si on impose rii > 0 cette décomposition est unique . Convergence méthode QR : on forme A1 = A puis par récurrence Ak = Qk Rk et on définit Ak+1 = Rk+1 Qk+1 Si les valeurs propres de A sont toutes de modules différents alors lim (Ak )ii = λi k→+∞ 4.5 Calcul de vecteurs propres : méthode de la puissance inverse A diagonalisable, λ valeur propre de A, on choisit µ 6= λ tel que l’intervalle (µ, λ) ne contienne aucune autre valeur propre de A Pour u0 donné on définit la suite (uk ) par (A − µI)uk+1 = uk Alors uk → vλ vecteur propre associé à λ . kuk k 5 Interpolation 5.1 Interpolation polynômiale de Lagrange Soient des réels distincts : x0 < x1 < . . . < xn et αi ∈ R, 0 ≤ i ≤ n . Il existe un polynôme P unique de degré ≤ n tel que P (xi ) = αi 0 ≤ i ≤ n. P P = i=n i=0 αi Li où les Li sont les polynômes satisfaisant Li (xj ) = δij : Li (x) = j=n Y j=0j6=i x − xj xi − xj ! Pour f ∈ C n+1 ([a, b]) on note Lf le polynôme de degré ≤ n tel que 0≤i≤n Lf (xi ) = f (xi ) Méthode de Newton On forme les différences divisées de f : δ[y] = f (y) δ[y1 , y2 ] = δ[y1 , . . . , yk ] = f (y1 ) − f (y2 ) ,... y1 − y2 δ[y1 , . . . , yk−1 ] − δ[y2 , . . . , yk ] y1 − yk On a alors δ[y1 , . . . , yk ] = i=k X i=1 9 Q f (yi ) j6=i (yi − yj ) Lf (x) = k=n−1 X δ[x0 , . . . , xk ] j=k−1 Y (x − xj ) j=0 k=0 Approximation de f ∀x ∈ [a, b] ∃c ∈]a, b[ tel que i=n Y 1 (x − xi )f (n+1) (c) (n + 1)! i=0 f (x) − Lf (x) = Soit a > 0 et f : [−a, a] 7→ R définie par f (x) = Soit h > 0 et 0 < α < a . On définit 1 1 + x2 1 {xi ; i = 0, . . . , n} = {x ∈ [0, a]; x = α + (k + )h, k ∈ Z} 2 Le polynôme P satisfaisant P (xi ) = f (xi ) et P (−xi ) = f (−xi ), 0 ≤ i ≤ n est pair et de degré ≤ 2n . Quand h → 0 on a |f (α) − P (α)| → 0 si 0 < α < b et |f (α) − P (α)| → ∞ si b < α < a 5.2 Interpolation d’Hermite k Soient xi ∈ R, x0 < x1 < . . . < xq , ni ∈ N ∗ , n = i=q i=0 ni − 1 et yi ∈ R, 0 ≤ k ≤ ni − 1 Il existe un polynôme P unique de degré ≤ n tel que P (k) (xi ) = yik 0 ≤ i ≤ q, 0 ≤ k ≤ ni − 1 . Soient les polynômes h définis par P Y (x − xi )k j=q x − xj hik (x) = k! j=0j6=i xi − xj !nj 0 ≤ k ≤ ni − 1 On définit les polynômes H par les relations : Hi,ni −1 (x) = hi,ni −1 (x) Hik (x) = hik (x) − p=n i −1 X (p) hik (xi )Hip (x) k < ni − 1 p=k+1 On a alors (l) Hik (xj ) = δij δkl d’où P = i=n i −1 X k=n X i=0 yik Hik k=0 Cas particulier : ∀i ni = 2 i.e. on impose les valeurs P (xi ) = yi0 et P 0 (xi ) = yi1 On pose Qi (x) = k=q Y (x − xk )2 k=0,k6=i On a alors P (x) = q X Qi (x) i=0 Qi (xi ) " Q0 (xi ) 0 1 − (x − xi ) i y + (x − xi )yi1 Qi (xi ) i ! 10 # (k) Pour f ∈ C n+1 ([a, b]) on note Pf le polynôme de degré ≤ n tel que Pf (xi ) = f (k) (xi ) 0 ≤ i ≤ q, 0 ≤ k ≤ ni − 1 . Alors ∀x ∈ [a, b] ∃ξ ∈]a, b[ tel que f (x) − Pf (x) = i=q Y 1 (x − xi )ni f (n+1) (ξ) (n + 1)! i=0 Cas particulier : q = 1, n0 = n1 = m + 1, n = 2m + 1 . On suppose u ∈ C 2m+2 ([x0 , x1 ]) et P (k) (xi ) = u(k) (xi ) i = 0, 1 0 ≤ k ≤ m . On a alors sup |u(k) (x) − P (k) (x)| ≤ ck (x1 − x0 )2m+2−k sup |u2m+2 (x)| x0 ≤x≤x1 5.3 x0 ≤x≤x1 Interpolation par splines cubiques Soient des réels distincts : x0 < x1 < . . . < xn < xn+1 On pose hi = xi+1 − xi et on définit sur [xi , xi+1 ] : P (xi ) = ai (x − xi )3 + bi (x − xi )2 + ci (x − xi ) + di Pour avoir continuité, dérivabilité et dérivabilité seconde de P aux points xi 1 ≤ i ≤ n les bi doivent satisfaire un système linéaire ne dépendant que des di et hi dont on note A la matrice . 4 1 0 ... .. . 4 1 1 . . . . . . . . . A = 0 .. . . . . 1 4 1 1 4 4 2 Pour f ∈ C ([x0 , xn+1 ]) il existe g ∈ C ([x0 , xn+1 ]), unique, telle que – g|[xj ,xj+1 ] est un polynôme de degré 3 pour 0 ≤ j ≤ n – g(xj ) = f (xj ) 0 ≤ j ≤ n + 1 – g 00 (0) = g 00 (1) = 0 On pose h = 1 , n+1 I = [0, 1], xi = ih . Soit f ∈ C 4 (I) et g la fonction associée . sup |f (k) (x) − g (k) (x)| ≤ Ck h4−k k = 0, 1, 2, 3 0≤x≤1 ( C0 , C1 , C2 , C3 constantes indépendantes de h ) On a Z 1 Z 1 Z 1 |f 00 (x)|2 dx = |f 00 (x) − g 00 (x)|2 dx + |g 00 (x)|2 dx 0 0 0 Soit ϕ ∈ C (I) telle que ϕ(xj ) = f (xj ), 0 ≤ j ≤ n + 1 , ϕ00 (0) = ϕ00 (1) = 0 . Alors 2 Z 0 1 |g 00 (x)|2 dx ≤ Z 1 0 |ϕ00 (x)|2 dx Soit ψ ∈ C 2 (I) polynômiale de degré 3 sur [xj , xj+1 ] pour 0 ≤ j ≤ n et telle que ψ 00 (0) = ψ 00 (1) = 0 . Z 0 1 |f 00 (x) − g 00 (x)|2 dx ≤ Z 0 1 |f 00 (x) − ψ 00 (x)|2 dx Les conditions g 00 (0) = g 00 (1) = 0 peuvent être remplaçées par g 0 (0) = f 0 (0) et g 0 (1) = f 0 (1) 11 6 Approximation 6.1 Moindres carrés A matrice m × n, m > n et rang(A)=n . Le système linéaire Ax = b peut-être résolu P aux moindres carrés : ∃x0 unique tel que kAx0 − bk2 = j ((Ax0 )j − bj )2 soit minimum. x0 est solution de At Ax = At b (équations normales du système) . Moindres carrés pondérés : pour des coefficients wj > 0 on cherche le minimum de X wj ((Ax0 )j − bj )2 j 6.2 Approximation des fonctions f continue sur [a, b], x1 , . . . , xm dans [a, b] , ϕ1 , . . . , ϕn fonctions fixées . On cherche à P approcher f par i αi ϕi . On résoud aux moindres carrés le système : X αi ϕi (xj ) = f (xj ) j = 1 . . . m i A = (ϕi (xj ))1≤i≤n,1≤j≤m Le système des équations normales est N α = c où Nij = X ϕi (xk )ϕj (xk ) ci = k X ϕi (xk )f (xk ) k N est symétrique, définie positive si les ϕi et les xj satisfont une condition d’indépendance Approximation polynômiale : ϕi (x) = xi et les xj tous distincts . 6.3 6.3.1 Polynômes Orthogonaux Notations – w(x) ≥ 0 sur [a, b], (f, g)w = Rb a f (x)g(x)w(x)dx est un produit scalaire – L2w [a, b] est l’espace de Hilbert des fonctions de carré sommable sur [a, b] pour w(x) 2 – kf kw = (f, f )1/2 w est la norme de Lw [a, b] – kf k[a,b] = supx∈[a,b] |f (x)| est la norme de la convergence uniforme sur [a, b] – un polynôme dont le coefficient du terme de plus haut degré est égal à 1 est dit unitaire 6.3.2 Définitions Il existe une suite unique de polynômes pn tels que : – 1) le degré de pn est exactement n et le coefficient de xn est positif – 2) les pn sont orthonormés dans L2w [a, b] , 12 Rb a pn (x)pm (x)w(x)dx = δnm Exemples classiques – Polynômes de Jacobi Pn(α,β) a = −1 b = 1 w(x) = (1 − x)α (1 + x)β α > −1 β > −1 En particulier : – Polynômes de Gegenbauer Gαn pour α = β – Polynômes de Tchebycheff de 1ere espece Tn pour α = β = −1/2 – Polynômes de Tchebycheff de 2eme espece Un pour α = β = 1/2 – Polynômes de Legendre Pn pour α = β = 0 – Polynômes de Laguerre L(α) a = 0 b = +∞ w(x) = xα e−x α > −1 n – Polynômes d’Hermite Hn a = −∞ b = +∞ w(x) = e−x 6.3.3 2 Propriétés algébriques – Récurrence : les polynômes pn orthogonaux sur [a, b] pour w(x) satisfont une relation de récurrence de la forme pn (x) = (An x + Bn )pn−1 (x) − Cn pn−2 (x) où An > 0 et Cn > 0 – Formule de Christoffel : on a l’identité Kn (x, y) = i=n X pi (x)pi (y) = i=0 kn pn+1 (x)pn (y) − pn (x)pn+1 (y) kn+1 x−y où kn est le coefficient du terme de plus haut degré de pn – Matrices tridiagonales : soient les matrices b1 c 2 c 2 b2 c 3 0 c3 b3 c4 Jn = .. .. .. . . . 0 c n bn n≥1 les polynômes caractéristiques des matrices Jn satisfont la relation de récurrence Pn (x) = (−x + bn )Pn−1 (x) − c2n Pn−2 (x) 6.3.4 Propriétés extrémales – Approximation hilbertienne : f ∈ L2w [a, b] le polynôme P de degré n qui realise le P minimum de kf − P kw est i=n i=0 fi pi où fi = (f, pi )w – P (x) polynôme unitaire de degré n, le minimum de kP kw est atteint pour cPn . 13 – x0 ∈ C, P (x) polynôme de degré n tel que kP kw = 1 le maximum de |P (x0 )| est atteint pour P (x) = εKn (x0 , x0 )−1/2 Kn (x0 , x) ε = ±1 – Propriété d’alternance : Q ∈ Pn réalise l’approximation uniforme de f ( kf − Qk[a,b] minimale ) ssi il existe n+2 points xi dans l’intervalle [a, b] tels que (f − Q)(xi ) = (−1)i kf − Qk[a,b] – Approximation uniforme : f continue sur [a, b] il existe un polynôme Q unique de degré n tel que kf − Qk[a,b] = inf kf − P k[a,b] P ∈Pn – Tn satisfait Tn n−1 2 6.3.5 [−1,1] = inf kP k[−1,1] P ∈Qn Propriétés différentielles – Les polynômes orthogonaux classiques satisfont une equation différentielle du second ordre – Jacobi : (1 − x)y 00 + [β − α − (α + β + 2x]y 0 + n(n + α + β + 1)y = 0 – Laguerre : xy 00 + [α + 1 − x]y0 + ny = 0 – Hermite : y 00 − 2xy 0 + 2ny = 0 – Fonctions propres : en mettant les equations différentielles sous la forme ay 00 + by 0 + cy = 0 les polynômes orthogonaux apparaissent comme vecteurs propres d’un operateur différentiel D(y) = ay 00 + by 0 – Formules de Rodrigues : On a les representations Pn(α,β) (x) = (1 − x)−α (1 + x)−β cn dn n+α n+β (1 − x) (1 + x) dxn dn −x n+α e x dxn dn 2 2 Hn (x) = ex (−1)n n e−x dx Lαn (x) = x−α ex cn 6.3.6 Racines – Les racines des pn orthogonaux dans L2w [a, b] sont réelles , simples et dans [a, b] – Entre deux racines de pn il existe une racine de pn+1 – pn (µ) 6= 0, le nombre de racines de pn supérieures à µ est égal au nombre de changements de signe dans la suite p0 (µ), p1 (µ), . . . , pn (µ) 14 6.3.7 Intégration – Condition de Haar : ti 1 ≤ i ≤ n réels distincts, la matrice p0 (t1 ) .. . ... p0 (tn ) .. . pn−1 (t1 ) . . . pn−1 (tn ) est non singulière – Formule de Gauss : Soient x1 < x2 < · · · < xn les zéros de pn , il existe n réels R P λ1 , λ2 , . . . , λn tels que ab p(x)w(x)dx = i=n i=1 λi p(xi ) pour tout polynôme p de degré Pj=n 2 2n − 1 et on a 1/λi = j=0 (pj (xi ) ) = Kn (xi , xi ) 6.3.8 Fonction génératrice – Les polynômes orthogonaux classiques peuvent être obtenus comme coefficients d’un développement en série entière d’une fonction génératrice : – Legendre : P∞ – Laguerre : P∞ – Hermite : 6.3.9 n=0 Pn (x)z n = (1 − 2xz + z 2 )−1/2 n α n=0 Ln (x)z P∞ n=0 −α−1 = (1 − z) xz exp − 1−z Hn (x) n 2 n! z = exp(2xz − z ) Polynômes trigonométriques – Les polynômes complexes z n sont orthogonaux pour le produit scalaire (p, q) = Z π p(z)q(z)dz z = eiθ −π – g(θ) polynôme trigonométrique de degré n , g(θ) = a0 + aj , bj ∈ R Pj=n j=1 aj cos(θ) + bj sin(θ), – g(θ) est non-négatif pour tout θ ssi il existe p(z) polynôme de degré n tel que g(θ) = |p(z)|2 pour z = eiθ – en multipliant p(z) par des expressions de la forme (1 − ᾱz)/(z − α) on peut obtenir un polynome sans zéros de module < 1 . π – Pour le produit scalaire (p, q)f = −π p(z)q(z)f (z)dz où f (z) ≥ 0 on peut définir des polynômes orthogonaux en z avec des propriétés algébriques analogues à celles du cas réel . R 15 Références [1] Bakhvalov, N. Méthodes numériques. Mir 1976 [2] Ciarlet, P. Introduction à l’analyse numérique. 2ème Ed. Masson, 1995 [3] Chatelin, F. Valeurs propres de matrices. Masson, 1988 [4] Demailly, J-P. Analyse numérique et équations différentielles Presses Universitaires de Grenoble, 1991 [5] Euvrard, D. Résolution numérique des équations aux dérivées partielles Masson, 1988 [6] Golub, G. VanLoan, C. Matrix Computations. 2nd Ed. John Hopkins, 1989 [7] Guilpin, C. Calcul numérique appliqué EDP Sciences, 1999 [8] Lascaux, P. Theodor, R. Analyse numérique matricielle appliquée à l’art de l’ingénieur Masson, 1986 [9] Rombaldi, J-E. Problèmes d’Analyse numérique Masson, 1996 [10] Schatzman, M. Analyse numérique : cours et exercices InterEditions, 1991 [11] Sibony, M. Mardon, J-C. Analyse numérique I-II-III. Hermann, 1982-1988 [12] Stoer, J. Bulirsch, R. Introduction to numerical analysis. Springer, 1980 16