INTRODUCTION AU CALCUL TENSORIEL
Transcription
INTRODUCTION AU CALCUL TENSORIEL
Licence de Mécanique Bases de la Mécanique des Milieux Continus A.U. 2004-2005 INTRODUCTION AU CALCUL TENSORIEL P. Vannucci LEMA – Laboratoire d'Etudes Mécaniques des Assemblages UVSQ – Bâtiment Descartes RC27 – 45, Avenue des Etats-Unis. 78035 Versailles [email protected] ________________________________________________________________________________ Chapitre 1 ELEMENTS D’ALGEBRE TENSORIELLE 1.1 ESPACE EUCLIDIEN Les événements de la mécanique classique se placent dans l'espace euclidien à trois dimensions, que nous définissons ainsi: on dit que E est un espace euclidien tridimensionnel s’il existe un espace vectoriel V, qui lui est associé, de dimension trois, dans lequel il est défini un produit scalaire, et tel que: • les éléments v de V, qui sont des vecteurs, sont des transformations de E en lui-même: v ∈ V, v : E → E ; • la somme de deux éléments de V est définie comme (u + v)( p ) = u( v( p)) ∀ u, v ∈ V et ∀ p ∈ E ; • ∀ p et q ∈ E , ∃! v ∈ V : q = v(p). Pour mieux comprendre tout cela, il faut d’abord introduire deux concepts assez importants. 1.2 POINTS ET VECTEURS Nous choisissons une fois pour toutes un espace euclidien E; ses éléments sont appelés points. E doit être identifié avec l'espace ordinaire où nous vivons. L'espace vectoriel V sera appelé espace des translations de E et les éléments de V seront appelés translations. Analysons donc les propriétés énoncées ci-dessus; on commence avec la dernière. Ecrire q = v(p) signifie que v est une transformation de E en lui-même, c’est à dire, on part d’un point de E pour arriver encore en un point de E, et que cette transformation est intégralement déterminée par la valeur prise sur un point de E. Graphiquement: q q’ v v p p’ Figure 1.1 Remarque: le même vecteur peut opérer différentes transformations, en fonction du point d’application: q = v(p), mais aussi q’= v(p’). Nous utiliserons, à la place de l'écriture q = v(p), une écriture qui a un sens géométrique plus direct: q= p + v. Elle définit la somme d’un point et d’un vecteur comme un point. De la relation ci-dessus on tire aussi la définition d’un vecteur de V comme la différence de deux points de E: -1- Chapitre 1 v= q − p. La somme de deux points, ainsi que la différence d’un point avec un vecteur, ne sont pas définies. On revient maintenant à la deuxième propriété: (u + v)( p) = u( v ( p)) ∀ u, v ∈ V et ∀ p ∈ E . Soit q = v(p), ou q= p + v, et soit r= u(q), ou r= q + u. Alors, r= p + v + u = p + w, où w est le vecteur formé par la somme de u et de v. Graphiquement tout cela correspond à la fameuse règle du parallélogramme: q u v r w p v u Figure 1.2 Remarque: par les propriétés générales d’un espace vectoriel, ou plus simplement géométriquement, à l'aide de la figure ci-dessus, on a: v + u = u + v. En particulier, faire u + v équivaut à faire le chemin pointillé indiqué sur la figure 1.2. Le vecteur nul o est défini comme la différence de deux points coïncidents. Le vecteur nul est unique, et il est le seul vecteur tel que v + o= v ∀ v ∈ V. Ces deux propriétés du vecteur nul sont très facilement démontrables avec la propriété que l’on a expliquée ci-dessus. Un vecteur w tel que n w = ∑ ki u i , i =1 ki ∈ R, i = 1, 2,..., n , est dit être une combinaison linéaire des n vecteurs ui, où les scalaires ki sont les coefficients de la combinaison. Si, pour un w et pour les n ui donnés il n’existe aucun ensemble de ki tel que la relation ci-dessus soit satisfaite, alors les n+1 vecteurs w et ui sont dits linéairement indépendants ; cela signifie qu’il n’est pas possible d’exprimer w comme somme des ui, où, ce qui est la même chose, que la combinaison linéaire des n+1 vecteurs w et ui peut avoir comme résultat le vecteur nul si et seulement si tous les coefficients de la combinaison sont des zéros. Dans le cas contraire les n+1 vecteurs sont dits linéairement dépendants. La somme de vecteurs ci-dessus peut être écrite en forme abrégée comme w = ki u i , ki ∈ R, i = 1, 2,..., n ; cette notation est dite aussi somme d’Einstein : dans une somme d’Einstein il faut additionner par rapport à l’indice saturé, dit aussi indice muet, qui est l’indice répété dans l’expression. L’utilisation de la somme d’Einstein permet d’alléger la notation et de la rendre plus compréhensible. -2- Chapitre 1 1.3 PRODUIT SCALAIRE, DISTANCE, ORTHOGONALITE Un produit scalaire est une forme bilinéaire symétrique définie positive. Cette définition doit être bien comprise, parce qu’elle définit les propriétés, simples et de très grande importance, du produit scalaire. D’abord, on dit que le produit scalaire est une forme: en mathématique une forme ω est une application qui opère sur les éléments d’un espace vectoriel, donc sur des vecteurs, pour donner comme résultat un scalaire. Une forme est bilinéaire si elle opère sur deux vecteurs et si elle est linéaire par rapport à chaque vecteur. Donc le produit scalaire est une forme ω du type ω:V×V→R qu’on indiquera ω (u,v) = u ⋅ v ∀u, v ∈ V . Les propriétés de bilinéarité sont évidemment les suivantes : u·(v+w)= u·v+ u·w ∀ u, v ∈ V, (u+v)·w= u·w+ v·w ∀ u, v ∈ V, u·(k v)= (k u)·v= k u·v ∀ u, v ∈ V et ∀ k ∈ R. Une forme est symétrique si elle commute par rapport aux deux éléments sur lesquels elle opère, c’est à dire si u·v= v·u ∀ u, v ∈ V. Finalement, une forme est définie positive si le scalaire résultant de l’application sur le même vecteur deux fois est toujours positif pour n'importe quel vecteur, sauf pour le vecteur nul, où le résultat est zéro: u·u> 0 ∀ u ∈ V, u·u=0 ⇔ u= o. Les propriétés listées ci-dessus sont les propriétés essentielles d’un produit scalaire en mécanique classique; cela signifie que toute forme doit avoir ces propriétés pour être un produit scalaire et que toute forme qui a ces propriétés est un produit scalaire. Deux vecteurs u et v sont orthogonaux si et seulement si u·v= 0. On prouve facilement que le vecteur nul est orthogonal à tout vecteur. On sait de l'algèbre que l’on peut définir plusieurs normes pour un vecteur, et que dans un espace à dimension finie elles sont toutes équivalentes. Nous prendrons comme norme d’un vecteur u, notée |u| ou tout simplement u (lettre non en gras), sa norme euclidienne, définie comme: u = u = u⋅u Il faut remarquer qu’une telle opération a toujours un sens grâce à la définition positive du produit scalaire. La norme a certaines propriétés générales: u + v ≤ u + v , inégalité triangulaire ou de Minkowsky; u ⋅ v ≤ u v , inégalité de Schwarz; ku = k u , k ∈ R . La distance entre deux points p et q de E est le scalaire non négatif d(p, q) défini par d(p, q) = |p − q|= |q − p|. -3- Chapitre 1 Par extension, la distance entre deux vecteurs u et v de V est la norme des vecteurs différence: d (u, v ) = u − v = v − u . On appelle sphère unitaire, et on l’indique avec S2, l’ensemble de tous les vecteurs de V dont la norme est égale a 1: S2= {v ∈ V V / v=1}. 1.4 BASE DE V Une base e de V est un ensemble quelconque de trois vecteurs e= {e1, e2, e3} tels que e i ⋅ e j = δ ij ∀ i, j=1, 2, 3 . Ici, δij est le delta de Kronecker: δij= 1 si i= j, autrement δij= 0. Donc, par la définition ci-dessus, une base est composée de trois vecteurs de S2 mutuellement orthogonaux. Une telle base s’appelle base orthonormée. Bien que l’on puisse introduire des bases de V qui ne sont pas orthonormées (on sait de l'algèbre que la seule condition pour avoir une base d’un espace vectoriel n-dimensionnel est d’avoir n vecteurs linéairement indépendants), nous nous bornons à ce type de bases, car elles ont des avantages considérables en terme de simplicité. Tout vecteur de V peut être écrit comme combinaison linéaire des vecteurs de la base choisie: u= ui ei; dans la définition ci dessus on a utilisé la convention d’Einstein; donc l'écriture ci-dessus signifie tout simplement que u= u1 e1+ u2 e2+ u3 e3. Les scalaires ui sont les composantes cartésiennes du vecteur u; ils sont les coefficients de la combinaison linéaire qui exprime u en fonction des vecteurs de la base choisie. 1.5 EXPRESSION DU PRODUIT SCALAIRE Dans une base orthonormée, le produit scalaire a une expression assez simple, qui nous permet de le calculer ; en fait, par les propriétés de linéarité du produit scalaire, il est : u·v= ui ei · vj ej= ui vj δij = ui vi= u1v1+ u2v2+ u3v3. En particulier, il est u ⋅ ei = uk e k ⋅ ei = uk δ ik = ui ∀i = 1, 2, 3, à savoir, les composantes cartésiennes d’un vecteurs par rapport à une base donnée, sont le produit scalaire du vecteur même avec les vecteurs qui composent la base. Géométriquement, ces composantes sont les projections orthogonales du vecteur sur les vecteurs de la base. On peut facilement montrer que le produit scalaire ainsi défini, équivaut exactement à l’opération u·v= u v cos θ, qui défini aussi l’angle θ entre les deux vecteurs. A remarquer que, par l'inégalité de Schwarz, |cos θ|≤ 1, ce qui rend possible la dernière relation écrite ci-dessus. Un repère cartésien est l’ensemble d’une base orthonormée e et d’un point o, dit origine. On définit -4- Chapitre 1 alors coordonnées cartésiennes d’un point p par rapport à un repère donné d’origine o les scalaires xi = ( p − o) ⋅ ei i = 1, 2, 3. 1.6 TENSEURS DU SECOND ORDRE Un tenseur du second ordre L est une transformation linéaire de V en lui-même: L : V → V / L(u+v)= L u+ L v et L(α u)= α L(u), ∀ α ∈ R et ∀ u, v ∈ V. Le concept de tenseur est général, et on peut parler de tenseurs de n'importe quel ordre. Toutefois, on se limitera ici à introduire les tenseurs du second ordre seulement. Si on définit la somme de deux tenseurs comme (A + B)v= A v + B v ∀ v ∈ V, et le produit d'un scalaire par un tenseur comme (α A)v= α (A v) ∀ α ∈ R et ∀ v ∈ V, alors l'ensemble des tenseurs Lin (V ) qui opèrent sur V forme un espace vectoriel, dont l'élément nul est le tenseur, unique, O, dit tenseur nul. Par définition même d’élément nul d’un espace vectoriel, O est tel que O v= o ∀ v ∈ V. Le tenseur identique I est le seul tenseur tel que I v= v ∀ v ∈ V. On laisse au lecteur la démonstration du fait que L o= o ∀ L ∈ Lin(V). 1.7 PRODUIT DYADIQUE Le produit dyadique de deux vecteurs a et b de V est le tenseur, noté a⊗b, défini par (a⊗b)v= b·v a, ∀ v ∈ V. L'application définie ci-dessus est en effet un tenseur du second ordre: en fait, elle opère sur des vecteurs de V pour donner encore des vecteurs de V; de plus il est facilement démontrable qu'elle est linéaire. C'est facile de voir que si a ∈ S2, alors le tenseur a⊗a est le tenseur qui, appliqué à v, en donne la projection sur a, et que le tenseur (I − a⊗a) donne le vecteur perpendiculaire à a. 1.8 COMPOSANTES CARTESIENNES D'UN TENSEUR DU SECOND ORDRE Si e= {e1, e2, e3} est une base de V, on montre alors que e2= {ei⊗ej, i, j= 1, 2, 3} est une base de l'espace vectoriel Lin(V). Elle est composée de neuf tenseurs distincts. Donc chaque tenseur du deuxième ordre peut être écrit comme une combinaison linéaire des éléments de e2 ; les coefficients de cette combinaison linéaire sont les neuf composantes cartésiennes du tenseur. En général, on peut donc poser L= Lij ei⊗ej, i, j= 1, 2, 3, où les neuf quantités Lij, sont les composantes cartésiennes de L dans la base e de V. Par les -5- Chapitre 1 propriétés de linéarité des tenseurs et du produit scalaire, on a Lij= ei · L ej, i, j= 1, 2, 3; en fait: ei ⋅ Le j = ei ⋅ Lhk e h ⊗ e k e j = Lhk ei ⋅ e h ⊗ e k e j = = Lhk ei ⋅ e h e k ⋅ e j = Lhk δ kjδ ih = Lij . Par exemple, pour les composantes d'une dyade on a (a⊗b)ij= ei · (a⊗b) ej= b·ej a·ei= ai bj. Chaque tenseur L peut être représenté dans une base par une matrice 3×3, dont les éléments sont les neuf composantes cartésiennes de L: L11 L = L21 L31 L12 L22 L32 L13 L23 . L33 On peut maintenant spécifier les composantes d'un vecteur résultat de l'application d'un tenseur sur un autre vecteur: Lv = Lij (ei ⊗ e j )(v k e k ) = Lijv k (ei ⊗ e j )e k = Lijv kδ jk ei = Lijv j ei . Cette formule équivaut à l’application d'une matrice 3×3 sur un vecteur colonne 3×1. 1.9 PRODUIT TENSORIEL Pour tout couple de tenseurs A et B ∈ Lin(V), on a (A B) v= A (B v) ∀ v ∈ V. Cette formule définit la composition de deux tenseurs, ou produit tensoriel. On peut facilement montrer que le produit tensoriel a la propriété suivante: [A (L + M)]= A L + A M, ∀ A, L, M ∈ Lin(V). Il faut remarquer que, en général, le produit tensoriel ne commute pas, à savoir: AB ≠ BA . Un problème est le suivant: si L= A B, quelles sont les composantes de L, connaissant celles de A et de B? Le résultat, dont on laisse au lecteur la simple démonstration, est le suivant: Lij= Aik Bkj, c'est tout simplement la règle de multiplication lignes par colonnes de deux matrices carrées. Nous indiquerons avec le symbole U2 le produit tensoriel UU. On laisse au lecteur le soin de vérifier les propriétés suivantes: ∀ a, b, c et d ∈ V, (a⊗b)(c⊗d)= b·c(a⊗d) A (a⊗b)= (A a)⊗b ∀ a, b ∈ V et ∀ A ∈ Lin(V). 1.10 TRANSPOSE D'UN TENSEUR Pour tout tenseur L, il existe un et seulement un tenseur LT, appelé transposé de L, tel que: -6- Chapitre 1 u · L v= LT u · v, ∀ u, v ∈ V. En outre u · L v= LT u · v= v · LT u = (LT)T v · u= u · (LT)T v ⇒ (LT )T = L. Cherchons maintenant les composantes cartésiennes de LT: ( LT ) ij = e i ⋅ LT e j = ( LT ) T e i ⋅ e j = e j ⋅ Le i = L ji ; cette règle nous dit tout simplement que la matrice représentative de LT est la matrice transposée de la matrice représentante L. Un bon exercice est de montrer les propriétés suivantes du tenseur transposé (A et B ∈ Lin(V), a et b ∈ V, α ∈ R): (α A)T= α AT, (a⊗b)T= b⊗a, (A + B)T= AT + BT, (A B)T= BT AT, (a⊗b) A= a⊗(AT b). 1.11 TENSEURS SYMETRIQUES ET ANTISYMETRIQUES Un tenseur L est symétrique si L= LT. Dans ce cas, on a que Lij= (LT)ij et (LT)ij= Lji ⇒ Lij= Lji, ce qui signifie que la matrice représentative du tenseur est, elle aussi, symétrique et qu'un tenseur symétrique n'a que six composantes distinctes. Un tenseur L est antisymétrique (skew en anglais) si L= −LT. Dans ce cas, on a que (LT)ij = −Lij et (LT)ij= Lji ⇒ Lji= −Lij, → Lii= −Lii ⇒ Lii=0 ce qui signifie que la matrice représentative du tenseur est, elle aussi, antisymétrique et qu'un tenseur antisymétrique n'a que trois composantes distinctes, étant nulles les composantes sur la diagonale. Chaque tenseur L peut être décomposé dans la somme de deux tenseurs, L = L1 + L 2 , avec 1 L1 = (L + LT ), 2 1 L 2 = (L − LT ). 2 Il est évident que L1 est symétrique et L2 antisymétrique. Nous indiquerons dans la suite avec Sym(V) l’ensemble de tous les tenseurs symétriques, et avec Skw(V) celui des tenseurs antisymétriques. On peut montrer que la dimension de l’espace Sym(V) est 6 et que celle de l’espace Skw(V) est 3. -7- Chapitre 1 1.12 TRACE D'UN TENSEUR Il existe une et une seule forme linéaire tr : Lin(V) → R, appelée trace, telle que tr (a ⊗ b) = a ⋅ b ∀ a, b ∈ V. La trace est donc un nombre réel "extrait" d'un tenseur; de plus, nous n'avons pas parlé de base lors de sa définition : la trace est donc un invariant tensoriel. Les invariants tensoriels sont des quantités, dépendantes du tenseur, qui ne changent pas si on change la base dans laquelle le tenseur est représenté. Il faut remarquer qu'on a défini la trace comme une forme linéaire; cela signifie que tr ( A + B) = tr A + tr B ∀ A, B ∈ Lin(V ), tr (α A) = α tr A ∀ α ∈ R et ∀ A ∈ Lin(V ). On laisse au lecteur la simple démonstration des propriétés suivantes de la trace: tr L = Lii , tr LT = tr L, tr W = 0 ∀ W ∈ Lin(V ) / W = − W T , tr I = 3, tr O = 0, tr ( AB) = tr (BA ). 1.13 PRODUIT SCALAIRE DE TENSEURS Le produit scalaire entre tenseurs est la forme bilinéaire, symétrique et définie positive suivante: A ⋅ B = tr ( A T B) . Grâce à la définition de trace et à ses propriétés, on peut aisément vérifier que l'opération définie cidessus est effectivement un produit scalaire, c'est-à-dire qu'elle possède les propriétés énoncées: A ⋅ (B + C) = A ⋅ B + A ⋅ C, ∀A, B, C ∈ Lin(V ), α ∈ R , ( A + B) ⋅ C = A ⋅ C + B ⋅ C, (α A ) ⋅ B = A ⋅ (α B) = α ( A ⋅ B), A·B= B·A ∀A, B ∈ Lin(V ) , A·A≥ 0 ∀ A ∈ Lin( V ), A·A= 0 ⇔ A= O . Le lecteur est invité à démontrer les propriétés suivantes (A, B, C, L ∈ Lin(V) ): A⋅B= AijBij , i, j= 1, 2, 3, AT·BT= A⋅B, si A= AT et B= −BT alors A·B= 0, si A= AT alors A·L= A·L1 ∀ L , si A= −AT alors A·L= A·L2 ∀ L , -8- Chapitre 1 tr A= I·A , AB·C= A·CBT= B·ATC , (a⊗b)·(c⊗d)= a·c b·d ∀ a, b, c et d ∈ V. On définit norme euclidienne d’un tenseur L le scalaire positif L = L ⋅ L = tr ( LT L) = Lij Lij . Par analogie avec les points et le vecteurs, on appelle distance d(L, M) entre deux tenseurs L et M la norme des tenseurs différence: d (L, M ) = L − M = M − L . 1.14 DETERMINANT D'UN TENSEUR Il existe une façon intrinsèque, qui ne sera pas introduite ici parce qu’elle nécessite de l'introduction des formes trilinéaires, de définir le déterminant d'un tenseur. Des résultats fondamentaux sont toutefois les suivants: le déterminant d'un tenseur est un invariant du tenseur même, et il coïncide avec le déterminant de la matrice qui représente le tenseur dans une base quelconque. Comme le calcul du déterminant d'une matrice 3×3 est une opération assez simple, le problème de la recherche du déterminant d'un tenseur peut se dire résolu. Pour le déterminant, on a les propriétés suivantes, de simple démonstration: det O= 0, det I= 1, det (α L)= α3 det L ∀ α ∈ R, L ∈ Lin(V), det AT= det A ∀ A ∈ Lin(V), det W= 0 ∀ W ∈ Lin(V) / W= −WT, det (a⊗b)= 0 ∀ a, b ∈ V. Un autre résultat très important, dont la démonstration nécessite encore de l'introduction des formes trilinéaires, est le Théorème de Binet: ∀ A, B ∈ Lin(V), il est det AB= det A det B. 1.15 VALEURS ET VECTEURS PROPRES D'UN TENSEUR S'il existe un nombre λ ∈ R et un vecteur v ∈ V \ {o} tels que Lv=λv alors λ s'appelle valeur propre et v vecteur propre, relatif à λ, de L. En fait, dans le cas d'un vecteur propre, la relation ci-dessus nous dit que le vecteur est transformé par le tenseur en un autre vecteur qui lui est toujours parallèle, avec rapport entre les normes, après et avant transformation, égale à |λ|. Il est évident que si v est vecteur propre de L, alors kv l'est aussi, ∀k ∈ R. En effet, un vecteur propre est déterminé à un facteur près. Une façon conventionnelle de fixer ce facteur, est de le choisir en sorte que la norme du vecteur propre soit 1. -9- Chapitre 1 Les valeurs et vecteurs propres jouent un rôle fondamental dans plusieurs problèmes, et leur recherche est donc une opération très importante. Pour ce faire, on écrit la relation ci-dessus dans la forme équivalente (L−λI) v= o; celui-ci est un système de trois équations scalaires dont les inconnues sont les trois composantes de v. Le système est homogène, et donc la seule solution possible, si la matrice du système n'est pas singulière, est le vecteur nul (solution triviale). Mais si la matrice du système est singulière, c'est-àdire si det (L−λI)= 0 alors d'autres solutions sont possibles. L'équation écrite ci-dessus est une équation algébrique de troisième degré, dite équation de Laplace ou caractéristique. Elle ne possède que trois solutions, toutes réelles ou une réelle et deux complexes conjuguées, qui sont les trois valeurs propres de L. Donc la recherche des valeurs propres d'un tenseur de deuxième ordre passe par la solution de l'équation de Laplace. Pour trouver le vecteur propre correspondant à une valeur propre, il suffit d'injecter dans le système linéaire homogène ci-dessus la valeur propre trouvée à la place de λ. On appelle espace propre de L relatif à λ le sous-espace de V composé par tous les vecteurs v qui satisfont l’équation L v = λ v; on appelle multiplicité de λ la dimension de son espace propre et spectre de L l’ensemble des toutes ses valeurs propres, chacune avec sa multiplicité. Un tenseur a les mêmes valeurs propres de son transposé, mais pas forcement ses mêmes vecteurs propres. En fait : ( ) ( ) det LT − λI = det LT − λI T = det (L − λI ) = det (L − λI ) , T donc l’équation de Laplace est la même pour L et pour LT, ce qui implique que les valeurs propres sont les mêmes ; un exemple quelconque montre que ce n’est pas ainsi pour les vecteurs propres. On peut montrer que det (L − λI ) = −λ3 + I1λ2 − I 2 λ + I 3 , avec I1, I2, I3 les trois invariants principaux de L, définis par I1 = tr L, [ ] 1 (tr L )2 − tr L2 , 2 I 3 = det L. I2 = Grâce aux invariants tensoriels on peut exprimer le déterminant d'un tenseur plus l'identité; on peut en fait démontrer que: det(I + αA) = 1 + αI1 + α 2 I 2 + α 3 I 3 ∀α ∈ R . Théorème de Cayley-Hamilton: chaque tenseur L satisfait sa propre équation caractéristique : L3 − I1L2 + I 2L − I 3I = O . Pour un tenseur L donné, une expression du type v ⋅ Lv s’appelle forme quadratique définie par L. Si v ⋅ Lv > 0 ∀v ∈ V \ {o} , - 10 - Chapitre 1 la forme et le tenseur sont dits définis positifs. Un résultat important est que les valeurs propres d’un tenseur défini positif sont strictement positives. En fait, soit λ une valeur propre d’un tenseur L défini positif, et soit u un vecteur propre correspondant. Alors u ⋅ Lu = u ⋅ λu = λu 2 > 0 ⇔ λ > 0. Un autre résultat fondamental est le suivant : deux vecteurs propres v1 et v2 d'un tenseur symétrique, relatifs à deux valeurs propres distinctes λ1 et λ2, sont orthogonaux entre eux ; en fait λ1v1·v2=Lv1·v2= v1·LTv2= v1·Lv2= v1·λ2v2= λ2v1·v2, et étant λ1≠ λ2, ceci est vrai ⇔ v1·v2= 0. En effet, parmi tous les tenseurs de second ordre, les tenseurs symétriques occupent une position particulière, grâce au Théorème spectral: si L= LT, il existe une base de V composée de seuls vecteurs propres de L. Ce théorème, dont on ne donnera pas la démonstration, est un théorème de très grande importance en mécanique, et ses implications sont multiples: • les valeurs propres d'un tenseur symétrique sont toutes réelles; • les vecteurs propres constituent une base orthonormée de V; ceci signifie qu'il existe au moins une base de V qui est transformée par L en trois vecteurs encore orthogonaux entre eux et parallèles aux vecteurs d'origine; cette base est la base normale; • dans sa base normale, chaque tenseur symétrique est représenté par (décomposition spectrale) L = λi ei ⊗ ei , et donc par la matrice diagonale λ1 0 L = 0 λ2 0 0 0 0 . λ3 En fait, dans une base normale, Lij = e i ⋅ Le j = e i ⋅ λ j e j = λ jδ ij ⇒ L = Lij e i ⊗ e j = λj δij ei⊗ej= λi ei ⊗ ei; donc, un tenseur symétrique dans sa base normale est diagonal, et ses composantes sont ses valeurs propres. On peut aussi remarquer que, si L= LT, I1 = λ1 + λ2 + λ3 , I 2 = λ1λ2 + λ2λ3 + λ3λ1 , I 3 = λ1λ2λ3 . Un tenseur symétrique qui a une seule valeur propre, de multiplicité 3, est dit sphérique; il est évidemment L= λI, et l’espace propre de λ a dimension 3 et c’est V même. Chaque base orthonormée est alors une base normale pour L. Deux tenseurs A et B sont coaxiaux s’ils ont les mêmes vecteurs propres. Ceci signifie que B laisse chaque espace propre de A invariant, c’est-à-dire que si u appartient à un quelque espace propre de A, le vecteur Bu lui appartient encore ou, ce qui est la même chose, que si u est vecteur propre de - 11 - Chapitre 1 A, même Bu est vecteur propre de A et relatif à la même valeur propre. On a alors le Théorème de commutation: soient A et B ∈ Lin(V ). Alors AB = BA ⇔ A et B sont coaxiaux. 1.16 TENSEURS ANTISYMETRIQUES ET PRODUIT VECTORIEL Nous avons déjà vu que la dimension de l’espace vectoriel Skw(V) des tenseurs antisymétriques est 3, tout comme celle de V. Il y a donc une bijection entre vecteurs et tenseurs antisymétriques, c’està-dire qu’à chaque vecteur on peut associer de façon univoque un tenseur antisymétrique, et viceversa; voyons alors comment. Introduisons d’abord le Théorème: si W ∈ Skw(V)\{O} son spectre est {0} et son espace propre a dimension 1. En fait, soit u un vecteur propre de W relatif à la valeur propre λ: Wu = λu ; alors: λ2u 2 = Wu ⋅ Wu = u ⋅ W T Wu = −u ⋅ WWu = = −u ⋅ W(λu) = −λu ⋅ Wu = −λ2u 2 ⇔ λ = 0. La seule valeur propre réelle d’un tenseur antisymétrique est donc le 0. On peut alors construire le vecteur propre u de W: soit 0 −c b 0 − a ; W = c − b a 0 étant det W=0 et le rang de W au moins égal à 2 (car W≠O), le système linéaire homogène Wu = o admet ∞ solutions, c’est-à-dire que λ=0 est valeur propre de multiplicité 1, ou, ce qui est la même chose, que l’espace propre de λ=0 a dimension 1. C’est facile de constater que la solution non triviale de ce système homogène est 1 u = (a, b, c) . Si l’on pose en plus que dans le cas W=O le vecteur correspondant est le vecteur nul, la bijection entre vecteurs et tenseurs antisymétriques est alors bien établie. L’espace propre de W est souvent appelé l’axe de W, indiqué par A(W): A ( W ) = {u ∈ V : Wu = o} ; il est simple de vérifier qu’il y a deux vecteurs opposés de A(W) tels que w⋅w = 1 W⋅W , 2 et que en fait w= ±u, étant u= (a, b, c) le vecteur trouvé ci-dessus. Choisir un de ces deux vecteurs revient à établir une orientation de l’espace; nous reviendrons dans la suite sur ce point, mais on peut dire d’ores et déjà que notre choix sera unique. Ceci équivaut évidemment à choisir un vecteur parmi les deux opposés de A(W). Ce vecteur s’appellera le vecteur axial de W. Cette bijection fait donc correspondre à tout vecteur u= (a, b, c) un tenseur antisymétrique, son tenseur axial, défini par - 12 - Chapitre 1 0 −c b 0 − a , W = c − b a 0 et vice-versa, à tout tenseur anti-symétrique son vecteur axial. Une propriété importante de tout tenseur antisymétrique W est la suivante : WW = − 1 2 W (I − w ⊗ w ) , 2 où w est le vecteur axial associé au tenseur W; à se rappeler que le tenseur I−w⊗w est le tenseur qui donne la projection d’un vecteur sur le plan orthogonal au vecteur w. On laisse au lecteur le soin de démontrer cette dernière proposition, avec la suggestion d’écrire w et W dans une base dont w est l’un des éléments. Finalement, si w1 et w2 sont deux vecteurs dont les tenseurs axiaux sont W1 et W2, on a que w1 ⋅ w 2 = 1 W1 ⋅ W2 , 2 ce qui généralise une relation donnée ci-dessus. On définit produit vectoriel de deux vecteurs a et b de V le vecteur a ∧ b = Wa b , où Wa est le tenseur axial de a. Le produit vectoriel se réduit donc à une simple opération tensorielle, ou si l’on veux matricielle (produit lignes colonnes): si a= (a1, a2, a3) et b= (b1, b2, b3), alors 0 a ∧ b = a3 − a2 − a3 0 a1 a2 b1 a2b3 − a3b2 − a1 b2 = a3b1 − a1b3 . 0 b3 a1b2 − a2b1 Le produit vectoriel a certaines propriétés, dont on laisse au lecteur la démonstration: u∧(v+ w)= u∧v+ u∧w, (u+ v)∧w= u∧w+ v∧w, bilinéarité ; u∧(k v)= (k u)∧v= k u∧v, u∧v= −v∧u, antisymétrie ; a∧b= o ⇔ a= k b, k ∈ R a∧b·a= a∧b·b= 0, a∧(b∧c)= a·c b − a·b c, condition de parallélisme ; orthogonalité du vecteur produit ; double produit vectoriel ; a∧b·c= c∧a·b= b∧c·a, produit mixte . Une autre propriété importante est que le produit vectoriel a ∧ b est le vecteur axial du tenseur (b ⊗ a − a ⊗ b) ; c’est cette propriété qui permet, en effet, de démontrer l’antisymétrie du produit vectoriel, la formule du double produit vectoriel et du produit mixte. On laisse aussi au lecteur la vérification que le produit mixte équivaut au déterminant de la matrice - 13 - Chapitre 1 a1 b 1 c1 a2 b2 c2 a3 b3 . c3 En utilisant les formules ci-dessus, cherchons à présent la norme d’un produit vectoriel : ( a ∧ b ) ⋅ (a ∧ b ) = a ∧ b ⋅ ( a ∧ b ) = (a ∧ b ) ∧ a ⋅ b = − a ∧ ( a ∧ b ) ⋅ b = = [ − a ⋅ b a + a 2 b ] ⋅ b = b ⋅ [a 2 I − a ⊗ a ] b = a 2 ( b ⋅ [ I − e a ⊗ e a ] b ) = = a 2 b 2 (e b ⋅ [ I − e a ⊗ e a ] e b ) = a 2 b 2 (1 − cos 2 θ ) = a 2 b 2 sin 2 θ ; dans la formule ci-dessus, ea et eb sont les vecteur unitaires qui donnent la direction de a et b respectivement, alors que θ est l’angle formé par les deux vecteurs. Finalement, |a∧b|= |a| |b| sin θ, Géométriquement, ce résultat montre que la norme du produit vectoriel est l’aire du parallélogramme délimité par les deux vecteurs du produit. La valeur absolue du produit mixte a alors une simple interprétation géométrique: elle est le volume du prisme qui a pour arêtes les trois vecteurs. 1.17 ORIENTATION D'UNE BASE C'est immédiat de voir que V, ainsi qu'une base de V, peut être orientée de deux façons différentes; on dira alors que la base e= {e1, e2, e3} est orientée positivement (right-handed en anglais) si e1∧e2·e3= 1; Géométriquement, cela signifie qu'une base est orientée positivement si les axes sont comme ceux de la figure 1.3. Au contraire, une base pour laquelle e1∧e2·e3= −1, est dite orientée négativement (left-handed en anglais); une telle base serait par exemple celle de la figure 1.3 avec l'axe e3 pointillé. Dans la suite, nous considérerons toujours des bases orientées positivement ; ceci implique, d’après la définition, que les tenseurs axiaux des vecteurs d’une base sont pour e1 : e3 ⊗ e 2 − e 2 ⊗ e3 ; pour e 2 : e1 ⊗ e3 − e3 ⊗ e1; pour e3 : e 2 ⊗ e1 − e1 ⊗ e 2 . e3 e2 e1 Figure 1.3 1.18 TENSEUR INVERSE Un tenseur L est inversible s'il existe un tenseur L− 1, dit le tenseur inverse de L, tel que - 14 - Chapitre 1 LL− 1= L− 1L= I. Démontrer que le tenseur inverse est unique est une tâche très simple, qu'on laisse au lecteur. Une propriété importante est qu’un tenseur inversible transforme trois vecteurs u, v et w de V linéairement indépendants en trois vecteurs u1, v1 et w1 qui sont encore linéairement indépendants. En fait, supposons par l'absurde que ce soit u1= k v1+h w1, k, h ∈ R. Alors L− 1 u1= u= L− 1(k v1+h w1)= k L− 1v1+h L− 1w1 = k v+ h w, ce qui est contre l'hypothèse, et donc u1, v1 et w1 sont linéairement indépendants. Grâce au théorème de Binet on montre aisément que det L− 1= (det L)− 1 ; et en s'appuyant sur ces deux derniers résultats, on peut montrer le Théorème d'inversibilité: un tenseur L est inversible ⇔ det L≠ 0. Un tenseur symétrique défini positif est donc toujours inversible. Les propriétés qui suivent sont laissées à démontrer au lecteur: (AB)− 1= B− 1A− 1, (L− 1)− 1= L, (L− 1)T= (LT)− 1 (:= L− T), (α L)− 1= α− 1L− 1, ∀ α ∈ R. Une autre propriété, dont la démonstration nécessite de concepts qui n'ont pas étés introduits ici, est la suivante: L u ∧ L v · L w= det L (u ∧ v · w). Cette relation, avec l'interprétation géométrique qu'on avait donnée du produit mixte, nous dit que la valeur absolue du déterminant d'un tenseur est comme un coefficient de variation volumique du prisme, coefficient qui mesure le rapport entre le volume après et avant la transformation tensorielle. Si L n'est pas inversible, pour le théorème d'inversibilité on a que det L= 0, et alors après l'application de L le prisme est transformé en un prisme de volume nul, c'est-à-dire en un parallélogramme (interprétation géométrique du fait que les trois vecteurs initialement linéairement indépendants ont étés transformés en trois vecteurs linéairement dépendants). Une conséquence immédiate de la dernière formule est que L u ∧ L v = L*(u ∧ v), où (pour les tenseurs à déterminant positif) L* = det L L− T , est le tenseur ajoint ou cofacteur de L. On peut démontrer que det( A + B) = det A + A * ⋅B + A ⋅ B * + det B. 1.19 CHANGEMENT DE BASE Souvent il faut changer la base de V, et donc on se pose le problème de trouver les nouvelles composantes cartésiennes d'un vecteur ou d'un tenseur. D'abord, comment transformer une base en une autre base? Cette opération présuppose que dans la transformation la norme des vecteurs est conservée, ainsi que l'angle formé par deux vecteurs quelconques et l'orientation de l'espace. Les - 15 - Chapitre 1 tenseurs qui conservent les angles s’appellent orthogonaux : l’angle entre deux vecteurs quelconques u et v se conserve dans la transformation : Qu ⋅ Qv = u ⋅ v , voire, par la définition de transposé, u ⋅ Q T Qv = u ⋅ v , d’où la condition qui caractérise les tenseurs orthogonaux : QT Q= Q QT= I. Si l’on prends v= u on constate immédiatement qu’un tenseur orthogonal conserve aussi la norme. Par l'unicité du tenseur inverse, les tenseurs orthogonaux sont les seuls pour lesquels transposé et inverse coïncident: QT= Q− 1. Du théorème de Binet et de l'avant-dernière relation on tire det Q= ±1; on voit bien alors, grâce à L u ∧ L v · L w= det L (u ∧ v · w), que pour avoir une transformation de base qui conserve l'orientation, il faut que ce soit det Q= +1. Les tenseurs orthogonaux qui ont le déterminant égale à 1 sont donc les seuls qui peuvent opérer une transformation de base; un tel tenseur est appelé rotation propre, ou tout simplement rotation, pour le distinguer d’un tenseur rotation impropre, qui correspond à un tenseur orthogonal avec déterminant égal à −1. Cherchons donc le tenseur rotation Q qui opère la transformation de la base e= {e1, e2, e3} dans la base e'= {e'1, e'2, e'3}; par définition, e'j= Q ej, j=1, 2, 3, et alors Qij= ei· (Q ej)= ei · e'j. Cette dernière égalité nous dit que la j-ème colonne de Q est le vecteur j-ème de la base e', le tout exprimé dans la base e. Revenons maintenant à la question originelle: comment changent-elles les composantes cartésiennes d'un vecteur ou d'un tenseur, lors d'un changement de base? Commençons avec les vecteurs: on a les composantes vi d'un vecteur v dans la base e, on cherche les composantes v'i dans la base e'. Alors: v'i= v·e'i= v·Q ei= QTv·ei, et si on appelle v' le vecteur v "vu" dans la base e', on a donc que v'= QTv. Si on veut expliciter les composantes v 'i, on trouve aisément que v 'i= v j e'ij, où e'ij est la j-ème composante du vecteur e'i de la base e', exprimé dans la base e (par exemple, - 16 - Chapitre 1 v '1= vj e'1j= v 1 e'11+ v 2 e'12+ v 3 e'13). Pour les tenseurs on suit la même démarche: L'ij= e'i·Le'j= Q ei·LQ ej= ei·QTLQ ej, et donc si on appelle L' le tenseur L "vu" dans le nouveau repère, on a L'= QTLQ. Pour expliciter les composantes L'ij, on peut faire comme ça: L'ij= e'i·Le'j= e'i·(Lhk eh⊗ek)e'j= Lhk e'i·(eh⊗ek)e'j= Lhk e'i·eh e'j·ek ⇒ L'ij= Lhk e'ih e'jk. Par exemple, L'12 = L11 e'11 e'21+ L12 e'11 e'22+ L13 e'11 e'23+ + L21 e'12 e'21+ L22 e'12 e'22+ L23 e'12 e'23+ + L31 e'13 e'21+ L32 e'13 e'22+ L33 e'13 e'23. Les relations de transformation des composantes d'un vecteur ou d'un tenseur par rotation de base sont des lois fondamentales, qui caractérisent les vecteurs et les tenseurs du deuxième ordre. Une autre propriété des rotations est celle d’avoir la valeur propre +1 pour les rotations propres et –1 pour les impropres. En fait, si u est un vecteur propre de la rotation Q relatif à la valeur propre λ, il est, en considérant que Q conserve la norme, Qu ⋅ Qu = λ2 u2 = u2 ⇔ λ2 = 1 . Donc les valeurs propres d’une rotation ont la norme égale à 1, mais on ne peut encore dire si ces valeurs propres sont réelles ou imaginaires. Toutefois, on peut sans doute affirmer qu’au moins une valeur propre est réelle. En fait, l’équation caractéristique est du type f ( λ ) = λ3 + k1λ2 + k2λ + k3 = 0, avec les coefficients ki réels, parce que Q a composantes réelles. Mais on constate facilement que lim f ( λ ) = ±∞ , λ → ±∞ et alors par le théorème des zéros d’une fonction continue réelle, comme c’est le cas pour le polynôme f(λ), il existe au moins une valeur λ1 réelle telle que f ( λ1 ) = 0 . D’ailleurs, on a toujours que det Q = λ1λ2λ3 , où les λi sont les valeurs propres, réelles ou complexes, de Q, et en plus on sait déjà que det Q= ±1; par conséquent, seulement deux sont les cas possibles : i. λ1 est réelle et les deux autres sont complexes conjuguées, λ2= λ3* ; ii. les trois valeurs propres λi sont réelles . Considérons alors une rotation propre, pour laquelle - 17 - Chapitre 1 det Q= 1 : alors, pour avoir un déterminant positif, dans le premier cas ci-dessus, la seule valeur propre réelle doit être positive. En fait det Q = λ1λ2 λ3 = λ1λ*3λ3 = λ1[ Re2 ( λ3 ) + Im2 ( λ3 )] , quantité qui est positive si et seulement si λ1 est positive aussi. En plus, on a déjà montré que la norme d’une valeur propre d’un tenseur rotation est +1, et donc, étant la quantité entre crochets le carré de la norme du nombre complexe λ3, elle vaut +1, ce qui comporte, pour avoir un déterminant égal à +1, que λ1 = +1 . Dans le deuxième cas, les trois valeurs propres sont soit toutes positives, soit une positive et les deux autres négatives ; la condition que la norme de chaque valeur propre soit égale à +1 nous amène alors à dire que même dans ce cas une valeur propre au moins est +1 (ou toutes les trois, ce qui implique Q= I). C’est immédiat que la même démarche appliquée à un tenseur rotation impropre amène à affirmer qu’un tel tenseur à toujours au moins une valeur propre réelle égale à –1, car dans ce cas il est det Q= −1. Une rotation impropre particulière, qui a toutes les valeurs propres égales à –1, est le tenseur inversion ou réflexion : S = −I . C’est évident que l’effet de S est celui de transformer une base quelconque en une base qui a les axes changés d’orientation, ou, ce qui est la même chose, de changer le signe des composantes d’un vecteur, et donc l’orientation de l’espace, comme tout tenseur rotation impropre. En effet, si on a une rotation impropre Qi, on peut toujours la décomposer, grâce au théorème de Binet, en une rotation propre plus une réflexion: Qi = SQ p , où Qp est une rotation propre. Considérons alors une rotation impropre, et comment le produit vectoriel entre deux vecteurs u et v se modifie à la suite de l’application de la transformation : par les relations ci-dessus, la dernière équation du paragraphe précédent et les formules d’inversion et transposition d’un produit tensoriel, ainsi que le théorème de Binet et les propriétés des tenseurs orthogonaux, on a [ ] T Qi u ∧ Qi v = SQ p u ∧ SQ p v = det(SQ p ) (SQ p ) −1 ( u ∧ v ) = [ ] T [ ] T = det S det Q p Q−p1S −1 ( u ∧ v ) = − − Q−p1I ( u ∧ v ) = Q p ( u ∧ v ). Considérons maintenant le transformé d’un vecteur quelconque: Qi u = SQ p u = − IQ p u = −Q p u , d’où on voit que le vecteur résultat du produit vectoriel de deux vecteurs ne change pas de signe à la suite d’une rotation impropre, comme au contraire tous les vecteurs. Cela signifie que le produit vectoriel est insensible à l’opération de réflexion; c’est pour ça qu’un produit vectoriel, à la rigueur, n’est pas un vecteur, mais ce qu’on appelle un pseudovecteur, à signifier qu’il se comporte comme tous les vecteurs, sauf pour une transformation particulière, celle de réflexion. Le produit mixte représente en effet un pseudoscalaire, parce que lui, pour les mêmes raisons, il change de signe à la - 18 - Chapitre 1 suite d’une opération de réflexion sur les trois vecteurs (d’ailleurs, si on se rappelle que le produit mixte équivaut au déterminant de la matrice ayant par lignes les trois vecteurs, un changement de signe des vecteurs entraîne immédiatement le changement de signe du déterminant, voir aussi les propriétés du déterminant, paragraphe 1.14). 1.20 THEOREMES DE LA RACINE CARREE ET DE DECOMPOSITION POLAIRE. Nous avons déjà vu trois types de décomposition tensorielle: L= Lij ei⊗ej, L = L1 + L 2 , L = λi ei ⊗ ei représentation par dyades 1 1 avec L1 = (L + LT ), L 2 = (L − LT ) , 2 2 décomposition spectrale, valable au moins pour L ∈ Sym(V ) . Chacune de ces décompositions est utile dans certaines circonstances, mais d’autres décompositions sont possibles dans certains cas. Citons par exemple les deux théorèmes suivants (voir M. E. Gurtin, An introduction to continuum mechanics, Academic Press, 1981) : Théorème de la racine carrée : soit C∈Sym(V) et défini positif ; alors il existe un seul tenseur U∈Sym(V) et défini positif tel que C = U2 ; nous écrivons alors que C =U. Théorème de décomposition polaire: soit F∈Lin(V) et det F>0. Alors il existe deux tenseurs symétriques et définis positifs U et V et un tenseur rotation R tels que F = RU décomposition polaire droite; F = VR décomposition polaire gauche; chacune de ces deux décompositions est unique et il est U = FTF , V = FF T . - 19 - Chapitre 2 ELEMENTS D’ANALYSE TENSORIELLE 2.1 COURBES, CHAMPS, DEFORMATIONS Dans ce chapitre on va généraliser aux espaces E, V et Lin(V) des concepts déjà connus pour les fonctions en R; ceci nous amènera à l’introduction de certaines règles pour définir d’abord et calculer ensuite les dérivées et les intégrales de fonctions définies dans ces espaces, ainsi qu’à l’introduction de certains opérateurs et théorèmes indispensables en mécanique de milieux continus. On considère que le lecteur est familier avec les notions fondamentales de l’analyse de fonctions réelles. Les produits scalaires en V et en Lin(V) nous permettent de définir une norme, la norme euclidienne, et donc engendrent automatiquement une métrique sur ces espaces (concrètement, nous sommes en mesure de définir et calculer une distance entre deux éléments de ces espaces) et sur E aussi (par la définition de distance entre deux points). Cette circonstance nous donne la possibilité de généraliser le concept de continuité et différentiabilité déjà connus en R, et dont la définition fait intrinsèquement appel à une distance entre quantités réelles. Soit {pn ∈ E , n ∈ N} une séquence de points dans E; nous disons que cette séquence converge au point p de E si lim d ( pn , p) = 0 . n→∞ Une définition analogue peut être donnée pour une séquence de vecteurs et de tenseurs. Cette notion de convergence nous permet maintenant de définir la notion de continuité et de courbe. Soit [a ,b] un intervalle de R : la fonction p : [a, b] → E est continue en t∈[a ,b] si, pour chaque séquence {tn ∈ [a, b], n ∈ N} qui converge vers t, la séquence {pn ∈ E , n ∈ N} définie par pn = p(t n ) ∀n ∈ N converge vers p(t ) ∈ E . La fonction p= p(t) est une courbe en E si elle est continue ∀t∈[a ,b]. De façon totalement analogue, on définit une courbe vectorielle v = v(t ), v : [a, b] → V , et tensorielle L = L(t ), L : [a, b] → Lin(V ) . Il faut remarquer que, d’un point de vue mathématique, une courbe ce n’est rien d’autre qu’une fonction qui fait correspondre à des valeurs sur un intervalle réel des points dans l’espace image, E, V ou Lin(V); elle ne dépend donc que d’une seule variable indépendante, t. Concrètement, une courbe est une fonction qui prend des valeurs en R pour les transformer en points, vecteurs, tenseurs. Evidemment, une courbe en E et en V est représentée, dans un repère choisi, par trois fonctions réelles de t, les coordonnées ou les composantes respectivement, alors qu’une courbe en Lin(V) est représentée par ses neuf composantes fonctions de t. Soit maintenant Ω ⊂ E et f : Ω → V ; on dit que f est continue en p ∈ Ω si, pour chaque séquence {pn ∈ Ω , n ∈ N} qui converge à p en E, la séquence {v n = f ( pn ), n ∈ N} converge à f(p) en V. La fonction f : Ω → V est un champ vectoriel en Ω si elle est continue ∀p ∈ Ω . De la même façon on peut définir un champ tensoriel L = L( p ), L : Ω → Lin(V ) et scalaire, ϕ = ϕ ( p ), ϕ : Ω → R . - 20 - Chapitre 2 Nous définissons déformation une transformation continue et bijective f = f ( p), f : Ω → E . Il s’agit dans ce cas d’une transformation d’une région Ω ⊃ E en une autre région de E, avec la contrainte supplémentaire d’être bijective : à chaque point de Ω correspond un seul point de la région image, et vice-versa. La raison de cette imposition est purement physique, et sera claire plus tard, quand on examinera les transformations d’un corps continu déformable. 2.2 DIFFERENTIATION DE COURBES Soit v = v(t ), v : [a, b] → V scalaire; si lim t →t0 une courbe vectorielle et g = g (t ), g : [a, b] → R une fonction v(t ) = 0, g (t ) alors on dit que v est d’ordre o par rapport à g en t0 : v (t ) = o(g (t ) ) pour t → t0 . Une définition analogue existe pour les tenseurs. On dit que la courbe v = v(t ), v : [a, b] → V est différentiable en t0 ∈ ]a, b[ s’il existe un vecteur v& tel que v (t ) − v(t0 ) = (t − t0 ) v& + o(t − t0 ) lorsque t → t0 . Le vecteur v& est appelé la dérivée de v. Si v& est continu partout en ]a, b[ , alors on dit que la courbe v est de classe C1 (smooth en anglais). Evidemment, en appliquant la définition de dérivée à v& on définit la dérivée seconde &v& de v et ainsi de suite pour les dérivées d’ordre supérieur. Si v est continu avec toutes ses dérivées jusqu’à l’ordre n, on dit que v est une courbe de classe Cn. Pour une courbe en E ou en Lin(V), on donne des définitions tout-à-fait analogues; on remarque que, étant définie comme différence de points, la dérivée d’une courbe en E est une courbe en V (on dit que la dérivée d’un point est un vecteur). La dérivée d’un tenseur est, quant à elle, un tenseur, étant la différence de deux tenseurs. Soient u et v courbes en V, L et M courbes en Lin(V), α une fonction scalaire, toutes définies et de classe au moins C1 sur [a, b]. A l’aide des définitions données de dérivée d’une courbe, on peut démontrer les relations suivantes, qui généralisent aux courbes les règles de dérivation des fonctions réelles : (u + v)&= u& + v& , (α v)&= α& v + α v& , (u ⋅ v)&= u& ⋅ v + u ⋅ v& , (u ∧ v )&= u& ∧ v + u ∧ v& , (u ⊗ v)&= u& ⊗ v + u ⊗ v& , (α L)&= α& L + α L& , (L u)&= L& u + L u& , &, (L M )&= L& M + L M &, (L ⋅ M )&= L& ⋅ M + L ⋅ M (LT )&= L& T , - 21 - Chapitre 2 (L−1 )&= −L−1L& L−1 , (det L)&= det L L& ⋅ L−T = det L tr (L& L−1 ). Les règles ci-dessus nous offrent immédiatement la démarche pratique pour le calcul des dérivées d’une courbe: en fait, si l’on considère que par rapport à une base orthonormée une courbe en E, en V ou en Lin(V) est respectivement du type (o est un point fixe de E) p(t ) − o = xi (t ) ei , u(t ) = ui (t ) ei , L(t ) = Lij (t ) ei ⊗ e j , et que les vecteurs de la base choisie ne dépendent pas de t, on obtient immédiatement que: p& (t ) = x&i (t ) ei , u& (t ) = u&i (t ) ei , L& (t ) = L&ij (t ) ei ⊗ e j , c’est-à-dire que la dérivée d’une courbe a comme composantes les dérivées des composantes de la courbe donnée. 2.3 DIFFERENTIATION DE CHAMPS ET DE DEFORMATIONS Considérons un champ vectoriel f : Ω → V ; nous dirons que f est différentiable en p0 ∈ Ω s’il existe un tenseur ∇f tel que f ( p0 + u) − f ( p0 ) = ∇f u + o(u) lorsque u → o . Si f est différentiable partout en Ω, ∇f définit un champ tensoriel sur Ω, dit le gradient de f; dans ce cas, f est de classe C1 sur Ω . Champs vectoriels de classe supérieure à C1 sont définis à l’aide de tenseurs d’ordre supérieur au second, et ils ne seront pas traités ici. Soit f un champ vectoriel de classe au moins C1 sur Ω ; on définit divergence de f le champ scalaire sur Ω défini par la relation div f = tr ∇f . Encore, le rotationnel de f est le seul champ vectoriel avec la propriété (∇f − ∇f T )u = (rot f ) ∧ u ∀u ∈ V ; le rotationnel est donc le double du vecteur axial de la partie antisymétrique du tenseur ∇f . Considérons par exemple un corps rigide B; si p0 est un point quelconque de B, c’est bien connu que la vitesse v d’un autre point p de B est donnée par la loi de distribution des vitesses suivante v ( p) = v( p0 ) + ω ∧ ( p − p0 ) , ou encore v ( p) = v ( p0 ) + Wω ( p − p0 ) , étant Wω le tenseur axial de ω, dit tenseur de spin. Or, par la définition même de gradient de v, on a que ∇v = Wω . - 22 - Chapitre 2 Par les propriétés de la trace, on a alors que div v = tr ∇v = tr Wω = 0, ω= 1 rot v. 2 Le rotationnel est donc lié au mouvement de rotation, d’où son nom, et non seulement pour un corps rigide: pour le mouvement d’un corps déformable, le rotationnel est une mesure locale de la vorticité. On définit divergence d’un champ tensoriel S le seul champ vectoriel avec la propriété (div S) ⋅ a = div(S T a) ∀a ∈ V . Soit ϕ = ϕ ( p ), ϕ : Ω → R un champ scalaire sur Ω. Nous dirons que ϕ est différentiable en p0 ∈ Ω s’il existe un vecteur ∇ϕ tel que ϕ ( p0 + u) − ϕ ( p0 ) = ∇ϕ ⋅ u + o(u) lorsque u → o . Si ϕ est différentiable partout en Ω, ∇ϕ définit un champ vectoriel sur Ω, dit le gradient de ϕ; dans ce cas, ϕ est de classe C1 sur Ω . Le vecteur ∇ϕ est indiqué aussi par grad ϕ. Si ∇ϕ est différentiable en Ω, alors son gradient est un tenseur qui s’appelle deuxième gradient de ϕ, et qu'on dénote par ∇ IIϕ . On montre facilement que (∇ II ϕ ) T = ∇ II ϕ . Si ∇ II ϕ est un champ tensoriel sur Ω, alors ϕ est de classe C2. Dans le cas d’un champ scalaire, on peut toujours définir les surfaces de niveau du champ: ce sont les surfaces où la fonction ϕ(p) est constante. Or, le gradient a l’importante propriété d’être un vecteur qui est orthogonal aux surfaces de niveau en tout point (cette propriété se montre immédiatement par la définition même de différentiabilité donnée ci-dessus). Les lignes qui ont la direction du vecteur gradient en tout point sont les lignes de flux du champ; elles sont donc orthogonales aux surfaces de niveau. Le gradient permet de calculer la variation du champ dans une direction quelconque: si n est un vecteur de norme unitaire, alors la variation du champ scalaire ϕ par unité de longueur dans la direction n est donnée par dϕ = ∇ϕ ⋅ n . dn Celle-ci est la formule de la dérivée directionnelle. On remarque qu’on a la plus grande valeur de la dérivée directionnelle lorsque n a la direction du gradient: le gradient est donc le vecteur qui donne la direction de variation maximale du champ en tout point; la norme du gradient est la valeur de cette variation. Soit ϕ un champ scalaire ou vectoriel de classe C² ; le laplacien ∆ϕ de ϕ est défini par ∆ϕ = div ∇ϕ . Par les propriétés de linéarité de la trace, et donc de la divergence, on voit bien que le laplacien d’un vecteur est le vecteur qui a par composantes le laplacien de chacune des composantes mêmes du vecteur donné. Si le laplacien est nul, le champ est dit harmonique. Les définitions données ci-dessous de champ différentiable, de gradient et de classe C1 peuvent être - 23 - Chapitre 2 reproduites verbatim pour une déformation f = f ( p ), f : Ω → E . Les opérateurs vus jusqu’ici ont des propriétés qui sont listées ci-après; dans la suite, on sousentend que ψ et ϕ, sont des champs scalaires, u, v et w des champs vectoriels, S un champ tensoriel, et que ces champs sont suffisamment réguliers (pour plus de détails voir encore le livre de M. E. Gurtin). Alors, on peut démontrer que : ∇(ϕψ ) = ϕ∇ψ +ψ∇ϕ ; ∇(ϕ v) = ϕ∇v + v ⊗ ∇ϕ ; 1 (∇v) v = (rot v) ∧ v + ∇v 2 ; 2 T ∇( v ⋅ w ) = (∇w ) v + (∇v) T w = (∇w ) v + (∇v )w + v ∧ rot w + w ∧ rot v; ∇[(u ⋅ v)w ] = (u ⋅ v)∇w + (w ⊗ u)∇v + (w ⊗ v)∇u; ∇v ⋅ ∇v T = div[(∇v )v − (div v )v ] + (div v ) ; div(ϕ v) = ϕ div v + v ⋅ ∇ϕ ; div( v ⊗ w ) = v div w + (∇v )w; 2 div(S T v) = S ⋅ ∇v + v ⋅ div S; div(ϕ S) = ϕ div S + S∇ϕ ; div(∇v T ) = ∇(div v); div[(∇v )v ] = ∇v ⋅ ∇v T + v ⋅ (∇div v ); div( v ∧ w ) = w ⋅ rot v − v ⋅ rot w; div(ϕ S v) = ϕ S T ⋅ ∇v + ϕ v ⋅ div S T + S v ⋅ ∇ϕ ; div rot v = 0; rot(ϕ v ) = ϕ rot v + ∇ϕ ∧ v; rot (rot v) = ∇(div v ) − ∆v; rot ∇ϕ = o; rot( v ∧ w ) = (∇v)w − (∇w ) v + v div w − w div v; rot v = − div V, avec V tenseur axial de v; ∆(ϕψ ) = 2∇ϕ ⋅ ∇ψ + ϕ ∆ψ + ψ ∆ϕ ; ∆( v ⋅ w ) = 2∇w ⋅ ∇v + v ⋅ ∆w + w ⋅ ∆v. On rappelle aussi les deux théorèmes suivants, à caractère général: Théorème sur les champs harmoniques: si v est un champ vectoriel de classe C² avec div v= o et rot v= o, alors v est harmonique. Théorème du potentiel: soit v un champ vectoriel de classe au moins C1 sur un domaine simplement connexe Ω; alors condition nécessaire et suffisante pour que le rotationnel de v soit identiquement nul sur Ω est qu’il existe une fonction scalaire ϕ de classe C2 sur Ω telle que v=∇ϕ. Donc rot v = o ⇔ v = ∇ϕ . - 24 - Chapitre 2 2.4 THEOREMES DE TRANSFORMATION D’INTEGRALES Dans ce qui suit, Ω est une région suffisamment régulière de E, de frontière ∂Ω et de normale unitaire extérieure n. Lemme de divergence: si v est un champ vectoriel de classe C1 sur Ω on démontre que : ∫ Ω v ⊗n ds = ∫Ω ∇v dv ; ∂ ce lemme permet de démontrer facilement le : Théorème de la divergence (ou de Gauss): ∫ Ω ϕ n ds = ∫Ω ∇ϕ dv ; ∫ Ω v ⋅n ds = ∫Ω div v dv ; ∫ Ω Sn ds = ∫Ω div S dv . ∂ ∂ ∂ Ce théorème transforme donc l’intégrale de surface d’une grandeur scalaire, vectorielle ou tensorielle en une intégrale de volume par le biais de l’opérateur divergence (et inversement), et il est à la base de nombreuses applications et théorèmes en mécanique des milieux continus. Conséquence de la forme tensorielle de ce théorème est le: Théorème du rotationnel: ∫ Ω n ∧ v ds = ∫Ω rot v dv . ∂ En fait: ∫ Ω n ∧ v ds = − ∫ Ω v ∧ n ds = −∫ Ω W n ds = −∫Ω div W ∂ ∂ ∂ v v dv = ∫ rot v dv . Ω Les formules qui suivent se démontrent facilement à partir du théorème de la divergence: ∫ Ω v ⋅Sn ds = ∫Ω ( v ⋅ div S + S ⋅ ∇v) dv ; ∫ Ω (Sn) ⊗ v ds = ∫Ω [(div S) ⊗ v + S∇v ] dv ; ∫ Ω v(w ⋅n) ds = ∫Ω [ v div w + (∇v)w] dv . ∂ T ∂ ∂ Théorème de Stokes : ∫ v ⋅ dl = ∫ γ Σ rot v ⋅ n ds . Ce théorème transforme l’intégrale de ligne au premier membre, qui représente la circulation du vecteur v sur la ligne fermée γ, en une intégrale de surface, qui représente le flux du vecteur rot v à travers une surface Σ qui admet γ comme frontière, figure 2.1. Σ n γ Figure 2.1 - 25 - Chapitre 2 La représentation paramétrique p=p(t) de la courbe γ doit être choisie de telle sorte que p& (t1 ) ∧ p& (t2 ) ⋅ n > 0 ∀t1 , t2 : t2 > t1. Formule de Green : si ϕ et ψ sont deux champs scalaires, alors dϕ dψ ∫ Ω ψ dn − ϕ dn ds = ∫Ω (ψ ∆ϕ − ϕ ∆ψ )dv . ∂ Théorème : si v est de classe au moins C1 sur un ouvert R, alors div v = 0 ⇔ ∫ Ω v ⋅ n ds = 0 ∂ ∀Ω ⊂ R . 2.5 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES CARTESIENNES On peut démontrer que les composantes cartésiennes des opérateurs différentiels sont données par les relations suivantes (sommation d’Einstein sous-entendue; la virgule indique dérivation partielle par rapport à la coordonnée indiquée par l’indice qui suit la virgule) : (∇ϕ )i = ϕ,i ; (∇v)ij = v i , j ; div v = v i ,i ; (div S)i = Sij , j ; ∆ϕ = ϕ,ii ; (∆v)i = ∆v i = v i , jj ; rot v = (v 3, 2 − v 2,3 ; v 1,3 − v 3,1; v 2,1 − v 1, 2 ). Parfois, pour indiquer les opérateurs différentiels on considère l’opérateur ∇, dit opérateur nabla, ∇= ∂⋅ ∂⋅ ∂⋅ ∂⋅ ei = e1 + e2 + e3 , ∂x3 ∂xi ∂x1 ∂x2 comme si c’était un vecteur. Alors, on voit facilement que grad ϕ = ∇ϕ ; div v = ∇ ⋅ v; rot v = ∇ ∧ v; ∆ϕ = ∇ 2ϕ . 2.6 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES CYLINDRIQUES En considérant des coordonnées cylindriques comme indiquées en figure 2.2, définies par les relations (les pi sont les coordonnées cartésiennes dans le repère {o ; e1, e2, e3}) : ρ = p12 + p22 , ρ ≥ 0, θ = arctan p2 , θ = anomalie, 0 ≤ θ < 2π , p1 z = p3 , - 26 - Chapitre 2 ou par les relations inverses p1 = ρ cosθ , p2 = ρ sin θ, p3 = z , on trouve que, dans le repère mobile {p ; eρ, eθ, ez} de figure, il est e3 ez eθ p o θ ρ e1 eρ e2 Figure 2.2 1 ∇ϕ = ϕ,ρ ; ϕ,θ ;ϕ, z ; ρ 1 1 ∆ϕ = (ρ ϕ,ρ ),ρ + 2 ϕ,θθ + ϕ, zz ; ρ v ρ ,ρ ∇v = v θ ,ρ v z,ρ div v = v ρ ,ρ + ρ v ρ ,z ρ 1 (v θ ,θ + v ρ ) v θ ,z ; ρ 1 v z,θ v z,z ρ 1 1 ρ (v ρ ,θ - v θ ) (v θ ,θ + v ρ ) + v z,z ; 1 1 rot v = v z ,θ - v θ ,z ; v ρ ,z - v z ,ρ ; [( ρv θ ),ρ - v ρ ,θ ] ; ρ ρ 1 [( ρS ρρ ),ρ + S ρθ ,θ − Sθθ ] + S ρz ,z ρ 1 div S = Sθρ ,ρ + (Sθθ ,θ + S ρθ + Sθρ ) + Sθz ,z ; ρ 1 [( ) ] ρ S S S + + zρ , ρ zθ ,θ zz ,z ρ - 27 - Chapitre 2 1 1 1 ( ρ v ρ , ρ ) , ρ + 2 v ρ ,θθ + v ρ ,zz − 2 (v ρ + 2v θ ,θ ) ρ ρ ρ ∆v ρ 1 1 1 ∆v = ∆v θ = ( ρ v θ , ρ ) , ρ + 2 v θ ,θθ + v θ ,zz − 2 (v θ − 2v ρ ,θ ) . ρ ρ ∆v ρ z 1 1 ( ρ v z , ρ ) , ρ + 2 v z ,θθ + v z ,zz ρ ρ 2.7 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES SPHERIQUES Considérons les coordonnées sphériques indiquées en figure 2.3, définies par les relations (les pi sont les coordonnées cartésiennes dans le repère {o ; e1, e2, e3}) : r= p12 + p22 + p32 , p12 + p22 , φ = colatitude, 0 ≤ φ ≤ π , p3 φ = arctan θ = arctan p2 , θ = anomalie, 0 ≤ θ < 2π , p1 ou par les relations inverses p1 = r cosθ sinφ , p2 = r sinθ sinφ , p3 = r cosφ . Dans le repère mobile indiqué en figure {p; er, eφ, eθ} on a alors: e3 eθ φ r o θ er p eφ e2 e1 Figure 2.3 1 1 ϕ,θ ; ∇ϕ = ϕ ,r ; ϕ ,φ ; r r sin φ 1 1 ∆ϕ = 2 (r 2 ϕ,r ),r + 2 ϕ,θθ + (ϕ,φ sin φ ),φ ; r r sin φ [ ] - 28 - Chapitre 2 1 1 1 (v r ,φ − v φ ) v r ,θ − v θ v r ,r r r sin φ 1 1 1 (v φ ,φ + v r ) v φ ,θ − v θ cotgφ ; ∇v = v φ ,r r r sin φ 1 1 1 v θ ,φ v θ ,θ + v r + v φ cotgφ v θ ,r r r sin φ 1 1 div v = 2 (r 2v r ),r + (v φ sin θ ),φ + v θ ,θ ; r r sin φ [ ] 1 1 1 1 rot v = [(v θ sin θ ),φ − v φ ,θ ]; v r ,θ − (rv θ ),r ; [(rv φ ),r − v r ,φ ] ; r sin φ r r r sin φ S + Sθθ cotgφ 1 2 1 1 2 (r Srr ),r + Srφ ,φ + + Srφ Srθ ,θ − φφ r r r r sin φ r 1 1 1 cotgφ 1 2 div S = 2 (r Sφr ),r + S φφ ,φ + (Sφφ − Sθθ ) ; S φθ ,θ + Srφ + r r r sin φ r r 1 1 1 1 cotg φ (r 2 S ) + S + + + + S S S S ( ) θr ,r θφ ,φ θθ ,θ rθ φθ θφ r 2 r r sin φ r r v − 2v v − 2v v 1 v r ,θθ v − 2v θ ,θ − 2 r2 v r ,rr + 2 r ,r + r ,φφ 2 φ ,φ + r ,φ 2 φ cotg φ + 2 r r r r sin φ sin φ r v v + 2v v − v cotg φ v 1 v φ ,θθ − 2v θ ,θ cotg φ − φ2 . cotg φ + 2 ∆v = v φ ,rr + 2 φ ,r + φ ,φφ 2 r ,φ + φ ,φ φ2 r r r r sin φ sin φ r 2v cotg φ v v 1 v θ ,θθ v + 2v r ,θ − 2 θ 2 v θ ,rr + 2 θ ,r + θ ,2φφ + v θ ,φ + φ ,θ 2 + 2 sin φ r r r r sin φ sin φ r sin φ - 29 -