INTRODUCTION AU CALCUL TENSORIEL

Transcription

INTRODUCTION AU CALCUL TENSORIEL
Licence de Mécanique
Bases de la
Mécanique des Milieux Continus
A.U. 2004-2005
INTRODUCTION AU CALCUL TENSORIEL
P. Vannucci
LEMA – Laboratoire d'Etudes Mécaniques des Assemblages
UVSQ – Bâtiment Descartes RC27 – 45, Avenue des Etats-Unis. 78035 Versailles
[email protected]
________________________________________________________________________________
Chapitre 1
ELEMENTS D’ALGEBRE TENSORIELLE
1.1 ESPACE EUCLIDIEN
Les événements de la mécanique classique se placent dans l'espace euclidien à trois dimensions,
que nous définissons ainsi: on dit que E est un espace euclidien tridimensionnel s’il existe un
espace vectoriel V, qui lui est associé, de dimension trois, dans lequel il est défini un produit
scalaire, et tel que:
• les éléments v de V, qui sont des vecteurs, sont des transformations de E en lui-même:
v ∈ V, v : E → E ;
• la somme de deux éléments de V est définie comme
(u + v)( p ) = u( v( p))
∀ u, v ∈ V et ∀ p ∈ E ;
• ∀ p et q ∈ E , ∃! v ∈ V : q = v(p).
Pour mieux comprendre tout cela, il faut d’abord introduire deux concepts assez importants.
1.2 POINTS ET VECTEURS
Nous choisissons une fois pour toutes un espace euclidien E; ses éléments sont appelés points. E
doit être identifié avec l'espace ordinaire où nous vivons.
L'espace vectoriel V sera appelé espace des translations de E et les éléments de V seront appelés
translations.
Analysons donc les propriétés énoncées ci-dessus; on commence avec la dernière. Ecrire q = v(p)
signifie que v est une transformation de E en lui-même, c’est à dire, on part d’un point de E pour
arriver encore en un point de E, et que cette transformation est intégralement déterminée par la
valeur prise sur un point de E. Graphiquement:
q
q’
v
v
p
p’
Figure 1.1
Remarque: le même vecteur peut opérer différentes transformations, en fonction du point
d’application: q = v(p), mais aussi q’= v(p’).
Nous utiliserons, à la place de l'écriture q = v(p), une écriture qui a un sens géométrique plus direct:
q= p + v.
Elle définit la somme d’un point et d’un vecteur comme un point. De la relation ci-dessus on tire
aussi la définition d’un vecteur de V comme la différence de deux points de E:
-1-
Chapitre 1
v= q − p.
La somme de deux points, ainsi que la différence d’un point avec un vecteur, ne sont pas définies.
On revient maintenant à la deuxième propriété:
(u + v)( p) = u( v ( p))
∀ u, v ∈ V et ∀ p ∈ E .
Soit q = v(p), ou q= p + v, et soit r= u(q), ou r= q + u. Alors,
r= p + v + u = p + w,
où w est le vecteur formé par la somme de u et de v. Graphiquement tout cela correspond à la
fameuse règle du parallélogramme:
q
u
v
r
w
p
v
u
Figure 1.2
Remarque: par les propriétés générales d’un espace vectoriel, ou plus simplement
géométriquement, à l'aide de la figure ci-dessus, on a:
v + u = u + v.
En particulier, faire u + v équivaut à faire le chemin pointillé indiqué sur la figure 1.2.
Le vecteur nul o est défini comme la différence de deux points coïncidents. Le vecteur nul est
unique, et il est le seul vecteur tel que
v + o= v
∀ v ∈ V.
Ces deux propriétés du vecteur nul sont très facilement démontrables avec la propriété que l’on a
expliquée ci-dessus.
Un vecteur w tel que
n
w = ∑ ki u i ,
i =1
ki ∈ R, i = 1, 2,..., n ,
est dit être une combinaison linéaire des n vecteurs ui, où les scalaires ki sont les coefficients de la
combinaison. Si, pour un w et pour les n ui donnés il n’existe aucun ensemble de ki tel que la
relation ci-dessus soit satisfaite, alors les n+1 vecteurs w et ui sont dits linéairement indépendants ;
cela signifie qu’il n’est pas possible d’exprimer w comme somme des ui, où, ce qui est la même
chose, que la combinaison linéaire des n+1 vecteurs w et ui peut avoir comme résultat le vecteur nul
si et seulement si tous les coefficients de la combinaison sont des zéros. Dans le cas contraire les
n+1 vecteurs sont dits linéairement dépendants.
La somme de vecteurs ci-dessus peut être écrite en forme abrégée comme
w = ki u i ,
ki ∈ R, i = 1, 2,..., n ;
cette notation est dite aussi somme d’Einstein : dans une somme d’Einstein il faut additionner par
rapport à l’indice saturé, dit aussi indice muet, qui est l’indice répété dans l’expression.
L’utilisation de la somme d’Einstein permet d’alléger la notation et de la rendre plus
compréhensible.
-2-
Chapitre 1
1.3 PRODUIT SCALAIRE, DISTANCE, ORTHOGONALITE
Un produit scalaire est une forme bilinéaire symétrique définie positive. Cette définition doit être
bien comprise, parce qu’elle définit les propriétés, simples et de très grande importance, du produit
scalaire. D’abord, on dit que le produit scalaire est une forme: en mathématique une forme ω est
une application qui opère sur les éléments d’un espace vectoriel, donc sur des vecteurs, pour donner
comme résultat un scalaire. Une forme est bilinéaire si elle opère sur deux vecteurs et si elle est
linéaire par rapport à chaque vecteur. Donc le produit scalaire est une forme ω du type
ω:V×V→R
qu’on indiquera
ω (u,v) = u ⋅ v ∀u, v ∈ V .
Les propriétés de bilinéarité sont évidemment les suivantes :
u·(v+w)= u·v+ u·w
∀ u, v ∈ V,
(u+v)·w= u·w+ v·w
∀ u, v ∈ V,
u·(k v)= (k u)·v= k u·v
∀ u, v ∈ V et ∀ k ∈ R.
Une forme est symétrique si elle commute par rapport aux deux éléments sur lesquels elle opère,
c’est à dire si
u·v= v·u
∀ u, v ∈ V.
Finalement, une forme est définie positive si le scalaire résultant de l’application sur le même
vecteur deux fois est toujours positif pour n'importe quel vecteur, sauf pour le vecteur nul, où le
résultat est zéro:
u·u> 0 ∀ u ∈ V, u·u=0 ⇔ u= o.
Les propriétés listées ci-dessus sont les propriétés essentielles d’un produit scalaire en mécanique
classique; cela signifie que toute forme doit avoir ces propriétés pour être un produit scalaire et que
toute forme qui a ces propriétés est un produit scalaire.
Deux vecteurs u et v sont orthogonaux si et seulement si u·v= 0. On prouve facilement que le
vecteur nul est orthogonal à tout vecteur.
On sait de l'algèbre que l’on peut définir plusieurs normes pour un vecteur, et que dans un espace à
dimension finie elles sont toutes équivalentes. Nous prendrons comme norme d’un vecteur u, notée
|u| ou tout simplement u (lettre non en gras), sa norme euclidienne, définie comme:
u = u = u⋅u
Il faut remarquer qu’une telle opération a toujours un sens grâce à la définition positive du produit
scalaire. La norme a certaines propriétés générales:
u + v ≤ u + v , inégalité triangulaire ou de Minkowsky;
u ⋅ v ≤ u v , inégalité de Schwarz;
ku = k u , k ∈ R .
La distance entre deux points p et q de E est le scalaire non négatif d(p, q) défini par
d(p, q) = |p − q|= |q − p|.
-3-
Chapitre 1
Par extension, la distance entre deux vecteurs u et v de V est la norme des vecteurs différence:
d (u, v ) = u − v = v − u .
On appelle sphère unitaire, et on l’indique avec S2, l’ensemble de tous les vecteurs de V dont la
norme est égale a 1: S2= {v ∈ V V / v=1}.
1.4 BASE DE V
Une base e de V est un ensemble quelconque de trois vecteurs e= {e1, e2, e3} tels que
e i ⋅ e j = δ ij ∀ i, j=1, 2, 3 .
Ici, δij est le delta de Kronecker: δij= 1 si i= j, autrement δij= 0. Donc, par la définition ci-dessus,
une base est composée de trois vecteurs de S2 mutuellement orthogonaux. Une telle base s’appelle
base orthonormée. Bien que l’on puisse introduire des bases de V qui ne sont pas orthonormées (on
sait de l'algèbre que la seule condition pour avoir une base d’un espace vectoriel n-dimensionnel est
d’avoir n vecteurs linéairement indépendants), nous nous bornons à ce type de bases, car elles ont
des avantages considérables en terme de simplicité.
Tout vecteur de V peut être écrit comme combinaison linéaire des vecteurs de la base choisie:
u= ui ei;
dans la définition ci dessus on a utilisé la convention d’Einstein; donc l'écriture ci-dessus signifie
tout simplement que
u= u1 e1+ u2 e2+ u3 e3.
Les scalaires ui sont les composantes cartésiennes du vecteur u; ils sont les coefficients de la
combinaison linéaire qui exprime u en fonction des vecteurs de la base choisie.
1.5 EXPRESSION DU PRODUIT SCALAIRE
Dans une base orthonormée, le produit scalaire a une expression assez simple, qui nous permet de le
calculer ; en fait, par les propriétés de linéarité du produit scalaire, il est :
u·v= ui ei · vj ej= ui vj δij = ui vi= u1v1+ u2v2+ u3v3.
En particulier, il est
u ⋅ ei = uk e k ⋅ ei = uk δ ik = ui
∀i = 1, 2, 3,
à savoir, les composantes cartésiennes d’un vecteurs par rapport à une base donnée, sont le produit
scalaire du vecteur même avec les vecteurs qui composent la base. Géométriquement, ces
composantes sont les projections orthogonales du vecteur sur les vecteurs de la base.
On peut facilement montrer que le produit scalaire ainsi défini, équivaut exactement à l’opération
u·v= u v cos θ,
qui défini aussi l’angle θ entre les deux vecteurs. A remarquer que, par l'inégalité de Schwarz,
|cos θ|≤ 1,
ce qui rend possible la dernière relation écrite ci-dessus.
Un repère cartésien est l’ensemble d’une base orthonormée e et d’un point o, dit origine. On définit
-4-
Chapitre 1
alors coordonnées cartésiennes d’un point p par rapport à un repère donné d’origine o les scalaires
xi = ( p − o) ⋅ ei
i = 1, 2, 3.
1.6 TENSEURS DU SECOND ORDRE
Un tenseur du second ordre L est une transformation linéaire de V en lui-même:
L : V → V / L(u+v)= L u+ L v et L(α u)= α L(u), ∀ α ∈ R et ∀ u, v ∈ V.
Le concept de tenseur est général, et on peut parler de tenseurs de n'importe quel ordre. Toutefois,
on se limitera ici à introduire les tenseurs du second ordre seulement.
Si on définit la somme de deux tenseurs comme
(A + B)v= A v + B v ∀ v ∈ V,
et le produit d'un scalaire par un tenseur comme
(α A)v= α (A v) ∀ α ∈ R et ∀ v ∈ V,
alors l'ensemble des tenseurs Lin (V ) qui opèrent sur V forme un espace vectoriel, dont l'élément
nul est le tenseur, unique, O, dit tenseur nul. Par définition même d’élément nul d’un espace
vectoriel, O est tel que
O v= o ∀ v ∈ V.
Le tenseur identique I est le seul tenseur tel que
I v= v
∀ v ∈ V.
On laisse au lecteur la démonstration du fait que
L o= o
∀ L ∈ Lin(V).
1.7 PRODUIT DYADIQUE
Le produit dyadique de deux vecteurs a et b de V est le tenseur, noté a⊗b, défini par
(a⊗b)v= b·v a,
∀ v ∈ V.
L'application définie ci-dessus est en effet un tenseur du second ordre: en fait, elle opère sur des
vecteurs de V pour donner encore des vecteurs de V; de plus il est facilement démontrable qu'elle
est linéaire. C'est facile de voir que si a ∈ S2, alors le tenseur a⊗a est le tenseur qui, appliqué à v,
en donne la projection sur a, et que le tenseur (I − a⊗a) donne le vecteur perpendiculaire à a.
1.8 COMPOSANTES CARTESIENNES D'UN TENSEUR DU SECOND ORDRE
Si e= {e1, e2, e3} est une base de V, on montre alors que e2= {ei⊗ej, i, j= 1, 2, 3} est une base de
l'espace vectoriel Lin(V). Elle est composée de neuf tenseurs distincts. Donc chaque tenseur du
deuxième ordre peut être écrit comme une combinaison linéaire des éléments de e2 ; les coefficients
de cette combinaison linéaire sont les neuf composantes cartésiennes du tenseur.
En général, on peut donc poser
L= Lij ei⊗ej, i, j= 1, 2, 3,
où les neuf quantités Lij, sont les composantes cartésiennes de L dans la base e de V. Par les
-5-
Chapitre 1
propriétés de linéarité des tenseurs et du produit scalaire, on a
Lij= ei · L ej, i, j= 1, 2, 3;
en fait:
ei ⋅ Le j = ei ⋅ Lhk e h ⊗ e k e j = Lhk ei ⋅ e h ⊗ e k e j =
= Lhk ei ⋅ e h e k ⋅ e j = Lhk δ kjδ ih = Lij .
Par exemple, pour les composantes d'une dyade on a
(a⊗b)ij= ei · (a⊗b) ej= b·ej a·ei= ai bj.
Chaque tenseur L peut être représenté dans une base par une matrice 3×3, dont les éléments sont les
neuf composantes cartésiennes de L:
 L11
L =  L21
 L31
L12
L22
L32
L13 
L23  .
L33 
On peut maintenant spécifier les composantes d'un vecteur résultat de l'application d'un tenseur sur
un autre vecteur:
Lv = Lij (ei ⊗ e j )(v k e k ) = Lijv k (ei ⊗ e j )e k = Lijv kδ jk ei = Lijv j ei .
Cette formule équivaut à l’application d'une matrice 3×3 sur un vecteur colonne 3×1.
1.9 PRODUIT TENSORIEL
Pour tout couple de tenseurs A et B ∈ Lin(V), on a
(A B) v= A (B v) ∀ v ∈ V.
Cette formule définit la composition de deux tenseurs, ou produit tensoriel. On peut facilement
montrer que le produit tensoriel a la propriété suivante:
[A (L + M)]= A L + A M, ∀ A, L, M ∈ Lin(V).
Il faut remarquer que, en général, le produit tensoriel ne commute pas, à savoir:
AB ≠ BA .
Un problème est le suivant: si L= A B, quelles sont les composantes de L, connaissant celles de A
et de B? Le résultat, dont on laisse au lecteur la simple démonstration, est le suivant:
Lij= Aik Bkj,
c'est tout simplement la règle de multiplication lignes par colonnes de deux matrices carrées.
Nous indiquerons avec le symbole U2 le produit tensoriel UU. On laisse au lecteur le soin de
vérifier les propriétés suivantes:
∀ a, b, c et d ∈ V,
(a⊗b)(c⊗d)= b·c(a⊗d)
A (a⊗b)= (A a)⊗b
∀ a, b ∈ V et ∀ A ∈ Lin(V).
1.10 TRANSPOSE D'UN TENSEUR
Pour tout tenseur L, il existe un et seulement un tenseur LT, appelé transposé de L, tel que:
-6-
Chapitre 1
u · L v= LT u · v,
∀ u, v ∈ V.
En outre
u · L v= LT u · v= v · LT u = (LT)T v · u= u · (LT)T v ⇒ (LT )T = L.
Cherchons maintenant les composantes cartésiennes de LT:
( LT ) ij = e i ⋅ LT e j = ( LT ) T e i ⋅ e j = e j ⋅ Le i = L ji ;
cette règle nous dit tout simplement que la matrice représentative de LT est la matrice transposée de
la matrice représentante L.
Un bon exercice est de montrer les propriétés suivantes du tenseur transposé (A et B ∈ Lin(V), a et
b ∈ V, α ∈ R):
(α A)T= α AT,
(a⊗b)T= b⊗a,
(A + B)T= AT + BT,
(A B)T= BT AT,
(a⊗b) A= a⊗(AT b).
1.11 TENSEURS SYMETRIQUES ET ANTISYMETRIQUES
Un tenseur L est symétrique si L= LT. Dans ce cas, on a que
Lij= (LT)ij et (LT)ij= Lji ⇒ Lij= Lji,
ce qui signifie que la matrice représentative du tenseur est, elle aussi, symétrique et qu'un tenseur
symétrique n'a que six composantes distinctes.
Un tenseur L est antisymétrique (skew en anglais) si L= −LT. Dans ce cas, on a que
(LT)ij = −Lij et (LT)ij= Lji ⇒ Lji= −Lij, → Lii= −Lii ⇒ Lii=0
ce qui signifie que la matrice représentative du tenseur est, elle aussi, antisymétrique et qu'un
tenseur antisymétrique n'a que trois composantes distinctes, étant nulles les composantes sur la
diagonale.
Chaque tenseur L peut être décomposé dans la somme de deux tenseurs,
L = L1 + L 2 ,
avec
1
L1 = (L + LT ),
2
1
L 2 = (L − LT ).
2
Il est évident que L1 est symétrique et L2 antisymétrique. Nous indiquerons dans la suite avec
Sym(V) l’ensemble de tous les tenseurs symétriques, et avec Skw(V) celui des tenseurs
antisymétriques. On peut montrer que la dimension de l’espace Sym(V) est 6 et que celle de
l’espace Skw(V) est 3.
-7-
Chapitre 1
1.12 TRACE D'UN TENSEUR
Il existe une et une seule forme linéaire
tr : Lin(V) → R,
appelée trace, telle que
tr (a ⊗ b) = a ⋅ b ∀ a, b ∈ V.
La trace est donc un nombre réel "extrait" d'un tenseur; de plus, nous n'avons pas parlé de base lors
de sa définition : la trace est donc un invariant tensoriel. Les invariants tensoriels sont des
quantités, dépendantes du tenseur, qui ne changent pas si on change la base dans laquelle le tenseur
est représenté. Il faut remarquer qu'on a défini la trace comme une forme linéaire; cela signifie que
tr ( A + B) = tr A + tr B ∀ A, B ∈ Lin(V ),
tr (α A) = α tr A ∀ α ∈ R et ∀ A ∈ Lin(V ).
On laisse au lecteur la simple démonstration des propriétés suivantes de la trace:
tr L = Lii ,
tr LT = tr L,
tr W = 0 ∀ W ∈ Lin(V ) / W = − W T ,
tr I = 3,
tr O = 0,
tr ( AB) = tr (BA ).
1.13 PRODUIT SCALAIRE DE TENSEURS
Le produit scalaire entre tenseurs est la forme bilinéaire, symétrique et définie positive suivante:
A ⋅ B = tr ( A T B) .
Grâce à la définition de trace et à ses propriétés, on peut aisément vérifier que l'opération définie cidessus est effectivement un produit scalaire, c'est-à-dire qu'elle possède les propriétés énoncées:
A ⋅ (B + C) = A ⋅ B + A ⋅ C,
∀A, B, C ∈ Lin(V ), α ∈ R ,
( A + B) ⋅ C = A ⋅ C + B ⋅ C,
(α A ) ⋅ B = A ⋅ (α B) = α ( A ⋅ B),
A·B= B·A ∀A, B ∈ Lin(V ) ,
A·A≥ 0 ∀ A ∈ Lin( V ), A·A= 0 ⇔ A= O .
Le lecteur est invité à démontrer les propriétés suivantes (A, B, C, L ∈ Lin(V) ):
A⋅B= AijBij ,
i, j= 1, 2, 3,
AT·BT= A⋅B,
si A= AT et B= −BT alors A·B= 0,
si A= AT alors A·L= A·L1 ∀ L ,
si A= −AT alors A·L= A·L2 ∀ L ,
-8-
Chapitre 1
tr A= I·A ,
AB·C= A·CBT= B·ATC ,
(a⊗b)·(c⊗d)= a·c b·d ∀ a, b, c et d ∈ V.
On définit norme euclidienne d’un tenseur L le scalaire positif
L = L ⋅ L = tr ( LT L) = Lij Lij .
Par analogie avec les points et le vecteurs, on appelle distance d(L, M) entre deux tenseurs L et M
la norme des tenseurs différence:
d (L, M ) = L − M = M − L .
1.14 DETERMINANT D'UN TENSEUR
Il existe une façon intrinsèque, qui ne sera pas introduite ici parce qu’elle nécessite de l'introduction
des formes trilinéaires, de définir le déterminant d'un tenseur. Des résultats fondamentaux sont
toutefois les suivants: le déterminant d'un tenseur est un invariant du tenseur même, et il coïncide
avec le déterminant de la matrice qui représente le tenseur dans une base quelconque. Comme le
calcul du déterminant d'une matrice 3×3 est une opération assez simple, le problème de la recherche
du déterminant d'un tenseur peut se dire résolu.
Pour le déterminant, on a les propriétés suivantes, de simple démonstration:
det O= 0,
det I= 1,
det (α L)= α3 det L ∀ α ∈ R, L ∈ Lin(V),
det AT= det A ∀ A ∈ Lin(V),
det W= 0 ∀ W ∈ Lin(V) / W= −WT,
det (a⊗b)= 0 ∀ a, b ∈ V.
Un autre résultat très important, dont la démonstration nécessite encore de l'introduction des formes
trilinéaires, est le
Théorème de Binet: ∀ A, B ∈ Lin(V), il est
det AB= det A det B.
1.15 VALEURS ET VECTEURS PROPRES D'UN TENSEUR
S'il existe un nombre λ ∈ R et un vecteur v ∈ V \ {o} tels que
Lv=λv
alors λ s'appelle valeur propre et v vecteur propre, relatif à λ, de L. En fait, dans le cas d'un vecteur
propre, la relation ci-dessus nous dit que le vecteur est transformé par le tenseur en un autre vecteur
qui lui est toujours parallèle, avec rapport entre les normes, après et avant transformation, égale à
|λ|. Il est évident que si v est vecteur propre de L, alors kv l'est aussi, ∀k ∈ R. En effet, un vecteur
propre est déterminé à un facteur près. Une façon conventionnelle de fixer ce facteur, est de le
choisir en sorte que la norme du vecteur propre soit 1.
-9-
Chapitre 1
Les valeurs et vecteurs propres jouent un rôle fondamental dans plusieurs problèmes, et leur
recherche est donc une opération très importante. Pour ce faire, on écrit la relation ci-dessus dans la
forme équivalente
(L−λI) v= o;
celui-ci est un système de trois équations scalaires dont les inconnues sont les trois composantes de
v. Le système est homogène, et donc la seule solution possible, si la matrice du système n'est pas
singulière, est le vecteur nul (solution triviale). Mais si la matrice du système est singulière, c'est-àdire si
det (L−λI)= 0
alors d'autres solutions sont possibles. L'équation écrite ci-dessus est une équation algébrique de
troisième degré, dite équation de Laplace ou caractéristique. Elle ne possède que trois solutions,
toutes réelles ou une réelle et deux complexes conjuguées, qui sont les trois valeurs propres de L.
Donc la recherche des valeurs propres d'un tenseur de deuxième ordre passe par la solution de
l'équation de Laplace. Pour trouver le vecteur propre correspondant à une valeur propre, il suffit
d'injecter dans le système linéaire homogène ci-dessus la valeur propre trouvée à la place de λ.
On appelle espace propre de L relatif à λ le sous-espace de V composé par tous les vecteurs v qui
satisfont l’équation L v = λ v; on appelle multiplicité de λ la dimension de son espace propre et
spectre de L l’ensemble des toutes ses valeurs propres, chacune avec sa multiplicité.
Un tenseur a les mêmes valeurs propres de son transposé, mais pas forcement ses mêmes vecteurs
propres. En fait :
(
)
(
)
det LT − λI = det LT − λI T = det (L − λI ) = det (L − λI ) ,
T
donc l’équation de Laplace est la même pour L et pour LT, ce qui implique que les valeurs propres
sont les mêmes ; un exemple quelconque montre que ce n’est pas ainsi pour les vecteurs propres.
On peut montrer que
det (L − λI ) = −λ3 + I1λ2 − I 2 λ + I 3 ,
avec I1, I2, I3 les trois invariants principaux de L, définis par
I1 = tr L,
[
]
1
(tr L )2 − tr L2 ,
2
I 3 = det L.
I2 =
Grâce aux invariants tensoriels on peut exprimer le déterminant d'un tenseur plus l'identité; on peut
en fait démontrer que:
det(I + αA) = 1 + αI1 + α 2 I 2 + α 3 I 3
∀α ∈ R .
Théorème de Cayley-Hamilton: chaque tenseur L satisfait sa propre équation caractéristique :
L3 − I1L2 + I 2L − I 3I = O .
Pour un tenseur L donné, une expression du type
v ⋅ Lv
s’appelle forme quadratique définie par L. Si
v ⋅ Lv > 0 ∀v ∈ V \ {o} ,
- 10 -
Chapitre 1
la forme et le tenseur sont dits définis positifs. Un résultat important est que les valeurs propres d’un
tenseur défini positif sont strictement positives. En fait, soit λ une valeur propre d’un tenseur L
défini positif, et soit u un vecteur propre correspondant. Alors
u ⋅ Lu = u ⋅ λu = λu 2 > 0 ⇔ λ > 0.
Un autre résultat fondamental est le suivant : deux vecteurs propres v1 et v2 d'un tenseur symétrique,
relatifs à deux valeurs propres distinctes λ1 et λ2, sont orthogonaux entre eux ; en fait
λ1v1·v2=Lv1·v2= v1·LTv2= v1·Lv2= v1·λ2v2= λ2v1·v2,
et étant λ1≠ λ2, ceci est vrai ⇔ v1·v2= 0.
En effet, parmi tous les tenseurs de second ordre, les tenseurs symétriques occupent une position
particulière, grâce au
Théorème spectral: si L= LT, il existe une base de V composée de seuls vecteurs propres de L.
Ce théorème, dont on ne donnera pas la démonstration, est un théorème de très grande importance
en mécanique, et ses implications sont multiples:
• les valeurs propres d'un tenseur symétrique sont toutes réelles;
• les vecteurs propres constituent une base orthonormée de V; ceci signifie qu'il existe au moins
une base de V qui est transformée par L en trois vecteurs encore orthogonaux entre eux et
parallèles aux vecteurs d'origine; cette base est la base normale;
• dans sa base normale, chaque tenseur symétrique est représenté par (décomposition spectrale)
L = λi ei ⊗ ei ,
et donc par la matrice diagonale
λ1 0
L =  0 λ2
 0 0
0
0  .
λ3 
En fait, dans une base normale,
Lij = e i ⋅ Le j = e i ⋅ λ j e j = λ jδ ij ⇒ L = Lij e i ⊗ e j = λj δij ei⊗ej= λi ei ⊗ ei;
donc, un tenseur symétrique dans sa base normale est diagonal, et ses composantes sont ses valeurs
propres. On peut aussi remarquer que, si L= LT,
I1 = λ1 + λ2 + λ3 ,
I 2 = λ1λ2 + λ2λ3 + λ3λ1 ,
I 3 = λ1λ2λ3 .
Un tenseur symétrique qui a une seule valeur propre, de multiplicité 3, est dit sphérique; il est
évidemment
L= λI,
et l’espace propre de λ a dimension 3 et c’est V même. Chaque base orthonormée est alors une base
normale pour L.
Deux tenseurs A et B sont coaxiaux s’ils ont les mêmes vecteurs propres. Ceci signifie que B laisse
chaque espace propre de A invariant, c’est-à-dire que si u appartient à un quelque espace propre de
A, le vecteur Bu lui appartient encore ou, ce qui est la même chose, que si u est vecteur propre de
- 11 -
Chapitre 1
A, même Bu est vecteur propre de A et relatif à la même valeur propre. On a alors le
Théorème de commutation: soient A et B ∈ Lin(V ). Alors AB = BA ⇔ A et B sont coaxiaux.
1.16 TENSEURS ANTISYMETRIQUES ET PRODUIT VECTORIEL
Nous avons déjà vu que la dimension de l’espace vectoriel Skw(V) des tenseurs antisymétriques est
3, tout comme celle de V. Il y a donc une bijection entre vecteurs et tenseurs antisymétriques, c’està-dire qu’à chaque vecteur on peut associer de façon univoque un tenseur antisymétrique, et viceversa; voyons alors comment. Introduisons d’abord le
Théorème: si W ∈ Skw(V)\{O} son spectre est {0} et son espace propre a dimension 1.
En fait, soit u un vecteur propre de W relatif à la valeur propre λ:
Wu = λu ;
alors:
λ2u 2 = Wu ⋅ Wu = u ⋅ W T Wu = −u ⋅ WWu =
= −u ⋅ W(λu) = −λu ⋅ Wu = −λ2u 2
⇔ λ = 0.
La seule valeur propre réelle d’un tenseur antisymétrique est donc le 0. On peut alors construire le
vecteur propre u de W: soit
 0 −c b 
0 − a  ;
W =  c
− b a
0 
étant det W=0 et le rang de W au moins égal à 2 (car W≠O), le système linéaire homogène
Wu = o
admet ∞ solutions, c’est-à-dire que λ=0 est valeur propre de multiplicité 1, ou, ce qui est la même
chose, que l’espace propre de λ=0 a dimension 1. C’est facile de constater que la solution non
triviale de ce système homogène est
1
u = (a, b, c) .
Si l’on pose en plus que dans le cas W=O le vecteur correspondant est le vecteur nul, la bijection
entre vecteurs et tenseurs antisymétriques est alors bien établie.
L’espace propre de W est souvent appelé l’axe de W, indiqué par A(W):
A ( W ) = {u ∈ V : Wu = o} ;
il est simple de vérifier qu’il y a deux vecteurs opposés de A(W) tels que
w⋅w =
1
W⋅W ,
2
et que en fait w= ±u, étant u= (a, b, c) le vecteur trouvé ci-dessus. Choisir un de ces deux vecteurs
revient à établir une orientation de l’espace; nous reviendrons dans la suite sur ce point, mais on
peut dire d’ores et déjà que notre choix sera unique. Ceci équivaut évidemment à choisir un vecteur
parmi les deux opposés de A(W). Ce vecteur s’appellera le vecteur axial de W. Cette bijection fait
donc correspondre à tout vecteur u= (a, b, c) un tenseur antisymétrique, son tenseur axial, défini
par
- 12 -
Chapitre 1
 0 −c b 
0 − a  ,
W =  c
− b a
0 
et vice-versa, à tout tenseur anti-symétrique son vecteur axial.
Une propriété importante de tout tenseur antisymétrique W est la suivante :
WW = −
1
2
W (I − w ⊗ w ) ,
2
où w est le vecteur axial associé au tenseur W; à se rappeler que le tenseur I−w⊗w est le tenseur
qui donne la projection d’un vecteur sur le plan orthogonal au vecteur w. On laisse au lecteur le
soin de démontrer cette dernière proposition, avec la suggestion d’écrire w et W dans une base dont
w est l’un des éléments. Finalement, si w1 et w2 sont deux vecteurs dont les tenseurs axiaux sont W1
et W2, on a que
w1 ⋅ w 2 =
1
W1 ⋅ W2 ,
2
ce qui généralise une relation donnée ci-dessus.
On définit produit vectoriel de deux vecteurs a et b de V le vecteur
a ∧ b = Wa b ,
où Wa est le tenseur axial de a. Le produit vectoriel se réduit donc à une simple opération
tensorielle, ou si l’on veux matricielle (produit lignes colonnes): si a= (a1, a2, a3) et b= (b1, b2, b3),
alors
 0
a ∧ b =  a3
− a2
− a3
0
a1
a2  b1   a2b3 − a3b2 
  

− a1  b2  =  a3b1 − a1b3  .
0  b3   a1b2 − a2b1 
Le produit vectoriel a certaines propriétés, dont on laisse au lecteur la démonstration:
u∧(v+ w)= u∧v+ u∧w,
(u+ v)∧w= u∧w+ v∧w,
bilinéarité ;
u∧(k v)= (k u)∧v= k u∧v,
u∧v= −v∧u,
antisymétrie ;
a∧b= o ⇔ a= k b, k ∈ R
a∧b·a= a∧b·b= 0,
a∧(b∧c)= a·c b − a·b c,
condition de parallélisme ;
orthogonalité du vecteur produit ;
double produit vectoriel ;
a∧b·c= c∧a·b= b∧c·a,
produit mixte .
Une autre propriété importante est que le produit vectoriel a ∧ b est le vecteur axial du tenseur
(b ⊗ a − a ⊗ b) ; c’est cette propriété qui permet, en effet, de démontrer l’antisymétrie du produit
vectoriel, la formule du double produit vectoriel et du produit mixte. On laisse aussi au lecteur la
vérification que le produit mixte équivaut au déterminant de la matrice
- 13 -
Chapitre 1
 a1
b
 1
 c1
a2
b2
c2
a3 
b3  .
c3 
En utilisant les formules ci-dessus, cherchons à présent la norme d’un produit vectoriel :
( a ∧ b ) ⋅ (a ∧ b ) = a ∧ b ⋅ ( a ∧ b ) = (a ∧ b ) ∧ a ⋅ b = − a ∧ ( a ∧ b ) ⋅ b =
= [ − a ⋅ b a + a 2 b ] ⋅ b = b ⋅ [a 2 I − a ⊗ a ] b = a 2 ( b ⋅ [ I − e a ⊗ e a ] b ) =
= a 2 b 2 (e b ⋅ [ I − e a ⊗ e a ] e b ) = a 2 b 2 (1 − cos 2 θ ) = a 2 b 2 sin 2 θ ;
dans la formule ci-dessus, ea et eb sont les vecteur unitaires qui donnent la direction de a et b
respectivement, alors que θ est l’angle formé par les deux vecteurs. Finalement,
|a∧b|= |a| |b| sin θ,
Géométriquement, ce résultat montre que la norme du produit vectoriel est l’aire du
parallélogramme délimité par les deux vecteurs du produit. La valeur absolue du produit mixte a
alors une simple interprétation géométrique: elle est le volume du prisme qui a pour arêtes les trois
vecteurs.
1.17 ORIENTATION D'UNE BASE
C'est immédiat de voir que V, ainsi qu'une base de V, peut être orientée de deux façons différentes;
on dira alors que la base e= {e1, e2, e3} est orientée positivement (right-handed en anglais) si
e1∧e2·e3= 1;
Géométriquement, cela signifie qu'une base est orientée positivement si les axes sont comme ceux
de la figure 1.3. Au contraire, une base pour laquelle
e1∧e2·e3= −1,
est dite orientée négativement (left-handed en anglais); une telle base serait par exemple celle de la
figure 1.3 avec l'axe e3 pointillé. Dans la suite, nous considérerons toujours des bases orientées
positivement ; ceci implique, d’après la définition, que les tenseurs axiaux des vecteurs d’une base
sont
pour e1 : e3 ⊗ e 2 − e 2 ⊗ e3 ;
pour e 2 : e1 ⊗ e3 − e3 ⊗ e1;
pour e3 : e 2 ⊗ e1 − e1 ⊗ e 2 .
e3
e2
e1
Figure 1.3
1.18 TENSEUR INVERSE
Un tenseur L est inversible s'il existe un tenseur L− 1, dit le tenseur inverse de L, tel que
- 14 -
Chapitre 1
LL− 1= L− 1L= I.
Démontrer que le tenseur inverse est unique est une tâche très simple, qu'on laisse au lecteur. Une
propriété importante est qu’un tenseur inversible transforme trois vecteurs u, v et w de V
linéairement indépendants en trois vecteurs u1, v1 et w1 qui sont encore linéairement indépendants.
En fait, supposons par l'absurde que ce soit u1= k v1+h w1, k, h ∈ R. Alors
L− 1 u1= u= L− 1(k v1+h w1)= k L− 1v1+h L− 1w1 = k v+ h w,
ce qui est contre l'hypothèse, et donc u1, v1 et w1 sont linéairement indépendants.
Grâce au théorème de Binet on montre aisément que
det L− 1= (det L)− 1 ;
et en s'appuyant sur ces deux derniers résultats, on peut montrer le
Théorème d'inversibilité: un tenseur L est inversible ⇔ det L≠ 0.
Un tenseur symétrique défini positif est donc toujours inversible. Les propriétés qui suivent sont
laissées à démontrer au lecteur:
(AB)− 1= B− 1A− 1,
(L− 1)− 1= L,
(L− 1)T= (LT)− 1 (:= L− T),
(α L)− 1= α− 1L− 1, ∀ α ∈ R.
Une autre propriété, dont la démonstration nécessite de concepts qui n'ont pas étés introduits ici, est
la suivante:
L u ∧ L v · L w= det L (u ∧ v · w).
Cette relation, avec l'interprétation géométrique qu'on avait donnée du produit mixte, nous dit que
la valeur absolue du déterminant d'un tenseur est comme un coefficient de variation volumique du
prisme, coefficient qui mesure le rapport entre le volume après et avant la transformation
tensorielle. Si L n'est pas inversible, pour le théorème d'inversibilité on a que det L= 0, et alors
après l'application de L le prisme est transformé en un prisme de volume nul, c'est-à-dire en un
parallélogramme (interprétation géométrique du fait que les trois vecteurs initialement linéairement
indépendants ont étés transformés en trois vecteurs linéairement dépendants).
Une conséquence immédiate de la dernière formule est que
L u ∧ L v = L*(u ∧ v),
où (pour les tenseurs à déterminant positif)
L* = det L L− T ,
est le tenseur ajoint ou cofacteur de L. On peut démontrer que
det( A + B) = det A + A * ⋅B + A ⋅ B * + det B.
1.19 CHANGEMENT DE BASE
Souvent il faut changer la base de V, et donc on se pose le problème de trouver les nouvelles
composantes cartésiennes d'un vecteur ou d'un tenseur. D'abord, comment transformer une base en
une autre base? Cette opération présuppose que dans la transformation la norme des vecteurs est
conservée, ainsi que l'angle formé par deux vecteurs quelconques et l'orientation de l'espace. Les
- 15 -
Chapitre 1
tenseurs qui conservent les angles s’appellent orthogonaux : l’angle entre deux vecteurs
quelconques u et v se conserve dans la transformation :
Qu ⋅ Qv = u ⋅ v ,
voire, par la définition de transposé,
u ⋅ Q T Qv = u ⋅ v ,
d’où la condition qui caractérise les tenseurs orthogonaux :
QT Q= Q QT= I.
Si l’on prends v= u on constate immédiatement qu’un tenseur orthogonal conserve aussi la norme.
Par l'unicité du tenseur inverse, les tenseurs orthogonaux sont les seuls pour lesquels transposé et
inverse coïncident:
QT= Q− 1.
Du théorème de Binet et de l'avant-dernière relation on tire
det Q= ±1;
on voit bien alors, grâce à
L u ∧ L v · L w= det L (u ∧ v · w),
que pour avoir une transformation de base qui conserve l'orientation, il faut que ce soit
det Q= +1.
Les tenseurs orthogonaux qui ont le déterminant égale à 1 sont donc les seuls qui peuvent opérer
une transformation de base; un tel tenseur est appelé rotation propre, ou tout simplement rotation,
pour le distinguer d’un tenseur rotation impropre, qui correspond à un tenseur orthogonal avec
déterminant égal à −1.
Cherchons donc le tenseur rotation Q qui opère la transformation de la base e= {e1, e2, e3} dans la
base e'= {e'1, e'2, e'3}; par définition,
e'j= Q ej, j=1, 2, 3,
et alors
Qij= ei· (Q ej)= ei · e'j.
Cette dernière égalité nous dit que la j-ème colonne de Q est le vecteur j-ème de la base e', le tout
exprimé dans la base e.
Revenons maintenant à la question originelle: comment changent-elles les composantes
cartésiennes d'un vecteur ou d'un tenseur, lors d'un changement de base? Commençons avec les
vecteurs: on a les composantes vi d'un vecteur v dans la base e, on cherche les composantes v'i dans
la base e'. Alors:
v'i= v·e'i= v·Q ei= QTv·ei,
et si on appelle v' le vecteur v "vu" dans la base e', on a donc que
v'= QTv.
Si on veut expliciter les composantes v 'i, on trouve aisément que
v 'i= v j e'ij,
où e'ij est la j-ème composante du vecteur e'i de la base e', exprimé dans la base e (par exemple,
- 16 -
Chapitre 1
v '1= vj e'1j= v 1 e'11+ v 2 e'12+ v 3 e'13).
Pour les tenseurs on suit la même démarche:
L'ij= e'i·Le'j= Q ei·LQ ej= ei·QTLQ ej,
et donc si on appelle L' le tenseur L "vu" dans le nouveau repère, on a
L'= QTLQ.
Pour expliciter les composantes L'ij, on peut faire comme ça:
L'ij= e'i·Le'j= e'i·(Lhk eh⊗ek)e'j= Lhk e'i·(eh⊗ek)e'j= Lhk e'i·eh e'j·ek ⇒
L'ij= Lhk e'ih e'jk.
Par exemple,
L'12 = L11 e'11 e'21+ L12 e'11 e'22+ L13 e'11 e'23+
+ L21 e'12 e'21+ L22 e'12 e'22+ L23 e'12 e'23+
+ L31 e'13 e'21+ L32 e'13 e'22+ L33 e'13 e'23.
Les relations de transformation des composantes d'un vecteur ou d'un tenseur par rotation de base
sont des lois fondamentales, qui caractérisent les vecteurs et les tenseurs du deuxième ordre.
Une autre propriété des rotations est celle d’avoir la valeur propre +1 pour les rotations propres et
–1 pour les impropres. En fait, si u est un vecteur propre de la rotation Q relatif à la valeur propre λ,
il est, en considérant que Q conserve la norme,
Qu ⋅ Qu = λ2 u2 = u2
⇔
λ2 = 1 .
Donc les valeurs propres d’une rotation ont la norme égale à 1, mais on ne peut encore dire si ces
valeurs propres sont réelles ou imaginaires. Toutefois, on peut sans doute affirmer qu’au moins une
valeur propre est réelle. En fait, l’équation caractéristique est du type
f ( λ ) = λ3 + k1λ2 + k2λ + k3 = 0,
avec les coefficients ki réels, parce que Q a composantes réelles. Mais on constate facilement que
lim f ( λ ) = ±∞ ,
λ → ±∞
et alors par le théorème des zéros d’une fonction continue réelle, comme c’est le cas pour le
polynôme f(λ), il existe au moins une valeur λ1 réelle telle que
f ( λ1 ) = 0 .
D’ailleurs, on a toujours que
det Q = λ1λ2λ3 ,
où les λi sont les valeurs propres, réelles ou complexes, de Q, et en plus on sait déjà que
det Q= ±1;
par conséquent, seulement deux sont les cas possibles :
i.
λ1 est réelle et les deux autres sont complexes conjuguées, λ2= λ3* ;
ii. les trois valeurs propres λi sont réelles .
Considérons alors une rotation propre, pour laquelle
- 17 -
Chapitre 1
det Q= 1 :
alors, pour avoir un déterminant positif, dans le premier cas ci-dessus, la seule valeur propre réelle
doit être positive. En fait
det Q = λ1λ2 λ3 = λ1λ*3λ3 = λ1[ Re2 ( λ3 ) + Im2 ( λ3 )] ,
quantité qui est positive si et seulement si λ1 est positive aussi. En plus, on a déjà montré que la
norme d’une valeur propre d’un tenseur rotation est +1, et donc, étant la quantité entre crochets le
carré de la norme du nombre complexe λ3, elle vaut +1, ce qui comporte, pour avoir un déterminant
égal à +1, que
λ1 = +1 .
Dans le deuxième cas, les trois valeurs propres sont soit toutes positives, soit une positive et les
deux autres négatives ; la condition que la norme de chaque valeur propre soit égale à +1 nous
amène alors à dire que même dans ce cas une valeur propre au moins est +1 (ou toutes les trois, ce
qui implique Q= I).
C’est immédiat que la même démarche appliquée à un tenseur rotation impropre amène à affirmer
qu’un tel tenseur à toujours au moins une valeur propre réelle égale à –1, car dans ce cas il est
det Q= −1.
Une rotation impropre particulière, qui a toutes les valeurs propres égales à –1, est le tenseur
inversion ou réflexion :
S = −I .
C’est évident que l’effet de S est celui de transformer une base quelconque en une base qui a les
axes changés d’orientation, ou, ce qui est la même chose, de changer le signe des composantes d’un
vecteur, et donc l’orientation de l’espace, comme tout tenseur rotation impropre. En effet, si on a
une rotation impropre Qi, on peut toujours la décomposer, grâce au théorème de Binet, en une
rotation propre plus une réflexion:
Qi = SQ p ,
où Qp est une rotation propre. Considérons alors une rotation impropre, et comment le produit
vectoriel entre deux vecteurs u et v se modifie à la suite de l’application de la transformation : par
les relations ci-dessus, la dernière équation du paragraphe précédent et les formules d’inversion et
transposition d’un produit tensoriel, ainsi que le théorème de Binet et les propriétés des tenseurs
orthogonaux, on a
[
]
T
Qi u ∧ Qi v = SQ p u ∧ SQ p v = det(SQ p ) (SQ p ) −1 ( u ∧ v ) =
[
]
T
[
]
T
= det S det Q p Q−p1S −1 ( u ∧ v ) = − − Q−p1I ( u ∧ v ) = Q p ( u ∧ v ).
Considérons maintenant le transformé d’un vecteur quelconque:
Qi u = SQ p u = − IQ p u = −Q p u ,
d’où on voit que le vecteur résultat du produit vectoriel de deux vecteurs ne change pas de signe à
la suite d’une rotation impropre, comme au contraire tous les vecteurs. Cela signifie que le produit
vectoriel est insensible à l’opération de réflexion; c’est pour ça qu’un produit vectoriel, à la rigueur,
n’est pas un vecteur, mais ce qu’on appelle un pseudovecteur, à signifier qu’il se comporte comme
tous les vecteurs, sauf pour une transformation particulière, celle de réflexion. Le produit mixte
représente en effet un pseudoscalaire, parce que lui, pour les mêmes raisons, il change de signe à la
- 18 -
Chapitre 1
suite d’une opération de réflexion sur les trois vecteurs (d’ailleurs, si on se rappelle que le produit
mixte équivaut au déterminant de la matrice ayant par lignes les trois vecteurs, un changement de
signe des vecteurs entraîne immédiatement le changement de signe du déterminant, voir aussi les
propriétés du déterminant, paragraphe 1.14).
1.20 THEOREMES DE LA RACINE CARREE ET DE DECOMPOSITION POLAIRE.
Nous avons déjà vu trois types de décomposition tensorielle:
L= Lij ei⊗ej,
L = L1 + L 2 ,
L = λi ei ⊗ ei
représentation par dyades
1
1
avec L1 = (L + LT ), L 2 = (L − LT ) ,
2
2
décomposition spectrale, valable au moins pour L ∈ Sym(V ) .
Chacune de ces décompositions est utile dans certaines circonstances, mais d’autres décompositions
sont possibles dans certains cas. Citons par exemple les deux théorèmes suivants (voir M. E. Gurtin,
An introduction to continuum mechanics, Academic Press, 1981) :
Théorème de la racine carrée : soit C∈Sym(V) et défini positif ; alors il existe un seul tenseur
U∈Sym(V) et défini positif tel que
C = U2 ;
nous écrivons alors que
C =U.
Théorème de décomposition polaire: soit F∈Lin(V) et det F>0. Alors il existe deux tenseurs
symétriques et définis positifs U et V et un tenseur rotation R tels que
F = RU décomposition polaire droite;
F = VR décomposition polaire gauche;
chacune de ces deux décompositions est unique et il est
U = FTF ,
V = FF T .
- 19 -
Chapitre 2
ELEMENTS D’ANALYSE TENSORIELLE
2.1 COURBES, CHAMPS, DEFORMATIONS
Dans ce chapitre on va généraliser aux espaces E, V et Lin(V) des concepts déjà connus pour les
fonctions en R; ceci nous amènera à l’introduction de certaines règles pour définir d’abord et
calculer ensuite les dérivées et les intégrales de fonctions définies dans ces espaces, ainsi qu’à
l’introduction de certains opérateurs et théorèmes indispensables en mécanique de milieux continus.
On considère que le lecteur est familier avec les notions fondamentales de l’analyse de fonctions
réelles.
Les produits scalaires en V et en Lin(V) nous permettent de définir une norme, la norme
euclidienne, et donc engendrent automatiquement une métrique sur ces espaces (concrètement, nous
sommes en mesure de définir et calculer une distance entre deux éléments de ces espaces) et sur E
aussi (par la définition de distance entre deux points). Cette circonstance nous donne la possibilité
de généraliser le concept de continuité et différentiabilité déjà connus en R, et dont la définition fait
intrinsèquement appel à une distance entre quantités réelles.
Soit {pn ∈ E , n ∈ N} une séquence de points dans E; nous disons que cette séquence converge au
point p de E si
lim d ( pn , p) = 0 .
n→∞
Une définition analogue peut être donnée pour une séquence de vecteurs et de tenseurs. Cette notion
de convergence nous permet maintenant de définir la notion de continuité et de courbe.
Soit [a ,b] un intervalle de R : la fonction p : [a, b] → E est continue en t∈[a ,b] si, pour chaque
séquence {tn ∈ [a, b], n ∈ N} qui converge vers t, la séquence {pn ∈ E , n ∈ N} définie par
pn = p(t n ) ∀n ∈ N
converge vers p(t ) ∈ E . La fonction p= p(t) est une courbe en E si elle est continue ∀t∈[a ,b]. De
façon totalement analogue, on définit une courbe vectorielle v = v(t ), v : [a, b] → V , et tensorielle
L = L(t ), L : [a, b] → Lin(V ) . Il faut remarquer que, d’un point de vue mathématique, une courbe
ce n’est rien d’autre qu’une fonction qui fait correspondre à des valeurs sur un intervalle réel des
points dans l’espace image, E, V ou Lin(V); elle ne dépend donc que d’une seule variable
indépendante, t. Concrètement, une courbe est une fonction qui prend des valeurs en R pour les
transformer en points, vecteurs, tenseurs. Evidemment, une courbe en E et en V est représentée,
dans un repère choisi, par trois fonctions réelles de t, les coordonnées ou les composantes
respectivement, alors qu’une courbe en Lin(V) est représentée par ses neuf composantes fonctions
de t.
Soit maintenant Ω ⊂ E et f : Ω → V ; on dit que f est continue en p ∈ Ω si, pour chaque séquence
{pn ∈ Ω , n ∈ N} qui converge à p en E, la séquence {v n = f ( pn ), n ∈ N} converge à f(p) en V. La
fonction f : Ω → V est un champ vectoriel en Ω si elle est continue ∀p ∈ Ω . De la même façon
on peut définir un champ tensoriel L = L( p ), L : Ω → Lin(V ) et scalaire, ϕ = ϕ ( p ), ϕ : Ω → R .
- 20 -
Chapitre 2
Nous définissons déformation une transformation continue et bijective f = f ( p), f : Ω → E . Il
s’agit dans ce cas d’une transformation d’une région Ω ⊃ E en une autre région de E, avec la
contrainte supplémentaire d’être bijective : à chaque point de Ω correspond un seul point de la
région image, et vice-versa. La raison de cette imposition est purement physique, et sera claire plus
tard, quand on examinera les transformations d’un corps continu déformable.
2.2 DIFFERENTIATION DE COURBES
Soit v = v(t ), v : [a, b] → V
scalaire; si
lim
t →t0
une courbe vectorielle et g = g (t ), g : [a, b] → R une fonction
v(t )
= 0,
g (t )
alors on dit que v est d’ordre o par rapport à g en t0 :
v (t ) = o(g (t ) ) pour t → t0 .
Une définition analogue existe pour les tenseurs.
On dit que la courbe v = v(t ), v : [a, b] → V est différentiable en t0 ∈ ]a, b[ s’il existe un vecteur v&
tel que
v (t ) − v(t0 ) = (t − t0 ) v& + o(t − t0 ) lorsque t → t0 .
Le vecteur v& est appelé la dérivée de v. Si v& est continu partout en ]a, b[ , alors on dit que la courbe
v est de classe C1 (smooth en anglais). Evidemment, en appliquant la définition de dérivée à v& on
définit la dérivée seconde &v& de v et ainsi de suite pour les dérivées d’ordre supérieur. Si v est
continu avec toutes ses dérivées jusqu’à l’ordre n, on dit que v est une courbe de classe Cn.
Pour une courbe en E ou en Lin(V), on donne des définitions tout-à-fait analogues; on remarque
que, étant définie comme différence de points, la dérivée d’une courbe en E est une courbe en V (on
dit que la dérivée d’un point est un vecteur). La dérivée d’un tenseur est, quant à elle, un tenseur,
étant la différence de deux tenseurs.
Soient u et v courbes en V, L et M courbes en Lin(V), α une fonction scalaire, toutes définies et de
classe au moins C1 sur [a, b]. A l’aide des définitions données de dérivée d’une courbe, on peut
démontrer les relations suivantes, qui généralisent aux courbes les règles de dérivation des
fonctions réelles :
(u + v)&= u& + v& ,
(α v)&= α& v + α v& ,
(u ⋅ v)&= u& ⋅ v + u ⋅ v& ,
(u ∧ v )&= u& ∧ v + u ∧ v& ,
(u ⊗ v)&= u& ⊗ v + u ⊗ v& ,
(α L)&= α& L + α L& ,
(L u)&= L& u + L u& ,
&,
(L M )&= L& M + L M
&,
(L ⋅ M )&= L& ⋅ M + L ⋅ M
(LT )&= L& T ,
- 21 -
Chapitre 2
(L−1 )&= −L−1L& L−1 ,
(det L)&= det L L& ⋅ L−T = det L tr (L& L−1 ).
Les règles ci-dessus nous offrent immédiatement la démarche pratique pour le calcul des dérivées
d’une courbe: en fait, si l’on considère que par rapport à une base orthonormée une courbe en E, en
V ou en Lin(V) est respectivement du type (o est un point fixe de E)
p(t ) − o = xi (t ) ei ,
u(t ) = ui (t ) ei ,
L(t ) = Lij (t ) ei ⊗ e j ,
et que les vecteurs de la base choisie ne dépendent pas de t, on obtient immédiatement que:
p& (t ) = x&i (t ) ei ,
u& (t ) = u&i (t ) ei ,
L& (t ) = L&ij (t ) ei ⊗ e j ,
c’est-à-dire que la dérivée d’une courbe a comme composantes les dérivées des composantes de la
courbe donnée.
2.3 DIFFERENTIATION DE CHAMPS ET DE DEFORMATIONS
Considérons un champ vectoriel f : Ω → V ; nous dirons que f est différentiable en p0 ∈ Ω s’il
existe un tenseur ∇f tel que
f ( p0 + u) − f ( p0 ) = ∇f u + o(u) lorsque u → o .
Si f est différentiable partout en Ω, ∇f définit un champ tensoriel sur Ω, dit le gradient de f; dans
ce cas, f est de classe C1 sur Ω . Champs vectoriels de classe supérieure à C1 sont définis à l’aide de
tenseurs d’ordre supérieur au second, et ils ne seront pas traités ici.
Soit f un champ vectoriel de classe au moins C1 sur Ω ; on définit divergence de f le champ scalaire
sur Ω défini par la relation
div f = tr ∇f .
Encore, le rotationnel de f est le seul champ vectoriel avec la propriété
(∇f − ∇f T )u = (rot f ) ∧ u ∀u ∈ V ;
le rotationnel est donc le double du vecteur axial de la partie antisymétrique du tenseur ∇f .
Considérons par exemple un corps rigide B; si p0 est un point quelconque de B, c’est bien connu que
la vitesse v d’un autre point p de B est donnée par la loi de distribution des vitesses suivante
v ( p) = v( p0 ) + ω ∧ ( p − p0 ) ,
ou encore
v ( p) = v ( p0 ) + Wω ( p − p0 ) ,
étant Wω le tenseur axial de ω, dit tenseur de spin. Or, par la définition même de gradient de v, on
a que
∇v = Wω .
- 22 -
Chapitre 2
Par les propriétés de la trace, on a alors que
div v = tr ∇v = tr Wω = 0,
ω=
1
rot v.
2
Le rotationnel est donc lié au mouvement de rotation, d’où son nom, et non seulement pour un
corps rigide: pour le mouvement d’un corps déformable, le rotationnel est une mesure locale de la
vorticité.
On définit divergence d’un champ tensoriel S le seul champ vectoriel avec la propriété
(div S) ⋅ a = div(S T a) ∀a ∈ V .
Soit ϕ = ϕ ( p ), ϕ : Ω → R un champ scalaire sur Ω. Nous dirons que ϕ est différentiable en
p0 ∈ Ω s’il existe un vecteur ∇ϕ tel que
ϕ ( p0 + u) − ϕ ( p0 ) = ∇ϕ ⋅ u + o(u) lorsque u → o .
Si ϕ est différentiable partout en Ω, ∇ϕ définit un champ vectoriel sur Ω, dit le gradient de ϕ; dans
ce cas, ϕ est de classe C1 sur Ω . Le vecteur ∇ϕ est indiqué aussi par grad ϕ.
Si ∇ϕ est différentiable en Ω, alors son gradient est un tenseur qui s’appelle deuxième gradient de
ϕ, et qu'on dénote par ∇ IIϕ . On montre facilement que
(∇ II ϕ ) T = ∇ II ϕ .
Si ∇ II ϕ est un champ tensoriel sur Ω, alors ϕ est de classe C2.
Dans le cas d’un champ scalaire, on peut toujours définir les surfaces de niveau du champ: ce sont
les surfaces où la fonction ϕ(p) est constante. Or, le gradient a l’importante propriété d’être un
vecteur qui est orthogonal aux surfaces de niveau en tout point (cette propriété se montre
immédiatement par la définition même de différentiabilité donnée ci-dessus). Les lignes qui ont la
direction du vecteur gradient en tout point sont les lignes de flux du champ; elles sont donc
orthogonales aux surfaces de niveau.
Le gradient permet de calculer la variation du champ dans une direction quelconque: si n est un
vecteur de norme unitaire, alors la variation du champ scalaire ϕ par unité de longueur dans la
direction n est donnée par
dϕ
= ∇ϕ ⋅ n .
dn
Celle-ci est la formule de la dérivée directionnelle. On remarque qu’on a la plus grande valeur de
la dérivée directionnelle lorsque n a la direction du gradient: le gradient est donc le vecteur qui
donne la direction de variation maximale du champ en tout point; la norme du gradient est la valeur
de cette variation.
Soit ϕ un champ scalaire ou vectoriel de classe C² ; le laplacien ∆ϕ de ϕ est défini par
∆ϕ = div ∇ϕ .
Par les propriétés de linéarité de la trace, et donc de la divergence, on voit bien que le laplacien
d’un vecteur est le vecteur qui a par composantes le laplacien de chacune des composantes mêmes
du vecteur donné. Si le laplacien est nul, le champ est dit harmonique.
Les définitions données ci-dessous de champ différentiable, de gradient et de classe C1 peuvent être
- 23 -
Chapitre 2
reproduites verbatim pour une déformation f = f ( p ), f : Ω → E .
Les opérateurs vus jusqu’ici ont des propriétés qui sont listées ci-après; dans la suite, on sousentend que ψ et ϕ, sont des champs scalaires, u, v et w des champs vectoriels, S un champ tensoriel,
et que ces champs sont suffisamment réguliers (pour plus de détails voir encore le livre de M. E.
Gurtin). Alors, on peut démontrer que :
∇(ϕψ ) = ϕ∇ψ +ψ∇ϕ ;
∇(ϕ v) = ϕ∇v + v ⊗ ∇ϕ ;
1
(∇v) v = (rot v) ∧ v + ∇v 2 ;
2
T
∇( v ⋅ w ) = (∇w ) v + (∇v) T w = (∇w ) v + (∇v )w + v ∧ rot w + w ∧ rot v;
∇[(u ⋅ v)w ] = (u ⋅ v)∇w + (w ⊗ u)∇v + (w ⊗ v)∇u;
∇v ⋅ ∇v T = div[(∇v )v − (div v )v ] + (div v ) ;
div(ϕ v) = ϕ div v + v ⋅ ∇ϕ ;
div( v ⊗ w ) = v div w + (∇v )w;
2
div(S T v) = S ⋅ ∇v + v ⋅ div S;
div(ϕ S) = ϕ div S + S∇ϕ ;
div(∇v T ) = ∇(div v);
div[(∇v )v ] = ∇v ⋅ ∇v T + v ⋅ (∇div v );
div( v ∧ w ) = w ⋅ rot v − v ⋅ rot w;
div(ϕ S v) = ϕ S T ⋅ ∇v + ϕ v ⋅ div S T + S v ⋅ ∇ϕ ;
div rot v = 0;
rot(ϕ v ) = ϕ rot v + ∇ϕ ∧ v;
rot (rot v) = ∇(div v ) − ∆v;
rot ∇ϕ = o;
rot( v ∧ w ) = (∇v)w − (∇w ) v + v div w − w div v;
rot v = − div V, avec V tenseur axial de v;
∆(ϕψ ) = 2∇ϕ ⋅ ∇ψ + ϕ ∆ψ + ψ ∆ϕ ;
∆( v ⋅ w ) = 2∇w ⋅ ∇v + v ⋅ ∆w + w ⋅ ∆v.
On rappelle aussi les deux théorèmes suivants, à caractère général:
Théorème sur les champs harmoniques: si v est un champ vectoriel de classe C² avec
div v= o et rot v= o,
alors v est harmonique.
Théorème du potentiel: soit v un champ vectoriel de classe au moins C1 sur un domaine
simplement connexe Ω; alors condition nécessaire et suffisante pour que le rotationnel de v soit
identiquement nul sur Ω est qu’il existe une fonction scalaire ϕ de classe C2 sur Ω telle que v=∇ϕ.
Donc
rot v = o ⇔
v = ∇ϕ .
- 24 -
Chapitre 2
2.4 THEOREMES DE TRANSFORMATION D’INTEGRALES
Dans ce qui suit, Ω est une région suffisamment régulière de E, de frontière ∂Ω et de normale
unitaire extérieure n.
Lemme de divergence: si v est un champ vectoriel de classe C1 sur Ω on démontre que :
∫ Ω v ⊗n ds = ∫Ω ∇v dv ;
∂
ce lemme permet de démontrer facilement le :
Théorème de la divergence (ou de Gauss):
∫ Ω ϕ n ds = ∫Ω ∇ϕ dv ;
∫ Ω v ⋅n ds = ∫Ω div v dv ;
∫ Ω Sn ds = ∫Ω div S dv .
∂
∂
∂
Ce théorème transforme donc l’intégrale de surface d’une grandeur scalaire, vectorielle ou
tensorielle en une intégrale de volume par le biais de l’opérateur divergence (et inversement), et il
est à la base de nombreuses applications et théorèmes en mécanique des milieux continus.
Conséquence de la forme tensorielle de ce théorème est le:
Théorème du rotationnel:
∫ Ω n ∧ v ds = ∫Ω rot v dv .
∂
En fait:
∫ Ω n ∧ v ds = − ∫ Ω v ∧ n ds = −∫ Ω W n ds = −∫Ω div W
∂
∂
∂
v
v
dv = ∫ rot v dv .
Ω
Les formules qui suivent se démontrent facilement à partir du théorème de la divergence:
∫ Ω v ⋅Sn ds = ∫Ω ( v ⋅ div S + S ⋅ ∇v) dv ;
∫ Ω (Sn) ⊗ v ds = ∫Ω [(div S) ⊗ v + S∇v ] dv ;
∫ Ω v(w ⋅n) ds = ∫Ω [ v div w + (∇v)w] dv .
∂
T
∂
∂
Théorème de Stokes :
∫ v ⋅ dl = ∫
γ
Σ
rot v ⋅ n ds .
Ce théorème transforme l’intégrale de ligne au premier membre, qui représente la circulation du
vecteur v sur la ligne fermée γ, en une intégrale de surface, qui représente le flux du vecteur rot v à
travers une surface Σ qui admet γ comme frontière, figure 2.1.
Σ
n
γ
Figure 2.1
- 25 -
Chapitre 2
La représentation paramétrique p=p(t) de la courbe γ doit être choisie de telle sorte que
p& (t1 ) ∧ p& (t2 ) ⋅ n > 0 ∀t1 , t2 : t2 > t1.
Formule de Green : si ϕ et ψ sont deux champs scalaires, alors

dϕ
dψ 
∫ Ω ψ dn − ϕ dn ds = ∫Ω (ψ ∆ϕ − ϕ ∆ψ )dv .
∂
Théorème : si v est de classe au moins C1 sur un ouvert R, alors
div v = 0 ⇔
∫ Ω v ⋅ n ds = 0
∂
∀Ω ⊂ R .
2.5 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES CARTESIENNES
On peut démontrer que les composantes cartésiennes des opérateurs différentiels sont données par
les relations suivantes (sommation d’Einstein sous-entendue; la virgule indique dérivation partielle
par rapport à la coordonnée indiquée par l’indice qui suit la virgule) :
(∇ϕ )i = ϕ,i ;
(∇v)ij = v i , j ;
div v = v i ,i ;
(div S)i = Sij , j ;
∆ϕ = ϕ,ii ;
(∆v)i = ∆v i = v i , jj ;
rot v = (v 3, 2 − v 2,3 ; v 1,3 − v 3,1; v 2,1 − v 1, 2 ).
Parfois, pour indiquer les opérateurs différentiels on considère l’opérateur ∇, dit opérateur nabla,
∇=
∂⋅
∂⋅
∂⋅
∂⋅
ei =
e1 +
e2 +
e3 ,
∂x3
∂xi
∂x1
∂x2
comme si c’était un vecteur. Alors, on voit facilement que
grad ϕ = ∇ϕ ;
div v = ∇ ⋅ v;
rot v = ∇ ∧ v;
∆ϕ = ∇ 2ϕ .
2.6 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES CYLINDRIQUES
En considérant des coordonnées cylindriques comme indiquées en figure 2.2, définies par les
relations (les pi sont les coordonnées cartésiennes dans le repère {o ; e1, e2, e3}) :
ρ = p12 + p22 , ρ ≥ 0,
θ = arctan
p2
, θ = anomalie, 0 ≤ θ < 2π ,
p1
z = p3 ,
- 26 -
Chapitre 2
ou par les relations inverses
p1 = ρ cosθ ,
p2 = ρ sin θ,
p3 = z ,
on trouve que, dans le repère mobile {p ; eρ, eθ, ez} de figure, il est
e3
ez
eθ
p
o
θ
ρ
e1
eρ
e2
Figure 2.2


1
∇ϕ =  ϕ,ρ ; ϕ,θ ;ϕ, z ;
ρ


1
1
∆ϕ = (ρ ϕ,ρ ),ρ + 2 ϕ,θθ + ϕ, zz ;
ρ

v ρ ,ρ

∇v = v θ ,ρ


 v z,ρ

div v = v ρ ,ρ +
ρ

v ρ ,z 
ρ

1
(v θ ,θ + v ρ ) v θ ,z ;

ρ

1
v z,θ
v z,z 
ρ

1
1
ρ
(v ρ ,θ - v θ )
(v θ ,θ + v ρ ) + v z,z ;
1

1
rot v =  v z ,θ - v θ ,z ; v ρ ,z - v z ,ρ ; [( ρv θ ),ρ - v ρ ,θ ] ;
ρ
ρ


 1
 [( ρS ρρ ),ρ + S ρθ ,θ − Sθθ ] + S ρz ,z 

 ρ
1


div S =  Sθρ ,ρ + (Sθθ ,θ + S ρθ + Sθρ ) + Sθz ,z ;
ρ


1


[(
)
]
ρ
S
S
S
+
+
zρ , ρ
zθ ,θ
zz ,z


ρ


- 27 -
Chapitre 2

1
1
1
 ( ρ v ρ , ρ ) , ρ + 2 v ρ ,θθ + v ρ ,zz − 2 (v ρ + 2v θ ,θ ) 
ρ
ρ
ρ

 ∆v ρ  
1
1

 1

∆v =  ∆v θ  =  ( ρ v θ , ρ ) , ρ + 2 v θ ,θθ + v θ ,zz − 2 (v θ − 2v ρ ,θ )  .
ρ
ρ
 ∆v   ρ

 z
1
1


( ρ v z , ρ ) , ρ + 2 v z ,θθ + v z ,zz


ρ
ρ


2.7 COMPOSANTES DES OPERATEURS DIFFERENTIELS EN COORDONNEES SPHERIQUES
Considérons les coordonnées sphériques indiquées en figure 2.3, définies par les relations (les pi
sont les coordonnées cartésiennes dans le repère {o ; e1, e2, e3}) :
r=
p12 + p22 + p32 ,
p12 + p22
, φ = colatitude, 0 ≤ φ ≤ π ,
p3
φ = arctan
θ = arctan
p2
, θ = anomalie, 0 ≤ θ < 2π ,
p1
ou par les relations inverses
p1 = r cosθ sinφ ,
p2 = r sinθ sinφ ,
p3 = r cosφ .
Dans le repère mobile indiqué en figure {p; er, eφ, eθ} on a alors:
e3
eθ
φ
r
o
θ
er
p
eφ
e2
e1
Figure 2.3


1
1
ϕ,θ ;
∇ϕ =  ϕ ,r ; ϕ ,φ ;
r
r sin φ


1
1
∆ϕ = 2 (r 2 ϕ,r ),r + 2
ϕ,θθ + (ϕ,φ sin φ ),φ ;
r
r sin φ
[
]
- 28 -
Chapitre 2



1
1 1
(v r ,φ − v φ )
v r ,θ − v θ 

v r ,r

r
r  sin φ



 

1
1 1
(v φ ,φ + v r )
v φ ,θ − v θ cotgφ  ;
∇v = v φ ,r

r
r  sin φ
 


1
1 1


v θ ,φ
v θ ,θ + v r + v φ cotgφ 
v θ ,r
r
r  sin φ


1
1
div v = 2 (r 2v r ),r +
(v φ sin θ ),φ + v θ ,θ ;
r
r sin φ
[
]
 1

1
1
1
rot v = 
[(v θ sin θ ),φ − v φ ,θ ];
v r ,θ − (rv θ ),r ; [(rv φ ),r − v r ,φ ] ;
r sin φ
r
r
 r sin φ

S + Sθθ cotgφ
 1 2

1
1
 2 (r Srr ),r + Srφ ,φ +
+
Srφ 
Srθ ,θ − φφ
r
r
r
r sin φ
 r

1
1
1
cotgφ
1 2

div S =  2 (r Sφr ),r + S φφ ,φ +
(Sφφ − Sθθ ) ;
S φθ ,θ + Srφ +
r
r
r sin φ
r
r


1
1
1
1
cotg
φ
 (r 2 S ) + S +

+
+
+
S
S
S
S
(
)
θr ,r
θφ ,φ
θθ ,θ
rθ
φθ
θφ 
r 2
r
r sin φ
r
r




v − 2v
v − 2v
v

1  v r ,θθ
v


− 2v θ ,θ  − 2 r2
v r ,rr + 2 r ,r + r ,φφ 2 φ ,φ + r ,φ 2 φ cotg φ + 2

r
r
r
r sin φ  sin φ


 r

v
v + 2v
v − v cotg φ
 v 
1  v φ ,θθ

− 2v θ ,θ cotg φ  − φ2 .
cotg φ + 2
∆v =  v φ ,rr + 2 φ ,r + φ ,φφ 2 r ,φ + φ ,φ φ2
r
r
r
r sin φ  sin φ

 r 


2v  cotg φ
v
v


1  v θ ,θθ
v
+ 2v r ,θ  − 2 θ 2
v θ ,rr + 2 θ ,r + θ ,2φφ +  v θ ,φ + φ ,θ  2 + 2



sin φ  r
r
r
r sin φ  sin φ
 r sin φ



- 29 -