Fichier PDF

Partage, hébergement, conversion et archivage facile de documents au format PDF

Partager un fichier Mes fichiers Convertir un fichier Boite à outils PDF Recherche PDF Aide Contact



NotesDeCours .pdf



Nom original: NotesDeCours.pdf

Ce document au format PDF 1.5 a été généré par LaTeX with hyperref package / pdfTeX-1.40.14, et a été envoyé sur fichier-pdf.fr le 29/05/2015 à 10:29, depuis l'adresse IP 45.219.x.x. La présente page de téléchargement du fichier a été vue 494 fois.
Taille du document: 533 Ko (23 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)









Aperçu du document


Notes de Cours :
Analyse Numérique
Jérôme Lohéac∗
26 avril 2015
LUNAM Université, IRCCyN UMR CNRS 6597 (Institut de Recherche en
Communications et Cybernétique de Nantes), École des Mines de Nantes, 4 rue
Alfred Kastler, 44307 Nantes
Jerome.Loheac@irccyn.ec-nantes.fr


Avant de vous lancer dans
la résolution numérique d’un problème,
demandez vous si une solution existe...

Ce document reprend les résultats vus en cours.
Merci au lecteur de me signaler toute erreur potentielle.

Table des matières
Notations

5

1 Résolution de systèmes linéaires
1.1 Élimination de Gauss . . . . . . . . . . . . . . . . . . . .
1.2 Méthodes itératives . . . . . . . . . . . . . . . . . . . . .
1.2.1 Méthodes de Jacobi, Gauss-Scheidel et relaxation
1.2.2 Méthodes du gradient et du gradient conjugué .
1.2.3 Algorithme pour les méthodes itératives . . . . .
1.3 Conditionnement des matrices . . . . . . . . . . . . . . .
1.4 Stockage des matrices . . . . . . . . . . . . . . . . . . .
1.5 Systèmes surdéterminés et méthode des moindres carrés
2 Résolution numérique des équations aux dérivées
2.1 Un exemple . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Méthode des différences finies . . . . . . . .
2.1.2 Méthode de Fourier . . . . . . . . . . . . .
2.2 Introduction aux distributions . . . . . . . . . . . .
2.3 Espaces de Sobolev . . . . . . . . . . . . . . . . . .
2.3.1 Le Sobolev H 1 (Ω) . . . . . . . . . . . . . .
2.3.2 Théorèmes de trace . . . . . . . . . . . . .
2.3.3 Espaces de Sobolev d’ordre supérieurs . . .
2.4 Problèmes elliptiques . . . . . . . . . . . . . . . . .
2.5 Exemple . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Problèmes variationnels abstraits . . . . . .
2.5.2 Approximation variationnelle . . . . . . . .
2.6 Éléments finis P1 . . . . . . . . . . . . . . . . . . .
2.6.1 En dimension 1 . . . . . . . . . . . . . . . .
2.6.2 En dimension 2 . . . . . . . . . . . . . . . .
2.6.3 résultat de convergence . . . . . . . . . . .

3

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

7
7
8
8
8
9
9
10
10

partielles elliptiques
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

13
13
13
14
15
15
15
16
17
17
17
18
19
19
19
20
21

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

4

TABLE DES MATIÈRES

5

Notations
— Ensemble courants :
N l’ensemble des entiers naturels, Z l’ensemble des entiers relatifs et R l’ensemble des
réels.
— Matrices :
Pour m, n ∈ N∗ , on note Mm,n (R) l’ensemble des matrices réelles de m lignes et n colonnes.
Pour A ∈ Mm,n (R) et (i, j) ∈ {1, · · · , m} × {1, · · · , n} on note Ai,j le coefficient de A
placé à la ième ligne et j ème colonne.
Pour A ∈ Mm,n (R), on note A> ∈ Mn,m (R) la transposée de A.
Pour A ∈ Mm,n (R), on note rg A le rang de A.
Pour m = n, on pose Mn (R) = Mn,n (R).
Pour A ∈ Mn (R), on note det A le déterminant de la matrice A et Tr A sa trace.
On note GLn (R) l’ensemble des matrices de Mn (R) inversibles.
On note Sn (R) l’ensemble des matrices de Mn (R) symétriques.
On note Sn+ (R) (resp. Sn− (R)) l’ensemble des matrices de Sn (R) positives (resp. négatives).
— Dérivées :
Soit ϕ : x ∈ Ω ⊂ Rn → ϕ(x)R une fonction suffisamment régulière. On note :
pour i∈ {1,
· · · , n} et k ∈ N∗ ∂ik ϕ la dérivée k ième de ϕ par rapport à la variable xi ,
∂1 ϕ
n
X


∇ϕ =  ...  ∈ Rn et ∆ϕ =
∂i2 ϕ ;
∂n ϕ

i=1

Chapitre 1

Résolution de systèmes linéaires
Les références utilisées pour ce chapitre sont [RP10, Chapitres 4 et 6], [Cia82, Partie 1] et
[Sch01, Chapitres 9, 10, 11 et 12].
L’objectif de ce chapitre est de donner des algorithmes permettant de résoudre ou d’approcher
la solution x ∈ Rn du système linéaire Ax = b avec A ∈ Mn (R) et b ∈ Rn .
Théorème 1.0.1. Si A ∈ GLn (R), alors quelque soit b ∈ Rn , il existe une unique solution
x ∈ Rn de Ax = b.

1.1

Élimination de Gauss

Remarque 1.1.1. Si A ∈ GLN (R) est triangulaire supérieure (resp. inférieure), la solution de
Ax = b est aisée à calculer.
Le principe de l’élimination de Gauss est de remplacer le système Ax = b en un système
équivalent U x = c avec U ∈ GLN (R) une matrice triangulaire supérieure.
Algorithme 1.1.2. (Pivot de Gauss) Soient A ∈ GLn (R) et b ∈ Rn ,
La sortie de cet algorithme est A ∈ Mn (R) et b ∈ Rn .
Pour i allant de 1 à n − 1, faire : // On parcourt les lignes du système
p = A1i,i
Pour j allant de i + 1 à n, faire :
Ai,j = pAi,j // Li ← Li /Ai,i
Fin pour
bi = p ∗ bi // bi ← bi /Ai,i
Pour k allant de i + 1 à n, faire :
Pour j allant de i + 1 à n, faire : // Lk ← Lk − Ak,i ∗ Li
Ak,j = Ak,j − Ak,i ∗ Ai,j
Fin pour
bk = bk − ak,i ∗ bi // bk ← bk − Ak,i ∗ bi
Fin pour
1
p = An,n
bn = p ∗ bn
An,n = 1
Fin pour
7

8

RÉSOLUTION DE SYSTÈMES LINÉAIRES

Remarque 1.1.3. Cet algorithme fonctionne si à l’étape i, Ai,i 6= 0. Si tel n’est pas le cas, il
faut permuter les lignes.
À la fin de cette algorithme, on est ramené a un système U x = c avec U triangulaire supérieure
qui se résout comme suit :
Algorithme 1.1.4. Soit U ∈ GLn (R) triangulaire supérieure et c ∈ Rn .
La sortie de cet algorithme est x ∈ Rn solution de U x = c.
Pour k allant de P
n à 1 avec pas −1, faire :
n
xk = ck − i=k+1 Ui,j xj
Fin pour
La complexité de l’algorithme d’élimination de Gauss est en O(n3 ).

1.2

Méthodes itératives

Pour résoudre le système Ax = b, on va construire une suite récursive (xn )n convergente
vers x.

1.2.1

Méthodes de Jacobi, Gauss-Scheidel et relaxation

Soit A ∈ GLn (R), on écrit A = M − N avec M ∈ GLn (R) et N ∈ Mn (R). À partir d’un
point x0 ∈ Rn , on construit la suite récursive (xn )n∈N à l’aide de la relation :
M xn+1 = N xn + b

(∀n ∈ N) .

(1.2.1)

Exemple 1.2.1. Soit A = D − E − F avec D, E, F ∈ Mn (R), D diagonale, E triangulaire
supérieure (strict) et F triangulaire inférieure (strict).
— Méthode de Jacobi : M = D et N = E + F ;
— Méthode de Gauss-Scheidel : M = D − E et N = F ;
— Méthode de relaxation : M = ω1 D − E et N = 1−ω
ω D + F.
Théorème 1.2.2 (Convergence). Si kM −1 N k < 1 alors pour tout x0 ∈ Rn , la suite (xn )n∈N
définie par la relation de récurrence (1.2.1) est convergente vers x ∈ Rn solution de (M −N )x = b.
Théorème 1.2.3. Soit A ∈ Sn+ (R) ∩ GLn (R), on écrit A = M − N avec M ∈ GLn (R) et
N ∈ Mn (R). Alors M + N > ∈ Sn (R) et si M + N > ∈ Sn+ (R) ∩ GLn (R), alors pour tout x0 ∈ Rn ,
la suite (xn )n∈N définie par la relation de récurrence (1.2.1) est convergente vers x ∈ Rn solution
de (M − N )x = b.
Théorème 1.2.4. Soit A ∈ Sn+ (R) ∩ GLn (R). Si ω ∈ (0, 2), alors pour tout x0 ∈ Rn , la suite
(xn )n∈N définie par la relation de récurrence (1.2.1) est convergente vers x ∈ Rn solution de
(M − N )x = b, où M et N sont données par la méthode de relaxation.

1.2.2

Méthodes du gradient et du gradient conjugué

On considère dans ce paragraphe A ∈ Sn+ (R) ∩ GLn (R) et b ∈ Rn .
Théorème 1.2.5. Si x ∈ Rn est solution de Ax = b, alors
J(x) 6 J(y)

(∀y ∈ Rn ) ,

CONDITIONNEMENT DES MATRICES
avec

J : Rn
y

9

→ R
1 >
>
7

2 y Ay − y b .

(1.2.2)

Par conséquent au lieu de chercher la solution de Ax = b, on va minimiser J.
Proposition 1.2.6. Soit x ∈ Rn et d ∈ Rn \ {0}, alors le minimum de ρ 7→ J(x + ρd) est obtenu
d> (Ax − b)
pour ρ =
.
d> Ad
Pour ces méthode, on va construire une suite récurrente (xn )n∈N et une suite (dn )n∈N∗ où la
récurrence sur (xn ) est donnée par :
xn+1 = xn +

(dn )> (Axn − b)
.
(dn )> Adn

On est alors libre sur le choix de la suite (dn )n .
Exemple 1.2.7.
— Méthode du gradient : dn = ∇J(xn ) ;
— Méthode du gradient conjugué : d0 ∈ Rn donné (par exemple d0 = ∇J(x0 )) et
|∇J(xn+1 )|2 n
dn+1 = ∇J(xn+1 ) +
d .
|∇J(xn )|2
Théorème 1.2.8. La méthode du gradient est convergente
Théorème 1.2.9. La méthode du gradient conjugué est convergente en au plus n itérations (où
n est la dimension de l’espace, A ∈ Mn (R)).
Remarque 1.2.10. Ce dernier résultat est théorique. En pratique, nous n’atteindrons pas la
solution en moins de n itérations.

1.2.3

Algorithme pour les méthodes itératives

Les méthodes itératives sont basées sur une relation de récurrence xn+1 = f (xn ). En pratique,
nous nous donnons un critère d’arrêt, qui est un nombre maximal d’itération et un borne sur
l’erreur. Plus précisément, on se donne :
Algorithme 1.2.11. Soit A ∈ GLn (R), b ∈ Rn \ {0}, x0 ∈ Rn , Nmax ∈ N∗ et ε > 0.
La sortie de l’algorithme étant x, approximant la solution de Ax = b.
k=0
x = x0
Tant que k < Nmax et
x = f (x)
k =k+1
Fin pour

1.3

|Ax−b|
|b|

> ε, faire :

Conditionnement des matrices

Lorsque l’on va résoudre un système Ax = b, on va commettre des erreurs numériques. Le
conditionnement va permettre de mesurer l’impact de ces erreurs sur la solution.

10

RÉSOLUTION DE SYSTÈMES LINÉAIRES

Définition 1.3.1. Soit | · | une norme sur Rn . On définit la norme subordonnée sur Mn (R) par :
kAk = max
n
x∈R
x6=0

|Ax|
, |x|

(∀A ∈ Mn (R)) .



Théorème 1.3.2. Soit A ∈ Mn (R), on a kAk = max λ ∈ σ(A> A) , avec σ(A> A) l’ensemble
des valeurs propres de A> A.
Définition 1.3.3 (Conditionnement). Soit A ∈ GLn (R), on appelle conditionnement de A la
quantité χ(A) = kAkkA−1 k.
Proposition 1.3.4. Pour tout A ∈ GLn (R), on a χ(A) > 1.
Théorème 1.3.5. Soit A ∈ GLN (R), b ∈ Rn \ {0} et δb ∈ Rn , alors
|δb|
|δx|
6 χ(A)
,
|x|
|b|
Avec Ax = b et A(x + δx) = b + δb.
Théorème 1.3.6. Soit A ∈ GLn (R), δA ∈ Mn (R), b ∈ Rn \ {0} et δb ∈ Rn . Si kA−1 kkδAk < 1,
alors,


|δb| kδAk
χ(A)
|δx|
6
+
,
|x|
|b|
kAk
1 − χ(A) kδAk
kAk

avec Ax = b et (A + δA)(x + δx) = b + δb.

1.4

Stockage des matrices

Soit A ∈ Mn (R). On peut stocker cette matrice dans un tableau ou bien ne retenir que les
coefficients non nuls (forme sparse). Dans ce dernier cas, on retient une liste formée de couples
d’indices (ligne et colonnes) et de valeurs (valeurs de la matrice pour les indices correspondant).
Le nombre d’octets occupés par un entier est 4 et par un réel est 8. Notons n
˜ le nombre de
valeurs non nulles dans la matrice A. Alors si 2˜
n 6 n il est plus intéressant de retenir la matrice
sous forme sparse.

1.5

Systèmes surdéterminés et méthode des moindres carrés

On considère ici A ∈ Mm,n (R) et b ∈ Rm avec m > n. On va chercher le point x ∈ Rn tel que
Ax soit le plus proche de b, i.e. :
(∀y ∈ Rn ) ,
v
u n
uX
où la norme | · | choisie est le norme euclidienne, i.e. |x| = t
|xi |2 .
|Ax − b| 6 |Ay − b|

(1.5.3)

i=1

Théorème 1.5.1. Soit A ∈ Mm,n (R) et b ∈ Rm avec m > n. Si rg A = n alors le problème de
minimisation (1.5.3) admet une unique solution x ∈ Rn solution de A> Ax = A> b.

12

RÉSOLUTION DE SYSTÈMES LINÉAIRES

Chapitre 2

Résolution numérique des équations
aux dérivées partielles elliptiques
Les références utilisées pour ce chapitre sont [RT83, Chapitres 1, 2, 3 et 5] et [Bré83, Chapitres 5, 8 et 9].

2.1

Un exemple

On considère le domaine Ω = (0, 1) ⊂ R et le problème :
u00 (x) = f (x)

x ∈ (0, 1) ,

(2.1.1a)

0 = u(0) = u(1) .

(2.1.1b)

Avec f ∈ C ((0, 1), R). On admet temporairement que ce problème admet une unique solution et
on va chercher à approcher numériquement la solution u.

2.1.1

Méthode des différences finies

Cette méthode est basée sur la formule de Taylor. Plus précisément, si u est de classe C 2
alors, pour tout x ∈ (0, 1),
2

2

u(x + h) = u(x) + hu0 (x) + h2 u00 (x) + o0 (h2 ) et u(x − h) = u(x) − hu0 (x) + h2 u00 (x) + o0 (h2 ) .
Ainsi,
u00 (x) =

1
(u(x − h) − 2u(x) + u(x + h)) + o0 (1) .
h2

Soit n > 2, on pose hn = 1/(n + 1) et xi = ih pour i ∈ {0, · · · , n}, de sorte que x0 = 0 et
xn+1 = 1. On a alors (avec u(0) = u(1) = 0),
 00
1

u (x1 ) = h2n (−2u(x1 ) + u(x2 )) + on→∞ (1)
u00 (xi ) = h12 (u(xi−1 ) − 2u(xi ) + u(xi+1 )) + on→∞ (1) si i ∈ {2, · · · , n − 1}
n

 00
u (xn ) = h12 (u(xn−1 ) − 2u(xn )) + on→∞ (1)
n

13

14RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES


2


−1
Posons A = 


0

−1
..
.

0
..





 ∈ Mn (R), de sorte que l’on ai :

..
..
.
. −1
−1 2
 00



u (x1 )
u(x1 )
 ..  −1  .. 
 .  = 2 A  .  + on→∞ (1) .
hn
u00 (xn )
u(xn )


f (x1 )
 .. 
Posons aussi F =  .  ∈ Rn . On a alors :
.

f (xn )

u(x1 )
−1 

F = 2 A  ...  + on→∞ (1) .
hn
u(xn )


Soit alors Ui l’approximation de u(xi ) au sens où U est solution de :
−1
AU = F .
h2n
Remarque 2.1.1.
— Si f n’est pas continue, on peut tout de même définir une solution au problème (2.1.1),
mais la formule de Taylor n’est plus valable.
— Pour Ω de dimension supérieure, cette méthode est technique à mettre en place

2.1.2

Méthode de Fourier

Pour f continue et C 1 par morceaux, On étend par imparité la fonction f puis on l’étend
sur R par 2-périodicité. La fonction f se récrit sous la forme d’une série de Fourier, f (x) =
P∞
d2
sin(πnx) = −π 2 n2 sin(πnx). On écrit alors u sous la
n=1 an sin(πnx). On remarque que
dx2 P∞
n
forme d’une série de Fourier en sinus, u(x) = n=1 un sin(πnx) et on a un = π−a
2 n2 . On peut alors
tronquer la somme et ceci donne une méthode numérique convergente pour le problème (2.1.1).
Remarque 2.1.2.
— Il faut calculer les coefficients de Fourier de f . Ce qui n’est pas en général (même numériquement) pas facile.
— Il est difficile d’étendre cette méthode en dimension supérieure.
— La méthode devient très compliquée si au lieu de résoudre (2.1.1), on résout :
d
(a(x)u0 (x)) = f (x)
dx
u(0) = u(1) = 0 .

x ∈ (0, 1) ,

Au vu des limitations des deux méthodes proposées précédemment, nous allons proposer une
nouvelle méthode plus robuste par rapport au problème. Pour introduire cette méthode, nous
avons tout d’abord besoin de connaître l’espace dans lequel vit la solution u.

INTRODUCTION AUX DISTRIBUTIONS

2.2

15

Introduction aux distributions

Soit Ω un ouvert non vide de Rn . On note D(Ω) l’ensemble des fonction C ∞ à support
compact dans Ω. Soit (ϕn )n∈N ∈ D(Ω)N , on dira que (ϕn )n converge vers ϕ ∈ D(Ω) si il existe
un compact K ⊂ Ω tel qu’à partir d’un certain rang, supp ϕn ⊂ K et pour tout α ∈ Nn ,
lim sup |∂1α1 · · · ∂nαn (ϕn − ϕ)| = 0.
n→∞ x∈K

On définit l’espace des distributions D0 (Ω) comme les formes linéaires sur D(Ω), c’est-à-dire
T ∈ D0 (Ω) si pour toute suite (ϕn )n ∈ D(Ω)N convergente vers ϕ ∈ D(Ω), on a lim n → ∞T (ϕn ) =
T (ϕ).
Remarque 2.2.1. En général, on note hT, ϕi à la place de T (ϕ).
Définition 2.2.2. On définit L2 (Ω) comme l’adhérence de D(Ω) pour la norme :
sZ
|ϕ(x)|2 dx

kϕkL2 (Ω) =

(∀ϕ ∈ D(Ω)) .



Proposition 2.2.3. L2 (Ω) est un espace de Hilbert séparable 1 pour le produit scalaire :
Z
(ϕ, ψ)L2 (Ω) =
ϕ(x)ψ(x) dx
(∀ϕ, ψ ∈ D(Ω)) .

0

Proposition 2.2.4 (L ⊂ D (Ω)). Soit f ∈ L2 (Ω), on définit Tf ∈ D0 (Ω) par hTf , ϕi =
(f, ϕ)L2 (Ω) pour tout ϕ ∈ D(Ω).
Alors f ∈ L2 (Ω) 7→ Tf ∈ D0 (Ω) est injective.
2

Remarque 2.2.5. Ainsi, tout élément de L2 (Ω) peut aussi être vu comme une distribution.
Définition 2.2.6 (Dérivation au sens des distributions). Soit T ∈ D0 (Ω), on définit ∂i T pour
i ∈ {1, · · · , n} par :
h∂i T, ϕi = −hT, ∂i ϕi
(∀ϕ ∈ D(Ω)) .
Remarque 2.2.7.
— Cette formule de dérivation est basée sur la formule d’intégration par parties.
— Si f ∈ L2 (Ω) et de classe C 1 , alors la dérivée au sens des distribution de f coïncide avec
la dérivée classique.
— Les distributions sont infiniment dérivables.

2.3
2.3.1

Espaces de Sobolev
Le Sobolev H 1 (Ω)

Définition 2.3.1. Soit Ω un ouvert de Rn , on définit :


H 1 (Ω) = ϕ ∈ L2 (Ω) , ∇ϕ ∈ L2 (Ω)3
et on munit cet espace du produit scalaire :
Z
(ϕ, ψ)H 1 (Ω) =
(ϕ(x)ψ(x) + ∇ϕ(x) · ∇ψ(x)) dx


1. séparable signifie qu’il existe une suite dense.

(∀ϕ, ψ ∈ H 1 (Ω)) .

16RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES
Proposition 2.3.2. Soit Ω un ouvert de Rn , H 1 (Ω) est un espace de Hilbert séparable.
Théorème 2.3.3. 2
Soit Ω un ouvert borné de Rn et Ω1 , Ω2 ⊂ Ω deux ouverts tels que
Ω1 ∩ Ω2 = ∅ et Ω1 ∪ Ω2 = Ω. Soit v ∈ C 0 (Ω) tel que v|Ω1 ∈ H 1 (Ω1 ) et v|Ω2 ∈ H 1 (Ω2 ) alors
v ∈ H 1 (Ω).
Définition 2.3.4. Soit Ω un ouvert borné de Rn , on note H01 (Ω) l’adhérence de D(Ω) pour la
norme k · kH 1 (Ω) .
Théorème 2.3.5 (Inégalité de Poincaré). Soit Ω un ouvert borné de Rn , il existe une constante
C(Ω) > 0 telle que pour tout v ∈ H01 (Ω), on a :
kvkL2 (Ω) 6 C(Ω)k∇vkL2 (Ω)n .
Remarque 2.3.6. Cette dernière inégalité reste vraie si Ω est seulement borné dans une direction.
Corollaire 2.3.7. Soit Ω un ouvert borné de Rn , alors k · kH01 (Ω) définie par :
kvkH01 (Ω) = k∇vkL2 (Ω)n

(∀v ∈ H01 (Ω)) ,

est une norme sur H01 (Ω) équivalente à la norme k · kH 1 (Ω) .

2.3.2

Théorèmes de trace

On veut pouvoir définir v|∂Ω où ∂Ω = Ω \ Ω est la frontière de Ω. Ceci n’est pas trivial car
dès que n > 2 les éléments de H 1 (Ω) ne sont pas nécessairement continus.
Théorème 2.3.8. Soit Ω ⊂ Rn un ouvert borné. On suppose que la frontière ∂Ω de Ω est de
classe C 1 par morceaux 3 . Alors D(Ω) est dense dans H 1 (Ω) et l’application γ0 : ϕ ∈ D(Ω) →
v|∂Ω ∈ L2 (∂Ω) se prolonge par continuité en une application linéaire continue de H 1 (Ω) dans
L2 (∂Ω).
Théorème 2.3.9. Sous les hypothèses du théorème précédent, H01 (Ω) = Ker γ0 .
Savoir que l’on peut définir la trace d’un élément de H 1 (Ω) nous permet d’établir la formule
de Green :
Théorème 2.3.10 (Formule de Green). Soit Ω ⊂ Rn un ouvert borné dont la frontière ∂Ω est
de classe C 1 par morceaux. Alors, pour tout u, v ∈ H 1 (Ω) et tout i ∈ {1, · · · , n}, on a :
Z

Z
∂i u(x)v(x) dx = −



Z
u(x)∂i v(x) dx +



u(x)v(x)ν(x) dσ(x) ,
∂Ω

où ν = (ν1 , · · · , νn )> est la normal à ∂Ω dirigée vers l’extérieur de Ω (c.f. Figure 2.1) et dσ est
l’élément de surface sur la frontière de Ω.
2. Ce théorème sera nécessaire pour justifier que l’approximation par éléments finis est bien dans H 1 .
3. i.e. ∂Ω est l’ensemble des zéros d’une fonction C 1 par morceaux de Rn à valeurs dans R dont le gradient
est presque partout non nul

PROBLÈMES ELLIPTIQUES

17
ν

∂Ω



Figure 2.1 – Normale sortante à Ω.

2.3.3

Espaces de Sobolev d’ordre supérieurs

Définition 2.3.11. Soit Ω un ouvert de Rn et m ∈ N∗ , on note :
(
)
n
X
H m (Ω) = v ∈ L2 (Ω) , ∀α ∈ Nn tels que
αi 6 m , on a ∂1α1 · · · ∂nαn v ∈ L2 (Ω) ,
i=1

avec la convention

∂i0 v

= v.

Théorème 2.3.12. Soient Ω un ouvert de Rn et m ∈ N∗ . Alors H m (Ω) muni du produit scalaire :
Z
m
X
∂1α1 · · · ∂nαn u(x)∂1α1 · · · ∂nαn v(x) dx
(∀u, v ∈ H m (Ω)) ,
(u, v)H m (Ω) =
Ω α ,··· ,α =0
1
n
α1 +···+αn 6m

est un espace de Hilbert séparable.
Pour v ∈ H 2 (Ω), on peut de même que pour H 1 définir la trace de ∇v sur ∂Ω on a alors par
la formule de Green :
Proposition 2.3.13. Soit Ω un ouvert borné de Rn dont la frontière est de classe C 1 par
morceaux. Pour tout u ∈ H 2 (Ω) et tout v ∈ H 1 (Ω), on a :
Z
Z
Z

∆u(x)v(x) dx =
∇u(x) · ∇v(x) dx −
(∇u(x) · ν(x))v(x) dσ(x) ,




∂Ω

avec comme précédemment, ν la normale sortante à Ω et dσ l’élément de surface sur ∂Ω.
Théorème 2.3.14. Soit Ω un ouvert borné de Rn dont la frontière est de classe C 1 par morceaux.
Si m ∈ N est tel que m > n2 alors H m (Ω) ⊂ C 0 (Ω).

2.4

Problèmes elliptiques

2.5

Exemple

Soit Ω ⊂ Rn un ouvert borné dont la frontière est de classe C 1 par morceaux et soit f ∈ L2 (Ω)
on considère le problème aux limites :
−∆u = f

dans Ω ,

(2.5.2a)

u=0

sur ∂Ω .

(2.5.2b)

18RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES
On suppose momentanément que ce problème admet une solution u dans H 2 (Ω) alors en
multipliant la première relation par un élément v de H01 (Ω) et en utilisant la formule de Green
avec v|∂Ω = 0, on obtient :
Z

Z
∇u(x)∇v(x) dx =



f (x)v(x) dx .


Il est alors tentant de poser :
a : H01 (Ω) × H01 (Ω) → R
Z
(u, v) 7→
∇u(x)∇v(x) dx

l : H01 (Ω)
et

v

→ R
Z
7

f (x)v(x) dx .





De sorte que si u ∈ H 2 (Ω) est solution de (2.5.2) alors u est solution du problème variationnel :
a(u, v) = l(v)

(∀v ∈ H01 (Ω)) .

Remarque 2.5.1. Pour certains domaines, il n’existe pas de solution dans H 2 (Ω) mais seulement une solution u ∈ H01 (Ω) solution du problème variationnel. Nous allons donc dans ce qui
suite chercher à résoudre ce problème variationnel.

2.5.1

Problèmes variationnels abstraits

Soit V un espace de Hilbert séparable (on va noter k · kV sa norme et (·, ·)V son produit
scalaire), a : V × V → R une forme bilinéaire continue, (i.e.
∃C > 0 , ∀(u, v) ∈ V × V , |a(u, v)| 6 CkukV kvkV
et a linéaire par rapport à chacune de ses variables) et l : V → R une forme linéaire continue
(i.e.
∃C > 0 , ∀v ∈ V , |l(v)| 6 CkvkV ) .
Définition 2.5.2. La forme bilinéaire a est dite elliptique sur V s’il existe α > 0 tel que pour
tout u ∈ V , on a :
a(u, u) > αkuk2V .
Théorème 2.5.3 (Théorème de représentation de Riesz). Soit l ∈ V 0 (une forme linéaire continue sur V ). Il existe un unique élément λ ∈ V tel que pour tout v ∈ V , l(v) = (λ, v)V .
Théorème 2.5.4 (Lemme de Lax-Milgram). Soit a une forme bilinéaire continue et elliptique
sur V et l ∈ V 0 .
Il existe un unique élément u ∈ V tel que a(u, v) = l(v) pour tout v ∈ V .
Proposition 2.5.5. Sous les hypothèses du théorème précédent et si de plus a est symétrique
(i.e. a(u.v) = a(v, u)) alors l’unique solution u du problème variationnel a(u, v) = l(v) minimise
la fonctionnelle :
J :V → R
v 7→ 21 a(v, v) − l(v) .

ÉLÉMENTS FINIS P1

2.5.2

19

Approximation variationnelle

Soit V un espace de Hilbert séparable, a : V × V → R une forme bilinéaire continue, et
l : V → R une forme linéaire continue. Soit Vh ⊂ V un sous-espace vectoriel de V .
Proposition 2.5.6. Il existe une unique solution uh ∈ Vh au problème variationnel :
(vh ∈ Vh ) .

a(uh , vh ) = l(vh )

Théorème 2.5.7. Soit u ∈ V (resp. uh ∈ Vh ) la solution du problème variationnel a(u, v) = l(v)
pour tout v ∈ V (reps. a(uh , vh ) = l(vh ) pour tout vh ∈ Vh ). Il existe une constante C > 0
indépendante de Vh telle que :
ku − uh kV 6 C inf ku − vh kV .
vh ∈Vh

Remarque 2.5.8. Supposons que dim Vh = N < ∞, il existe alors {ϕ1 , · · · , ϕN } une base de
PN
>
Vh . Notons alors uh =
∈ RN , la solution du problème
i=1 Ui ϕi , avec U = (U1 , · · · , Un )
variationnel a(uh , vh ) = l(vh ) posé sur Vh . On a alors par linéarité,
N
X

Ui a(ϕi , ϕj ) = l(ϕj )

(∀j ∈ {1, · · · , N }) .

i=1

Posons A = (Ai,j )i,j ∈ {1, . . . , N } où Ai,j = a(ϕj , ϕi ) et B = (l(ϕ1 ), · · · , l(ϕN ))> . On a alors
U ∈ RN solution du problème :
AU = B .

2.6

Éléments finis P1

Soit Ω ⊂ Rn . On considère maintenant V = H 1 (Ω) et une forme bilinéaire continue et
elliptique a sur H 1 (Ω) et une for linéaire continue l sur H 1 (Ω). Dans ce paragraphe, nous allons
proposer une construction effective de l’espace d’approximation Vh .

2.6.1

En dimension 1

Considérons Ω = (0, 1). Soit x0 = 0 < x1 < · · · < xN −1 < xN = 1 une subdivision de [0, 1]
pour chaque i ∈ {0, · · · , N }, on considère la fonction ϕi donnée par (c.f. Figure 2.2 :
1. ϕi est continue ;
2. ϕi est affine sur chaque intervalle [xj , xj+1 ] ;
3. ϕi (xi ) = 1 et ϕi (xj ) = 0 pour j 6= i.
Alors la famille {ϕ0 , · · · , ϕN } est linéairement indépendante et l’espace vectoriel engendré par
cette famille est inclus dans H01 . Notons :
h=

max (xi − xi−1 )

i∈{1,...,N

et ρ = h.

20RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES

ϕi

ϕ0

1

ϕN

x
0

x1

xi−1 xi

xi+1

xN 0−1

Figure 2.2 – Éléments finis en dimension 1 basés sur la subdivision 0 = x0 < x1 < · · · <
xN −1 < xN = 1 de [0, 1].

2.6.2

En dimension 2

Considérons Ω un ouvert borné polyédrique 4 . Considérons T = {T1 , · · · , TK } une famille de
SK
triangles ouverts telle que Ti ∩ Tj = ∅ et k=1 Tk = Ω. Notons {x1 , · · · , xn } l’ensemble des
sommets des triangles de T . Pour chaque Tk ∈ T , on définit hk de diamètre de Tk et σk le
diamètre du plus grand cercle inclus contenu dans Tk (c.f. Figure 2.3).

hk

σk

Figure 2.3 – Définition de kk et σk pour un triangle Tk de T .
On considère pour chaque i ∈ {1, · · · , N } la fonction ϕi (c.f. Figure 2.4) satisfaisant :
1. ϕi est continue ;
2. ϕi est affine sur chaque triangle de T ;
3. ϕi (xi ) = 1 et ϕi (xj ) = 0 pour j 6= i.
Alors la famille {ϕ0 , · · · , ϕN } est linéairement indépendante et l’espace vectoriel engendré par
4. Ω polyédrique signifie que Ω est l’intersection finie de demi-espaces de R2

ÉLÉMENTS FINIS P1

21

xi

Figure 2.4 – Élément fini ϕi en dimension 2.
cette famille est inclus dans H01 . Notons :
h=

max
k∈{1,...,K

et ρ =

min
k∈{1,...,K}

2.6.3

hk

σk
.
hk

résultat de convergence

Dans les deux cas présentés ci-dessus, nous avons le résultat de convergence lorsque h tends
vers 0.
R
Théorème 2.6.1. Supposons que la forme linéaire l est donnée par l(v) = Ω f (x)v(x) dx avec
f ∈ L2 (Ω) et supposons que l’application f ∈ L2 (Ω) 7→ u ∈ H 1 (Ω) (avec u la solution du
problème variationnel) est continue. Supposons de plus, la solution u du problème variationnel
est un élément de H 2 (Ω) et supposons enfin que ρ > 0 pour tout h > 0.
Alors, il existe une constante C > 0 indépendante de h telle que :
ku − uh kL2 (Ω) 6 Chk∇ukL2 (Ω)n ,
où u est la solution du problème variationnel posé dans H 1 (Ω) et uh la solution du problème
variationnel posé dans Vh .
Dans le théorème précédent, on a Vh construit comme l’espace vectoriel engendré par les ϕi
définis dans les deux paragraphes précédents.

22RÉSOLUTION NUMÉRIQUE DES ÉQUATIONS AUX DÉRIVÉES PARTIELLES ELLIPTIQUES

Bibliographie
[Bré83] Haïm Brézis. Analyse fonctionnelle. Théorie et applications. Collection Mathématiques
Appliquées pour la Maîtrise. Paris etc. : Masson. XIV, 233 p. FF 125.00 (1983)., 1983.
[Cia82] Philippe G. Ciarlet. Introduction à l’analyse numérique matricielle et à l’optimisation.
Collection Mathematiques Appliquees pour la Maitrise. Paris etc. : Masson. XII, 279 p.
FF 110.00 (1982)., 1982.
[RP10] Jacques Rappaz and Marco Picasso. Introduction à l’analyse numérique. Lausanne :
Presses Polytechniques et Universitaires Romandes, 2nd ed. edition, 2010.
[RT83] Pierre-Arnaud Raviart and Jean-Marie Thomas. Introduction à l’analyse numérique des
équations aux dérivées partielles. Collection Mathématiques Appliquées pour la Maîtrise.
Paris etc. : Masson. 224 p. (1983)., 1983.
[Sch01] Michelle Schatzman. Analyse numérique : une approche mathématique. Sciences SUP.
Mathématiques. Cours. Dunod, 2001.

23


Documents similaires


theoreme d arzela ascoli
introduction aux operateurs lineaires bornes
introduction aux operateurs lineaires bornes
demoaconnaitre2
introduction aux operateurs
lecon 5 quelques aspects topologiques des espaces de hilbert


Sur le même sujet..