CBG 1 ALGEBRE ET ANALYSE .pdf



Nom original: CBG 1 ALGEBRE ET ANALYSE.pdf

Ce document au format PDF 1.7 a été généré par pdfsam-console (Ver. 2.4.3e) / iText 2.1.7 by 1T3XT, et a été envoyé sur fichier-pdf.fr le 24/02/2015 à 20:24, depuis l'adresse IP 41.191.x.x. La présente page de téléchargement du fichier a été vue 1674 fois.
Taille du document: 414 Ko (68 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)










Aperçu du document


COURS D’ALGEBRE LINEAIRE & GEOMETRIE

Adolphe CODJIA
Licence 1, C.B.G.
11 Septembre 2014

Table des matières
1 MATRICES
1.1 L’espace vectoriel des matrices de type (p; q) sur un corps K commutatif .
2 DÉTERMINANTS
2.1 Déterminant d’une matrice carrée d’ordre 2 . . . . . . .
2.2 Déterminant d’une matrice carrée d’ordre 3 . . . . . . .
2.2.1 Calcul d’un déterminant d’ordre 3 . . . . . . . . .
2.3 Déterminant d’une matrice carrée d’ordre n supérieur ou
2.4 Inverse d’une matrice carrée . . . . . . . . . . . . . . . .
2.4.1 Comatrice . . . . . . . . . . . . . . . . . . . . .
2.4.2 Calcul de l’inverse d’une matrice . . . . . . . . .
2.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . .
3

. . . . .
. . . . .
. . . . .
égal à 3
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.

RÉSOLUTION D’UN SYSTEME LINÉAIRE
3.1 Résolution du système (S) . . . . . . . . . . . . . . . . . . . . . . .
3.2 Résolution avec la matrice augmentée . . . . . . . . . . . . . . . . .
3.2.1 Système quelconque . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Systèmes échelonnés . . . . . . . . . . . . . . . . . . . . . .
3.3 Méthode de résolution d’un système de Cramer par les déterminants
3.3.1 Méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

9
9
9
9
11
13
14
15
17

.
.
.
.
.
.
.

18
19
19
20
21
22
23
23

4 Géométrie dans le plan et l’espace R3
5 ESPACES VECTORIELS
5.1 Dé…nitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Dé…nition d’un espace vectoriel sur un corps . . . . . . . . . .
5.1.2 Dé…nition générale d’un espace vectoriel sur un corps (|; ~; |)
5.1.3 Suite liée de vecteurs. Suite libre de vecteurs . . . . . . . . . .
5.2 Espaces vectoriels de dimension …nie . . . . . . . . . . . . . . . . . .
5.2.1 Espace vectoriel ayant un nombre …ni de générateurs . . . . .
5.2.2 Base d’un espace vectoriel . . . . . . . . . . . . . . . . . . . .
5.3 Sous-espaces vectoriels d’un espace vectoriel de dimension …nie . . . .
5.3.1 Rang d’une suite …nie de vecteurs . . . . . . . . . . . . . . . .
5.4 Sous-espaces supplémentaires . . . . . . . . . . . . . . . . . . . . . .

2
2

25
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

26
26
26
27
28
29
29
29
30
30
31

6 APPLICATIONS LINÉAIRES
32
6.1 Image et Noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.1.1 Le théorème noyau-image . . . . . . . . . . . . . . . . . . . . . . . 33
1

TABLE DES MATIÈRES
6.1.2 Rang d’une application linéaire . . . .
6.2 Opérations sur les applications linéaires . . . .
6.2.1 L’espace vectoriel L (E; F ) . . . . . . .
6.2.2 Composition des applications linéaires
6.3 Matrice d’une application linéaire f : E ! F .
6.3.1 Changement de bases . . . . . . . . . .

i

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

33
34
34
34
35
36

INTRODUCTION
Au commencement était La Géométrie des Grecs, puis vint René Descartes
qui, avec son système de repère et de coordonnées, a donné un autre aspect de
la géométrie en terme d’algèbre voire d’algèbre linéaire quitte à se passer de
l’intuition géométrique immédiate.L’algèbre est la science des équations,
cette science des équations consiste à :
1. la recherche de l’ensemble des solutions d’équations
(avec le constat qu’il y a stabilité de cet ensemble moyennant
certaines lois de compositions internes ou externes, on a pensé au point 2.) ;
2. Structuration de l’ensemble des solutions d’équations, c’est-à-dire munir
cet ensemble de loi de composition interne (et/ou) de loi de composition externe
(moyennant un ou des ensembles structurés) avec des propriétés avérées.
3. Etudier les applications entre des ensembles structurés de même type
avec la propriété de la transparence des structures en présence,
ces applications sont appélées homomorphismes ;
4. Structuration de l’ensemble des homomorphismes.
Le nom de l’algèbre est lié au nom des équations auquelles on a a¤aire.
Exemple : Les équations linéaires constituent les ingrédients de l’algèbre linéaire,
les équations polynômiales constituent les ingrédients de l’algèbre des polynômes.
Le rôle de l’algèbre linéaire est de traiter des équations linéaires, et la structuration
naturelle de l’ensemble des solutions d’équations linéaires a
une structure d’espace vectoriel.
En ce qui concerne ce cours, c’est à la fois une invitation au voyage dans les contrées
de l’algèbre linéaire, et un accompagnement à la gare d’où l’on embarque pour
le voyage en question. Bon voyage !

1

Chapitre 1
MATRICES
1.1

L’espace vectoriel des matrices de type (p; q) sur
un corps K commutatif

Soit (K; +; ) un corps commutatif.
Dé…nition p et q étant deux entiers, p 1; q 1;
une matrice p q ou de type (p; q) est, par dé…nition, un tableau :
0
1 2
3
a11 a12
a1q
a11 a12
a1q
B a21 a22
6
a2q C
a2q 7
B
C 6 a21 a22
7
A = B ..
.. C = 6 ..
.. 7
@ .
. A 4 .
. 5
ap1 ap2
apq
ap1 ap2
apq

à p lignes et q colonnes d’éléments aij 2 K; l’élément aij s’appelle un terme,
ou coe¢ cient de la matrice A; l’indice i correspond à la ligne, l’indice j à la colonne.
On emploie aussi la notation
A = (aij ) 1
1

Ceci est la 2eme ligne : a21 a22

i
j

p
q

:

a2q ; la 2eme

a12
a22
colonne est : .. :
.
ap2

Di¤érents types de matrices
a) Matrice uniligne : p = 1
a1q :
M = a11 a12

2

6
6
b) Matrice unicolonne : q = 1; M = 6
4

a11
a21
..
.
ap1

3

7
7
7:
5

c) Matrice nulle de type (p; q)
C’est la matrice à p lignes et q colonne dont les composantes sont toutes nulles.
d) Matrice carrée d’ordre n
C’est une matrice à n lignes et n colonnes, les termes aii forment
la diagonale principale
2

CHAPITRE 1. MATRICES

e) Matrice diagonale
C’est une matrice carrée telle que tous les termes en dehors de la diagonale principale
sont nuls.
Exemples :
2
3
1 0 0
2 0
2 0 5 ; A2 =
A1 = 4 0
:
0
6
0 0 3

f) Matrice unité d’ordre n
C’est la matrice diagonale d’ordre n telle que tous les termes de la diagonale
principale sont égaux à 1 (et les autres nuls). On la note In :
Exemple
2
3
2
3
1 0 0 0
1 0 0
6 0 1 0 0 7
1 0
7
I2 =
;
I3 = 4 0 1 0 5 ;
I4 = 6
4 0 0 1 0 5:
0 1
0 0 1
0 0 0 1
g) Matrice triangulaire supérieure :
C’est une matrice carrée telle que tous les termes en-dessous de la diagonale
principale
sont nuls.3
2
1 5 0
1
6 0 0
4
0 7
7:
Exemple : A = 6
4 0 0 1
2 5
0 0 0
3
h) Matrice triangulaire inférieure :
C’est une matrice carrée telle que tous les termes au-dessus de la diagonale
principale
2 sont nuls
3
1
0
0
0
6 0
7
0
0 7
7:
Exemple : B = 6
4 5
8
1 0 5
6 4
1
9
i) Transposée d’une matrice :
On appelle transposée de la matrice A = (aij ) 1 i p la matrice A0 = a0ij 1 i
1

j

q

1

j

q
p

où a0ij = aji :
La transposée de A est notée t A; c’est la matrice dont les colonnes sont les lignes
de A et vice versa.
2
3
1
4
1 2 1+i
t
6 5.
Exemple : A =
;
A=4 2
4
6
8
1+i
8
Remarque
Soient A; B 2 Mpq (K), on a : (t (t A)) = A.
j) Opposée d’une matrice :
C’est la matrice obtenue en prenant l’opposée de chaque terme :
si A = (aij ) 1
1

Deux matrices A = (aij ) 1
1

i
j

p
q

i
j

p
q

( A) = ( aij ) 1
1

et B = (bij ) 1
1

i
j

p
q

i
j

p
q

:

, de type (p; q) sont égales

si leurs coe¢ cients aij et bij sont égaux, quels que soient i = 1; 2; :::; p
et j = 1; 2; :::; q:
3

CHAPITRE 1. MATRICES

1. Somme.
On dé…nit la matrice C = A + B; de type (p; q) ; somme des deux matrices de
type (p; q), par ses coe¢ cients : cij = aij + bij ,
1 i p; 1 j q:
2
1
1 i
3 1
1+i
Exemple : A =
; B=
;
3
1+i
2
3 1
i
2+3
1+1
1 i + ( 1 + i)
5 0
0
A+B =
=
3 + ( 3)
1+i+1
2+i
6 i 2+i
2
1
1 i
2
( 1)
(1 i)
A + ( A) =
+
3
1+i
2
( 3)
( 1 + i)
2
0 0 0
=
:
0 0 0
On a ainsi une loi de composition interne : l’addition, qui fait de l’ensemble Mpq (K)
des matrices p q un groupe commutatif. L’élément neutre est la matrice
dont tous les coe¢ cients aij sont nuls dite matrice nulle 0.
La matrice opposée à A = (aij ) est la matrice A de coe¢ cients aij .
Remarque
Soient A; B 2 Mpq (K), on a :
(t (A + B)) = (t A) + (t B).
2.Multiplication par un scalaire. Soit 2 K, la matrice A est par dé…nition,
la matrice de coe¢ cient aij , où A = (aij ).
C’est le produit de la matrice A 2 Mpq (K) par le scalaire notée A:
2
1 + 2i 1 i
Exemple : A =
;
3
1+i
0
2 2
2 ( 1 + 2i) 2 (1 i)
4
2 + 4i 2 2i
2A =
=
:
2 ( 3)
2 ( 1 + i)
2 0
6
2 + 2i
0
avec les propriétes suivantes :
(i) 1:A = A, pour tout élément A 2 Mpq (K).1 étant l’élément neutre de (K ; ).
(ii) ( A) = ( ) A, pour tout élément A 2 Mpq (K), 8 , 2 K:
(iii) (A + B) = A + B, 8 2 K, 8A,B 2 Mpq (K) :
(iv) ( + ) A = A + A, 8 , 2 K, pour tout élément A 2 Mpq (K) :
Ainsi l’addition qui fait de l’ensemble Mpq (K) des matrices de type (p; q) un groupe
commutatif en association avec la loi de composition externe
(qui est la multiplicationon par un scalaire, d’une matrice) véri…ant les propriétés
sus-mentionnées fait de Mpq (K) un K-espace vectoriel.
Remarque
Soient A 2 Mpq (K), on a : (t ( A)) = (t A), 2 K.
3. Produit de deux matrices
Soient A = (aij ) 1 i m 2 Mm;n (K) B = (bij ) 1 i n 2 Mn;p (K) ,
1

j

n

1

on pose : AB = C = (cij )1
1

i
j

m
p

j

p

2 Mm;p (K) ; où cij =

n
X

aik bkj

k=1

(on dit que l’on fait li-col, c’est-à-dire ligne par colonne) est le produit de
la matrice A par B, produit possible si le nombre de colonnes de A est égal
au nombre de lignes de B: En fait pour obtenir le terme cij de la matrice A B = AB;
on multiplie les composantes de la ieme ligne de A par celles de la j eme colonne
de B dans l’ordre et on fait la somme des di¤érents produits.
On a symboliquement du point de vu des types de matrices
(m; n) (n; p) = (m; p) :
4

CHAPITRE 1. MATRICES
2

1
Exemple : A = 4 4
2 0
1
A B = AB = 4 4
0
2

3
3
1 5; B =
2 3
3
3
1 5
1
2

3
1

1 2 1
3 4 7

;

1 2 1
3 4 7

3
1 ( 1) + 3 ( 3)
1 2+3 4
1 1+3 7
4 ( 1) + 1 ( 3)
4 2+1 4
4 1+1 7 5
0 ( 1) + 2 ( 3)
0 2+2 4
0 1+2 7
3
0
8 10 20
4 3 5:
= 4 11 1
2
6 8 14
B A n’est pas un produit possible car le nombre de colonnes de B
égalant 4 n’est pas égal au nombre de lignes de A qui est 3:
Propriétés
1. A (B + C) = AB + AC; 8A 2 Mm;n (K) ; 8B; C 2 Mn;p (K) .
2. (A + B) C = AC + BC; 8A; B 2 Mm;n (K) ; 8C 2 Mn;p (K) .
3. 8 2 K; 8A 2 Mm;n (K) ; 8B 2 Mn;p (K) ;
( A) B = A ( B) = (AB) :
4. 8A 2 Mm;n (K) ; 8B 2 Mn;p (K) ; 8C 2 Mp;r (K) ;
(AB) C = A (BC) = ABC.
5. (t (AB)) = (t B) (t A), 8A 2 Mp;n (K) ; 8B; 2 Mn;p (K) .
6. Ip :A = A = A:In , 8A 2 Mp;n (K), IP , In sont unitées d’ordre resp. p; n.
Dé…nition
Soit A 2 Mpq (K). On appelle opérations élémentaires sur A l’une des
transformations suivantes :
1. Ajouter à une colonne(resp. ligne) de A le produit par un élément de K
d’une autre colonne(resp. ligne) : on parle de transvection sur les colonnes
(resp. lignes) de A.
2. Permuter les colonnes(resp. lignes) de A.
3. Multiplier une colonne(resp. ligne) de A par un élément de K :
on parle de dilatation ou d’a¢ nité sur A.
Dé…nition
Etant donné A = (aij ) 2 Mn (K) une matrice carrée d’ordre n
(nombre de lignes = nombre de colonnes=n), on dé…nit une application
n
X
tr de Mn (K) sur K nommée trace telle que tr (A) =
aii .
1 3+3 1
=4 4 3+1 1
0 3+2 1
2

i=1

Mn (K) est l’ensemble des matrices de type (n; n), dites aussi matrices carrée
d’ordre n.
Remarque
(Mn (K) ; +; ) est un anneau unitaire non commutatif .
L’élément unité se note In :
Dé…nition
A 2 Mn (K) est dite inversible s’il existe B 2 Mn (K) telle que AB = BA = In .
1
qui n’existe pas.
B est appelée l’inverse de A et se note B = A 1 6=
A
Proposition
5

CHAPITRE 1. MATRICES

L’ensemble Mpq (K) des matrices p q est un espace vectoriel sur K;
(ce terme sera dé…ni plus tard) par rapport aux deux opérations sus-mentionnées.
La dimension de Mpq (K) sur K est pq;une base est constituée par les matrices Eij
tels que aij = 1 et ars = 0; si r 6= i ou s 6= j. Ceux sont les matrices élémentaires
de Mpq (K).
X
Soit A = (aij )
2 Mpq (K), alors A =
aij Eij .
1
1

Exemples.
1
E11 =
0
0
E21 =
1

i
j

p
q

a° )
0
0
0
0

Une base de l’espace
0
0 1
; E12 =
0
0 0
0
0 0
; E22 =
0
0 1
2 5
7
Ainsi la matrice A =
9 8 4
A = 2E11 + 5E12

1
1

i
j

p
q

vectoriel M23 (R)
0
0
; E13 =
0
0
0
0
; E23 =
0
0

est constitué par les matrices :
0 1
;
0 0
0 0
:
0 1

appartenant à M23 (R) s’écrit :
7E13 + 9E21 + 8E22 + 4E23 :

a1q :
b° ) Une matrice 1 q a la forme A = a11 a12
q
on l’appelle matrice ligne ou uniligne
0 l’espace
1 M1q (K) est isomorphe à K :
a11
B a21 C
B
C
c° ) Une matrice p 1 a la forme B = B .. C :
@ . A
ap1
On l’appelle matrice colonne ou unicolonne ; l’espace Mp1 (K) est isomorphe
à K p:
d° ) Une matrice n n est dite matrice carrée d’ordre n; l’espace vectoriel de
ces matrices est notée Mn (K) ; il est de dimension n2 sur K:
e) Deux matrices A; B 2 Mn (K), on a tr (AB) = tr (BA).
Il s’agit de l’application trace sur Mn (K).
f) Deux matrices A; B 2 Mpq (K) sont semblables s’ils existent P 2 Mp (K) inversible
et Q 2 Mq (K) inversible telle que A = P BQ.
g) Deux matrices A; B 2 Mn (K) sont semblables s’il existe P 2 Mn (K) inversible
telle que A = P 1 BP . Alors tr (A) = tr (B).
Proposition
Etant donnée une matrice A 2 Mpq (K), à l’aide des opérations élémentaires sur A,
Ir
Rr(q r)
A sera semblable à une matrice de la forme suivante : R =
0(p r)r 0(p r)(q r)
où r inf (p; q), Ir est la matrice unité d’ordre r et
0st est la matrice identiquement nulle avec s lignes et t colonnes.
On appelle l’entier r le rang de la matrice A et se note rg (A) = r = rg (t A).
Exemple2
3
5 2 4 7
Soit A = 4 3 2 0 1 5, recherchons le rang de A.
1 0 2 3
Nous allons faire des opérations élémentaires sur les lignes de A en
augmentant A de la matrice identité de même nombre de lignes que A.
Et on fait les opérations élémentaires sur la matrice augmentée.
Ainsi d’entée, on a :
6

CHAPITRE 1. MATRICES
2

6
6 5
6
6 3
6
4 1
|
2
1
4 0
2 0
1
4 0
2 0

3

7
2 4 7 1 0 0 7
7
2 0 1 0 1 0 7
7
0 2 3 0 0 1 5
{z
}| {z }
A

0
2
2
0
2
0

2
6
6
2
6
0

6 1 0 2
6
6 0 1
3
6
4 0 0 0
|
{z
R0

2

1 0 2 3 0
4 5 2 4 7 1
3 2 0 1 0

I3
3
3 0 0 1
8 1 0
5 5 L2 5L1
3 3L3 3L1
8 0 1
0 0 1
3
5 5
8 1 0
1 1 2 3 L 3 L2
0

3
0 0
4 12 0
0
1 1
}|
{z
P

1 7
7
5 7
2 7
2 5
}

3
0 1
L3
5
0 0
L1
1 0
L2

1
L2 .
2

On constatera que P A = R0 .
On continue les opérations élémentaires sur les colonnes cette fois-ci,
en augmentant R0 en bas de sa troisième ligne par la matrice identité de
même nombre de colonnes que R0 , c’est-à-dire :
C3 -2C1 C4 -3C1
C3 +3C2 C4 +4C2
2
3 2
3 2
3
1 0 2
3
1 0 0
0
1 0 0
0
6 0 1
6
6
3
4 7
3
4 7
0 7
6
7 6 0 1
7 6 0 1 0
7
6 0 0 0
6
6
7
7
7
0
0
0
0
0
0
0
0
0
6
7 6
7 6
7
6 1 0 0
6
6
0 7
2
3 7
2
3 7
6
7 6 1 0
7 6 1 0
7.
6 0 1 0
6
6
7
7
0 7 6 0 1 0
0 7 6 0 1 3
4 7
6
7
4 0 0 1
0 5 4 0 0 1
0 5 4 0 0 1
0 5
0 0 0
1
0 0 0
1
0 0 0
1
2
3
2
3
1 0
2
3
1 0 0 0
6 0 1 3
4 7
7.
4
Ici on a : R = 0 1 0 0 5 et on pose Q = 6
4 0 0 1
0 5
0 0 0 0
0 0 0
1
On constate que P AQ = R,et que P et Q sont des matrices carrées inversibles
d’ordre respectif 3 et 4 ainsi A est semblables à R et le rang de A est 2.
Proposition
a) Toute opération élémentaire transforme une matrice A en une matrice de
même rang que A.
b) Deux matrices semblables, ont le même rang.
Dé…nition
Deux matrices non carrées semblables , sont dites équivalentes aussi.
Proposition
Deux matrices sont équivalentes ssi elles ont le même rang.
Rémarque
1 0
1
2
et B =
,
Voici deux matrices carrées A =
1
1
0 0
2
Le rang de A = le rang de B = 1, mais elles ne sont pas semblables
car tr (A) = 0 6= 1 = tr (B), alors que si elles étaient semblables,
7

CHAPITRE 1. MATRICES

elles devraient avoir la même trace.

8

Chapitre 2
DÉTERMINANTS
Le déterminant est un simple scalaire(nombre) calculé à partir des éléments
d’une matrice carrée. Ce scalaire est nul si la matrice carrée en question est
non inversible.

2.1

Déterminant d’une matrice carrée d’ordre 2
a b
c d

Soit A =

: On appelle déterminant de A le nombre ad

On note dét A ou

bc.

a b
:
c d

Exemple
A=

2.2

1 3
4 2

; det A =

1 3
4 2

=2

( 1)

3

4=

14

Déterminant d’une matrice carrée d’ordre 3

3
a11 a12 a13
Soit A = 4 a21 a22 a23 5. On appelle déterminant de A le nombre
a31 a32 a33
a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a31 a22 a13 a32 a23 a11 a33 a21 a12 :
a11 a12 a13
On note det A ou a21 a22 a23 :
a31 a32 a33
2

2.2.1

Calcul d’un déterminant d’ordre 3

Par la méthode de Sarrus
On complète par les deux premières colonnes à droite
(ou par les deux premières lignes en bas) et on fait les produits 3 à 3 ceux parallèles
à la diagonale principale sont comptés positivement et les autres perpendiculaires
à la diagonale principale sont comptés négativement.
a11 a12 a13 a11 a12
det A = a21 a22 a23 a21 a22 =
a31 a32 a33 a31 a32
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) (a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ) :
9

CHAPITRE 2. DÉTERMINANTS

Remarque : La méthode de Sarrus ne s’applique qu’au déterminant d’ordre 3.
Méthode par le développement suivant une ligne ou une colonne.
2
3
a11 a12 a13
Soit A = 4 a21 a22 a23 5 le déterminant de A s’obtient par développement
a31 a32 a33
suivant la première ligne a11 a12 a13 , en multipliant chaque aij
par ( 1)i+j et
par le déterminant obtenu en éliminant la ligne et la colonne de aij et en faisant
la somme des di¤érents produits :
a22 a23
Quand on élimine la ligne et la colonne de a11 il reste
;
a32 a33
a21 a23
quand on élimine la ligne et la colonne de a12 il reste
;
a31 a33
quand on élimine la ligne et la colonne de a13 il reste

a21 a22
.
a31 a32

Ainsi de suite.
det A = ( 1)1+1 a11

a22 a23
a32 a33

+ ( 1)1+2 a12

a21 a23
a31 a33

a21 a22
a31 a32
= a11 (a22 a33 a32 a23 ) a12 (a21 a33 a31 a23 )
+a13 (a21 a32 a31 a22 )
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 )
(a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ) :
Le déterminant s’obtient aussi par le développement
une colonne,
0 suivant
1
a12
développons det A suivant la 2ieme colonne de A @ a22 A , on a :
a32
a21 a23
a11 a13
+ ( 1)2+2 a22
det A = ( 1)1+2 a12
a31 a33
a31 a33
a11 a13
+ ( 1)3+2 a32
a21 a23
= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 )
(a31 a22 a13 + a32 a23 a11 + a33 a21 a12 ) :
Exemples
2
3
2
3
1
2 3
0
0
5
0 1 5; B = 4 4
1 2 5:
A=4 3
1 4 5
2
2 0
1
2 3
0 1 développons suivant la 2eme ligne.
det A = 3
1 4 5
2 3
1
2
det A = ( 1)1+2 3
+ ( 1)2+3 1
4 5
1 4
= 3 ( 2 5 4 3) 1 ( 1 4 ( 1) ( 2))
= 3 ( 22) ( 6) = 72:
Développons det B suivant la 1ere ligne :
+ ( 1)1+3 a13

10

CHAPITRE 2. DÉTERMINANTS
0
0
4
1
2
2
= 5 ( 4
Développons det B
0
0
4
1
det B =
2
2

5
4
1
2 = ( 1)1+3 ( 5)
2
2
0
( 2) ( 1) 2) = 50:
suivant la 1ere colonne
5
2
0
0
5
0
5
= ( 1)1+2 ( 4)
+ ( 1)1+3 2
2 0
1 2
= ( 4) (0 0 ( 2) ( 5)) + 2 (0 2 ( 1) ( 5))
= 40 10 = 50:

det B =

2.3

Déterminant d’une matrice carrée d’ordre n supérieur ou égal à 3

On se ramène à des calculs de déterminants d’ordre inférieur à n en développons
suivant une ligne ou une colonne.
Exemple
2
3
1 0 2 0
6 2 3
1 4 7
7, développons suivant la 4eme colonne :
A=6
4 3 2
1 0 5
4 5
1 0
1 0 2 0
1 0 2
2 3
1 4
2+4
3 2
1
det A =
= ( 1)
4
3 2
1 0
4 5
1
4 5
1 0
1 2
1 2
=4 2
5
3
1
4
1
= 4 [2 (1 8) 5 (1 + 6)] = 4 ( 14 35)
= 4 ( 49) = 196:
Remarque
Pour développer suivant les lignes ou les colonnes, il vaut mieux choisir celles
qui renferment le plus de zéros pour réduire le nombre de calculs.
4) Propriétés des déterminants
1) Soient A et B deux matrices carrées d’ordre n: Alors on a :
det (AB) = det A det B: 8 2 K; 8A 2 Mn (K) ; alors det ( A) = n det A:
2) Le déterminant d’une matrice triangulaire, en particulier celui d’une matrice
diagonale, est égal au produit des éléments diagonaux
(c’est-à-dire des éléments de la diagonale principale).
3) Le déterminant d’une matrice unité est égale à 1:
Exemples
0
1
1 2 3
1 A;
A=@ 0 3
0 0
2
11

CHAPITRE 2. DÉTERMINANTS
1 2 3
0 3
1 = 1 3 ( 2) = 6:
0 0
2
2
3
2 0 0
0
6 0 3 0
0 7
7;
B=6
4 0 0
1 0 5
0 0 0
5
2 0 0
0
0 3 0
0
det B =
= 2 3 ( 1) ( 5) = 30:
0 0
1 0
0 0 0
5
4) Le déterminant ne change pas quand on ajoute à une ligne une combinaison
des autres lignes ; en particulier, on peut remplacer une ligne par la somme de
toutes les lignes ou encore ajouter à une ligne multiplié par une autre ligne où
est un scalaire.
(Dans la propriété 4) en remplacant ligne(s) par colonne(s), on a le même résultat).
Exemple
1
2 3
0 1 ; en ajoutant à la 3eme ligne, deux fois la 1ere ligne, on a :
det A = 3
1 4 5
1
2 3
0 1 ; je développe par rapport à la 2eme colonne,
det A = 3
3 0 11
3 1
= 2 (33 + 3) = 72:
det A = ( 2)
3 11
Remarque
Il est plus intéressant de faire des manipulations (légitimes) qui font apparaître
des zéros dans le déterminant a…n d’en faciliter le calculer(voir supra).
5) Le déterminant d’une matrice dont une ligne ou une colonne est formée de zéros
est un déterminant nul. Le déterminant d’une matrice dont une ligne(resp. une colonne)
est une combinaison des autres lignes (resp. des autres colonnes) est
un déterminant nul.
Exemple
1
2 3
6 1 = 0; car la 2eme colonne est égale à deux fois la
det A = 3
1
2 5
ere
1 colonne.
6) Lorsqu’on permute deux lignes (ou deux colonnes) dans un déterminant
le déterminant est changé en son opposé.
M N
7) Soient M 2 Mr (K), N 2 Mrs (K) et P 2 Ms (K) alors
= jM j jP j.
0 P
A1
n
Y
0 A2
8) Soient Ai 2 Mri (K) où 1 i n, alors
=
jAi j.
..
.
0 0
det A =

i=1

0 0 0
9) Si deux matrices A; B 2 Mn (K) sont semblables, alors
8m 2 K, 8k 2 N , rang (A + mIn )k = rang (B + mIn )k ,
det (A + mIn )k = det (B + mIn )k et
12

An

CHAPITRE 2. DÉTERMINANTS
trace (A + mIn )k = trace (B + mIn )k .
10) Soit A 2 Mn (K), det (A) = det (t A).
Rémarque
0 1
1
2
,B=
,
Voici deux matrices carrées A =
1
1
0 0
2
On a le rang de A = au rang de B= 1, det (A) = det (B) = 0,
tr (A) = tr (B) = 0, mais A et B ne sont pas semblables car
1
2
2 1
1 0
=
1
1
1
1
1
0
2
2
1 2
2 1
0 1
=
.
0 0
1 0
0 0
1 0
2 1
,Q=
Soit P = 1
, on a alors
1
1
0
2
P AQ = B, comme A et B sont des matrices carrées, elles seraient
semblables si P 1 = Q, alors qu’avec
1 0
1 0
=
P = I2 , on a
P
1
1
1
1
2
2
1 0
2 1
P 1=
6= Q =
, donc on peut conclure
1
1
1 0
2
que A et A ne sont pas semblables, alors qu’elles ont le même rang,
le même déterminant, et la même trace.
En résumé : Avoir le même rang , le même déterminant, et la même trace,
pour des matrices carrés de même ordre, sont des conditions nécessaires
pour qu’elles soient semblables, mais pas su¢ santes.

2.4

Inverse d’une matrice carrée

1) Dé…nition
Une matrice carrée A d’ordre n est inversible s’il existe une matrice
(carrée d’ordre n)
B telle que A B = B A = In .
B est alors appelée inverse de la matrice A.
Exemple
3
1
2 3
A=
: On véri…e que pour B = 51 52 ;
1
1
5
5
on a : AB = BA = I2 .
Donc A est inversible et B est inverse de la matrice A:
2 Théorème
Une matrice carrée A est inversible si et seulement si son déterminant est non nul.
1
Si A est inversible, son inverse est unique. On la note A 1 et on a : det (A 1 ) =
.
det A
Exemple
2 3
A=
, det A = 2 6= 0 donc A est inversible.
2 2
Propriétés de la matrice inverse
Si A et B sont inversibles de même ordre, on a :
1
1. (A 1 ) = A
2. ( A) 1 = 1 :A 1 , où 2 K.
1
3. (t (A 1 )) = (t (A))
13

CHAPITRE 2. DÉTERMINANTS
4. (AB) 1 = B 1 A 1 .
Exercice
Montrer que :
1. A (In + A) 1 = (In + A) 1 A, Si (In + A) est inversible avec A 2 Mn (K).
2. A (In + A) 1 + (In + A) 1 = In , Si (In + A) est inversible avec A 2 Mn (K).
3. A (In + BA) 1 = (Im + AB) 1 A, si A 2 Mmn (K) et B 2 Mnm (K) avec
(In + BA) et (Im + AB) sont inversibles.
4. En déduire que : (Im + AB) 1 + A (In + BA) 1 B = Im .
Proposition de réponse.
1. (In + A) (In + A) 1 = In =) A (In + A) (In + A) 1 = A:In = A =)
(A + A2 ) (In + A) 1 = A () (In + A) A (In + A) 1 = A ()
(In + A) 1 (In + A) A (In + A) 1 = (In + A) 1 A ()
In :A (In + A) 1 = (In + A) 1 A () A (In + A) 1 = (In + A) 1 A.
2. Evaluons : (In + A) 1 + (In + A) 1 A = (In + A) 1 (In + A) = In .
3. (In + BA) (In + BA) 1 = In =) A (In + BA) (In + BA) 1 = A:In = A
() (A:In + A (BA)) (In + BA) 1 = A () (Im :A + (AB) A) (In + BA) 1 = A
() (Im + AB) A (In + BA) 1 = A ()
(Im + AB) 1 (Im + AB) A (In + BA) 1 = (Im + AB) 1 A ()
(Im A) (In + BA) 1 = (Im + AB) 1 A () A (In + BA) 1 = (Im + AB) 1 A.
4. Evaluons (Im + AB) 1 + A (In + BA) 1 B = (Im + AB) 1 + (Im + AB) 1 AB
d’après la question 3. De là, on a :
(Im + AB) 1 + A (In + BA) 1 B = (Im + AB) 1 + (Im + AB) 1 AB
= (Im + AB) 1 (Im + AB) = Im .

2.4.1

Comatrice

Soit A = (aij )1 i; j n . On appelle cofacteur de l’élément aij
le nombre Cij = ( 1)i+j Xij
où Xij est le déterminant obtenu en éliminant la ieme ligne et la j eme colonne de A:
La matrice des cofacteurs de A est la matrice notée
com (A) = ( 1)i+j Xij
= (Cij )1 i; j n .
1

i; j

n

appelée la comatrice de A. le determinant extrait Xij est appelé le mineur de aij .
2
3
a11
a12
a1(j 1)
a1j
a1(j+1)
a1n
6 a21
a22
a2(j 1)
a2j
a2(j+1)
a2n 7
6
7
..
..
..
..
..
..
6
7
.
.
.
.
.
.
6
7
6
7
a(i 1)(j 1) a(i 1)j a(i+1)(j+1)
a(i 1)n 7
6 a(i 1)1 a(i 1)2
Avec A = 6
7,
ai2
ai(j 1)
aij
ai(j+1)
ain 7
6 ai1
6
7
a(i+1)(j 1) a(i+1)j a(i+1)(j+1)
a(i+1)n 7
6 a(i+1)1 a(i+1)2
6
7
..
..
..
..
..
..
4
5
.
.
.
.
.
.
an1
an2
an(j 1)
anj
an(j+1)
ann

14

CHAPITRE 2. DÉTERMINANTS
a11
a21
..
.

a12
a22
..
.

a1(j
a2(j
..
.

a1(j+1)
a2(j+1)
..
.

1)
1)

a1n
a2n
..
.

a(i 1)1 a(i 1)2
a(i 1)(j 1) a(i+1)(j+1)
a(i 1)n .
a(i+1)1 a(i+1)2
a(i+1)(j 1) a(i+1)(j+1)
a(i+1)n
..
..
..
..
..
.
.
.
.
.
an1
an2
an(j 1)
an(j+1)
ann
On constate que 81 i; j n, Cij = Xij si (i + J) est pair et
Cij = Xij si (i + j) est impair.
Exemple
2
3
1
3
2
1 3 5 : Notons A = (aij )1 i; j 3 :
A=4 0
1
5 6
1 3
1 3
Le cofacteur de a11 = 1 est ( 1)1+1
= 9, on a X11 =
5 6
5 6
1
2
1
2
Le cofacteur de a32 = 5 est ( 1)3+2
= 3, on a X32 =
:
0 3
0 3
Ainsi de suite.
2
3
9
3
1
2 5.
La comatrice de A est donc comA = 4 8 4
7
3
1
D’après le calcul du déterminant par le développement suivant une ligne où
une colonne, on a :
Théorème
Soit A = (aij )1 i; j n .
Déterminant de A développé par rapport à la i-ième ligne :
det (A) = ai1 Ci1 + ai2 Ci2 + ::: + ain Cin .
Déterminant de A développé par rapport à la j-ième colonne :
det (A) = a1j C1j + a2j C2j + ::: + anj Cnj .
Xij =

2.4.2

Calcul de l’inverse d’une matrice

Par la méthode des cofacteurs
En reprenant la formule du déterminant de A développé par rapport
à la i-ième ligne : det (A) = ai1 Ci1 + ai2 Ci2 + ::: + ain Cin .
Remplaçons les aij , 81 j n, par ceux d’une autre ligne,
disons la k-ième ligne, avec k 6= i, nous obtenons :
det (A0 ) = ak1 Ci1 + ak2 Ci2 + ::: + akn Cin = 0, car A0 n’est rien d’autre que
la matrice A dans laquelle la i-ième ligne est remplacer par la k-ième ligne, avec k 6= i,
donc A0 a deux lignes identiques : la i-ième ligne et la k-ième ligne, avec k 6= i,
ainsi det (A0 ) développé suivant la i-ième ligne est :
det (A0 ) = ak1 Ci1 + ak2 Ci2 + ::: + akn Cin et est égal à 0, car dans det (A0 ),
il y a deux lignes identiques.
det (A) si i = k
En résumé, on a : ak1 Ci1 + ak2 Ci2 + ::: + akn Cin =
.
0 si i 6= k

15

CHAPITRE 2. DÉTERMINANTS
2

6
6
Considérons la matrice des cofacteurs com (A) = C = 6
4
2

Cn1 Cn2
C21
Cn1
C22
Cn2
..
.

3
C1n
C2n 7
7
7.
..
5
.
Cnn
3

a1n
C11
7
6
7
a2n 7 6 C12
7
:
7
6
7
.
..
5 4 ..
5
.
an1 an2
ann
C1n C2n
Cnn
2
3
det (A)
0
0
..
.
6
7
0
det (A) . .
.
6
7
=6
7 = det (A) In .
.
.
.
..
..
..
4
5
0
0
0 det (A)
car dans le produit A: (t C), l’élément de la i-ième ligne et de la j-ième colonne est :
det (A) si i = j
ai1 Cj1 + ai2 Cj2 + ::: + ain Cjn =
.
0 si i 6= j
On a (t C) :A = A: (t C) = det (A) In .
Proposition
Pour tout A 2 Mn (K), on a :
(det A) :In = A:com (t A) = com (t A) :A = A (t comA) = (t comA) :A
car (t comA) = com (t A).
Théorème
1
1
com (t A) =
(t com (A))
Si A est une matrice inversible alors A 1 =
det
A
det
A
où t A désigne la transposée de A; com (t A) désigne la comatrice de la transposée
de A et (t com (A)) désigne la transposée de la comatrice de A.
Dé…nition
Pour tout A 2 Mn (K), la matrice (t comA) = com (t A) s’appelle la matrice
adjointe de A.
Remarque
1
qui n’existe pas.
Soit une matrice inversible A; son inverse est notée A 1 6=
A
Exemple 2
3
1
0
1
1
5 5 ; A est -elle inversible ?
Soit A = 4 3
2 3
6
1
0
1
0
0
1
1
5 =
2
1
5 = 2, à la 1ere colonne, j’ai fait la
det A = 3
2 3
6
4
3
6
ere
eme
1 colonne plus la 3
colonne a…n d’avoir plus de zéro dans mon déterminant
pour ne pas avoir beaucoup de termes à développer. Comme det A = 2 6= 0,
alors A est inversible.
1
1
1
com (t A) =
(t com (A)).
A =
det A
2 det A
3
1
3
2
t
1 3 5,
A=4 0
1
5 6
6
6
Evaluons A: (t C) = 6
4

a11 a12
a21 a22
..
.

3 2

C11 C12
C21 C22
..
.

16

CHAPITRE 2. DÉTERMINANTS
2

3
9
3
1
2 5 = (t com (A)).
com (t A) = 4 8 4
7
3 31 2
2
3
3
1
9
9
3
1
2
2
2
1
2 5=4 4 2
1 5.
A 1= 4 8 4
2
7
3
1
7
3
1
2
2
2

2.5

Rang d’une matrice

A = (aij ) 1
1

i
j

n.
m

On a rgA

min (n; m).

Si m = n, et que rgA = n () det A 6= 0.
Proposition
Soit A = (aij ) 1 i n alors rgA est le plus grand entier naturel s
1

j

m

qui est tel qu’on puisse extraire de A une matrice d’ordre s de déterminant 6= 0
(avec permutation des colonnes de A si necessaire).
Exemple
2 0 5
1
2 0
A=
, on a
= 4 6= 0 comme 2
rgA;donc rgA = 2.
1 2 3 1
1 2
Corollaire
rg (t A) = rgA.

17

Chapitre 3
RÉSOLUTION D’UN SYSTEME
LINÉAIRE
Dé…nition
De maniére générale, on appelle équation linéaire dans les variables x1 ; ... ; xn toute
relation de la forme
a1 x1 + ::: + an xn = b (E)
où a1 ; ::: ; an et b sont des nombres réels.
Il importe d’insister ici que ces équations linéaires sont implicites, c’est-à-dire qu’elles
décrivent des relations entre les variables, mais ne donnent pas directement les valeurs
que peuvent prendre les variables.
Résoudre une équation signi…e donc la rendre explicite, c’est-à-dire rendre plus
apparentes les valeurs que les variables peuvent prendre.
Une solution de l’équation linéaire (E) est un n-uple s1 ;.... ; sn de valeurs des variables
x1 ; ... ; xn qui satisfont à l’équation (E). Autrement dit
a1 s1 + ::: + an sn = b
Dé…nition
Un ensemble …ni d’équations linéaires dans les variables x1 ; ... ; xn s’appelle un
système d’équations linéaires.
Exemple
Le système
x1 3x2 + x3 = 1
2x1 + 4x2 3x3 = 9
admet comme solution
x1 = 18; x2 = 6; x3 = 1.
Par contre
x1 = 7 ; x2 = 2 ; x3 = 0
ne satisfait que la première équation. Ce n’est donc pas une solution du système.
Dé…nition
Un système d’équations est dit incompatible ou inconsistant s’il n’admet pas de
solutions.
Exemple
Le système linéaire
x1 + x2 = 1
2x1 + 2x2 = 1
est clairement incompatible.
Dé…nition
18

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

Soient n; m 1.
On appelle système de m équations
8
>
a11 x1 + a12 x2 + ::: + a1n xn
>
>
< a21 x1 + a22 x2 + ::: + a2n xn
..
>
.
>
>
: a x + a x + ::: + a x

àn
=
=
..
.

inconnues tout système (S) de la forme
b1
b2
,
..
.

= bm
où aij ; bi sont des scalaires donnés. x1 ; x2 ; :::; xn sont des inconnues.
La matrice A = (aij )1 i m = la matrice de (S) : Les (bi )1 i m sont les seconds
m1

1

m2

mn

2

1

j

n

n

membres de (S) , et (S) est dit homogène si bi = 0 81 i
Ecriture 2matricielle
de
3
2 (S). 3
x1
b1
6 .. 7
6 .. 7
Soit X = 4 . 5 ; B = 4 . 5. Alors (S) () AX = B.
xn
bm

3.1

m.

Résolution du système (S)

Je rappelle
8 le système
>
a11 x1 + a12 x2 + ::: + a1n xn
>
>
< a21 x1 + a22 x2 + ::: + a2n xn
(S) ()
..
>
.
>
>
: a x + a x + ::: + a x
m1

1

m2

2

mn

=
=
..
.
n

b1
b2
..
.

.

= bm

Dé…nition
Nous obtenons la matrice augmentée associée au système en
«oubliant» les variables xi et les signes «+» et «=» . La matrice augmentée
associée
2 au système (S) est alors : 3
a11 a12
a1n b1
6 a21 a22
a2n b2 7
6
7
6 ..
..
..
.. 7.
..
4 .
.
.
.
. 5
am1 am2
amn bm
Exemple
Considérons
le système linéaire
8
< x1 + x2 + 7x3 = 1
2x1 x2 + 5x3 = 5
:
x1 3x2 9x3 = 5
Sa matrice
augmentée est 3
2
1
1
7
1
4 2
1 5
5 5.
1
3
9
5

3.2

Résolution avec la matrice augmentée

La méthode de base pour résoudre un système d’équations linéaires est de remplacer
le système par un autre, plus simple, ayant le même ensemble de solutions.
Ceci se fait par une succession d’opérations, appelées opérations élémentaires :
(1) multiplier une équation par une constante non nulle ;
(2) permuter deux équations ;
19

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

(3) ajouter un multiple d’une équation à une autre équation.
Les opérations (1), (2) et (3) ne changent pas l’ensemble des solutions.
Elles correspondent à des opérations élémentaires sur les lignes de la matrice
augmentée.
Ces opérations sont les suivantes :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ;
(3) ajouter un multiple d’une ligne à une autre ligne.
Exemple
Utilisons
ces opérations élémentaires pour résoudre le système suivant.
8
< x1 + x2 + 7x3 = 1
2x1 x2 + 5x3 = 5
:
x1 3x2 9x3 = 5
La
matrice
augmentée3 associée au système est :
2
1
1
7
1
4 2
1 5
5 5
1
3
9
5
puis faisons les opérations élémentaires nécessaires sur le système et sur la matrice
2augmentée.
3 2
3
1
1
7
1
1 0 0 2
4 2
1 5
5 5 4 0 1 0 4 5 ce qui donne le système suivant :
3
9
5
0 0 1
1
8 1
x
=
2
< 1
x2 = 4
:
x3 = 1
Nous remarquons que les opérations élémentaires peuvent être faites uniquement
sur la matrice augmentée pour revenir à la …n au système d’équations. C’est ce que
nous avons fait.
On obtient ainsi l’unique solution su système : x1 = 2, x2 = 4 et x3 = 1.
Dé…nition
Le système (S) est dit de Cramer si m = n et si det A 6= 0.
Tout système de Cramer (S) admet une solution unique X = A 1 B.

3.2.1

Système quelconque

Soit A = (aij )1

1

i
j

m,
n

la matrice de (S) ; et soit r = rgA.

1er cas : m = r < n,
(S) () (S 0 ) ()

8
>
>
>
a11 x1 + a12 x2 + ::: + a1r xr
>
>
>
>
>
>
>
>
< a21 x1 + a22 x2 + ::: + a2r xr
>
>
..
>
>
.
>
>
>
>
>
>
>
: am1 x1 + am2 x2 + ::: + amr xr

=
=
..
.
=

..
.

b
|1

b
|2

(a1r+1 xr+1 + a1r+2 xr+2 + ::: + a1n xn )
{z
}
c1 (xr+1 ; xr+2 ; :::; xn )
(a2r+1 xr+1 + a2r+2 xr+2 + ::: + a2n xn )
{z
}
c2 (xr+1 ; xr+2 ; :::; xn )

bm
|

(amr+1 xr+1 + amr+2 xr+2 + ::: + amn xn )
{z
}
cm (xr+1 ; xr+2 ; :::; xn )

20

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

Soit A0 = (aij )1

i; j

r

avec r = rgA0 donc det A0 6= 0

(s 0 ) est un système de Cramer qu’on doit résoudre avec les (xr+i )1 i (n r)
comme inconnues secondaires(c’est-à-dire des paramètres).
2eme cas : r < m (voir système échelonné à la suite).
Dé…nition(rappel)
On appelle opérations élémentaires dans un système ;
les opérations de l’une des formes suivantes :
a) Echanger deux lignes du système.
b) Multiplier une ligne par une constante non nulle.
c) Rajouter à une ligne du système un multiple d’une autre ligne du système.
(une ligne ici est une équation du système)
Remarque
Les opérations élémentaires transforment un système en un système équivalent.
On peut donc transformer un système linéaire par une succession
d’opérations élémentaires en un système échelonné.

3.2.2

Systèmes échelonnés

On dit qu’un système est échelonné si et seulement si tous les coe¢ cients …gurant
au-dessous de la diagonale sont nuls. Cela revient à dire que 8i > j, aij = 0.
Autant dire qu’un système échelonné se présente sous l’une des trois formes suivantes :
(a) Si m = n
(un
8 tel système est dit carré et l’on dit d’un système carré échelonné qu’il est trigonal).
>
a11 x1 + a12 x2 +
+a1n xn = b1
>
>
<
a22 x2 +
+a2n xn = b2
..
..
>
.
.
>
>
:
ann xn = bn
Dans ce premier cas il est facile de résoudre le système lorsque tous les termes
diagonaux sont non nuls. on utilise l’algorithme de la remontée :
bn
,
la dernière équation donne en e¤et la valeur xn =
ann
puis l’avant-dernière ligne donne la valeur
1
bn 1
a(n 1)n xn et, plus généralement,
xn 1 =
a(n 1)(n 1)
!
n
X
1
on obtient : xk =
bk
akj xj ,
akk
j=k+1

ce qui permet de calculer les xk successifs par ordre décroissant de l’indice k.
Le système admet une unique solution, et cela quel que puisse être le second membre.
Un système ayant cette propriété s’appelle un système de Cramer.
Si, au cours de cet algorithme, on trouve un coe¢ cient diagonal nul dans une ligne,
par exemple la ligne k, alors on ne peut pas trouver la valeur de xk .
La ligne correspondante introduit une condition de compatibilité.
Si cette condition n’est pas véri…ée, le système n’admet pas de solutions ;
si au contraire cette condition est véri…ée, toute solution de xk convient et
l’on peut poursuivre l’algorithme. Il y a alors une in…nité de solutions,
paramétrées par la valeur de xk .
Cette situation peut d’ailleurs se rencontrer plusieurs fois au cours de la remontée,

21

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

induisant une discussion plus approfondie. On voit par là l’intérêt des systèmes
triangulaires dont les coe¢ cients diagonaux sont non nuls.
(b) Si8m < n : on a :
>
a11 x1 + a12 x2 +
+a1n xn = b1
>
>
<
a22 x2 +
+a2n xn = b2
:
..
..
.
.
>
.
.
.
>
>
:
amm xm = bm
Dans ce cas, on …xe arbitrairement les valeurs des variables xm+1 à xn .
On est alors ramené au cas précédent, simple à résoudre lorsque tous
les coe¢ cients diagonaux sont non nuls, nécessitant une discussion sinon.
(c) Si m > n :
8
a11 x1 + a12 x2 +
+a1n xn = b1
>
>
>
>
a
x
+
+a2n xn = b2
22 2
>
>
>
..
..
..
>
>
.
.
.
<
ann xn
= bn :
>
>
0
= bn+1
>
>
>
>
..
..
>
>
.
.
>
:
0
= bm
Dans ce cas les dernières lignes donnent directement des conditions de compatibilité.
Lorsqu’elles sont véri…ées, on se ramène au cas ci-dessus. D’où, là encore,
l’intérêt de l’obtention de coe¢ cients diagonaux non nuls.

3.3

Méthode de résolution d’un système de Cramer
par les déterminants

8
>
a11 x1 + a12 x2 + ::: + a1n xn = b1
>
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
Soit ( ) ()
..
.. .. ,
>
.
. .
>
>
: a x + a x + ::: + a x
= bn
n1 1
n2 2
nn n
un système de n équations à n inconnues de Cramer.
On appelle déterminant du système ( ) le nombre = det A, où A est la matrice
associée a ( ).
On appelle déterminant de xi le nombre xi égal au déterminant de la matrice
obtenue en remplaçant dans A la ieme colonne par les éléments respectifs
des seconds membres c’est-à-dire b1 ; b2 ; :::; bn .
Théorème
( ) étant de Cramer, l’unique solutin dans |n est :
Exemple 8
< x 2y + z = 3
2x y + z = 1 .
( ) ()
:
x y+z = 0

2

1
4
2
La matrice associée à ( ) est A =
1
22

3
2 1
1 1 5,
1 1

x1

;

x2

; ::::;

xn

.

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

1
2 1
2
1 1
1
1 1
1
2
1
1 0 = 3 (je rappelle que j’ai fait col3 + col2 )
= 2
1
1 0
3
2 1
1 3 1
1
2
1
1
1
2
1
1
2
1
=
=
1
;
=
=
7
;
=
x
y
z
0
1 1
1 0 1
1
1
1
7
6
x
y
z
x=
= ;y=
=
; z=
=
= 2
3
3
3
2
0
1 7
1
4
1
;
; 2 . Maintenant voyant que A =
Donc SR3 =
3 3
1
2 3
2 3 2
32 3 2 1 3
1
1
x
3
0 3 3
3
3
2
1 54
14
4
5
5
4
1 5 = 4 37 5.
1 3 3
1 =
on a bien y = A
z
0
1 1 1
2
0
= det A =

3.3.1

3
1
0

=

1
3
2
3

1
3
1
3

1

1

6;

3

5,

Méthode du pivot

La méthode du pivot est une organisation des calculs permettant de construire
un système linéaire échelonné en pratiquant des opérations élémentaires à partir
d’un système donné. On procède en annulant, colonne après colonne,
tous les termes situés sous la diagonale.

3.4

Calcul de l’inverse d’une matrice

Par la résolution de systèmes
Soit A = (aij )1 i; j n une matrice inversible, B = (xij )1 i; j n son inverse,
alors AB = In .
ere
Pour
trouver
la
2
3 2 1 3 colonne de B, on résoud le système :
x11
1
6 x21 7 6 0 7
6
7 6 7
A 6 .. 7 = 6 .. 7.
4 . 5 4 . 5
xn1
0
eme
Pour
2 trouver la3j 2colonne
3 de B,on résoud le système :
x1j
0
6
7 6 .. 7
x2j
6
7 6 . 7
..
6
7 6
7
.
6
7 6 0 7
6
7 6
7
xjj
A6
7 = 6 1 7 ! seule la j eme coordonnée est égale à 1.
6
7 6
7
6 x(j+1)j 7 6 0 7
6
7 6 . 7
..
4
5 4 .. 5
.
xnj
0
Exemple : 2
3
1 1
1
1 0 5, montrer que A est inversible et calculer A 1 .
Soit A = 4 1
1 0
1
23

CHAPITRE 3.

RÉSOLUTION D’UN SYSTEME LINÉAIRE

Réponse

2

3
2
3
x1
y1
det A = 3 ;
soit X = 4 x2 5 ;
Y = 4 y2 5,
x33 2
2
3 2 y3 3
1 1
1
x1
y1
4
5
4
5
4
1 0
x2
AX = Y () 1
= y2 5 ()
1 0
1
y3
8
8x3
1
< x1 + x2 + x3 = y1
< x1 = 3 y1 + 13 y2 + 31 y3
2
y + 13 y3
x2 = 31 y1
x1 x2
= y2 ()
3 2
:
:
2
x3 = 13 y1 + 13 y2
y
x1 2 x3
= 3y3
3 3
A

1

=4

1
3
1
3
1
3

1
3
1
3

2
3

1
3
1
3

2
3

5.

24

()

Chapitre 4

Calcul vectoriel dans le plan et
dans l’espace
4.1


efinitions et r`
egles de calcul

Un vecteur est un segment orient´e dans le plan ou dans l’espace de dimension 3.
µ



B
−−→
v = AB

v
A


On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est par d´efinition
la droite passant par A et B.
Deux vecteurs ont la mˆeme direction si leurs supports sont parall`eles Deux vecteurs ayant la mˆeme
direction ont le mˆeme sens s’ils sont orient´es de la mˆeme fa¸con :
µ
µ

Deux vecteurs sont dits ´equivalents si l’on peut les superposer par une translation. Par la suite, deux
vecteurs ´equivalents seront consid´er´es comme ´egaux. Un vecteur est ainsi d´etermin´e par son module,
sa direction et son sens.
Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On d´efinit la
somme de deux vecteurs v et w par la r`egle du parallelogramme :

w
v
v+w
w

v

41

42

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

On place l’origine de w sur l’extr´emit´e de v. Le vecteur v + w est alors le segment orient´e joignant
l’origine de v `a l’extr´emit´e de w. Remarquons que v + w = w + v.
Le produit d’un vecteur v par un scalaire k est le vecteur kv d´efini par les propri´et´es suivantes :
– son module est ´egal `a |k| fois le module de v
– sa direction est celle de v
– son sens est celui de v si k > 0 et le sens oppos´e si k < 0.
Exemple 4.1.

3v
−2v

v

L’oppos´e du vecteur v est le vecteur −v et la diff´erence de deux vecteurs v et w est d´efinie par
v − w = v + (−w).

4.1.1

Syst`
emes de coordonn´
ees

Si l’on choisit un syst`eme de coordonn´ees pour le plan (resp. pour l’espace), un vecteur peut alors
s’´ecrire en composantes :


µ

v1
v1
v=
(resp. v =  v2  )
v2
v3
y

v2
v
x
O

v1
Figure 6.2

Dans cette repr´esentation, l’origine du vecteur est toujours le point O = (0, 0), intersection des axes
de coordonn´ees x et y.
Dans le cas de l’espace `a 3 dimensions, on choisit toujours un syst`eme d’axes orient´e positivement
comme le montre la figure ci-dessous :
La somme de deux vecteurs et le produit d’un vecteur par un scalaire se calculent comme suit (nous
donnons les formules pour des vecteurs de l’espace, le cas du plan ´etant similaire) :
Si v = (v1 , v2 , v3 ) et w = (w1 , w2 , w3 ) alors
v + w = (v1 + w1 , v2 + w2 , v3 + w3 ),
kv = (kv1 , kv2 , kv3 )
et
−v = (−v1 , −v2 , −v3 ).

´
`
4.1. DEFINITIONS
ET REGLES
DE CALCUL

43

z

v3

v
y

v1

v2

x
Figure 6.4 : v = (v1 , v2 v3 ).

Figure 6.5 : (x, y, z) a l’orientation positive.

44

4.1.2

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

Propri´
et´
es du calcul vectoriel

Th´
eor`
eme 4.2.

(a) u + v = v + u

(b) (u + v) + w = u + (v + w)
(c) u + O = O + u = u
(d) u + (−u) = 0
(e) k(`u) = (k`)u
(f ) k(u + v) = ku + kv
(g) (k + `)u = ku + `n
Soit v un vecteur. On note k v k son module. C’e st un nombre positif ou nul qui est aussi appel´e la
norme de v. Si u = (u1 , u2 ) alors
q
k u k= u21 + u22
et, de mˆeme, si u = (u1 , u2 , u3 ) alors

k u k=

q
u21 + u22 + u23 .

Ceci d´ecoule du th´eor`eme de Pythagore.
Un vecteur de norme 1 est appel´e vecteur unit´e.

4.2

Le produit scalaire

On va d´efinir le produit scalaire de deux vecteurs u et v dans le plan ou dans l’espace de dimension
3. Le produit scalaire de deux vecteurs est un scalaire. Soient u = (u1 , u2 ) et v = (v1 , v2 ) deux
vecteurs dans le plan. On d´efinit le produit scalaire par
u • v = u 1 v1 + u 2 v2 .
Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ) deux vecteurs dans l’espace de dimension 3. On d´efinit le
produit scalaire par
u • v = u 1 v1 + u 2 v2 + u 3 v3
Le produit scalaire a les propri´et´es suivantes :
Th´
eor`
eme 4.3.

(1) u • v = v • u

(2) λu • v = λ(u • v)

(3) (u + v) • w = u • w + v • w
(4) u • u ≥ 0

(5) u • u = 0 si et seulement si u = 0.

(6) u • u =k u k2

´monstration : Ces propri´et´es sont des cons´equences imm´ediates de la d´efinition. Par exemple,
De
si u = (u1 , u2 ) alors
u • u = u21 + u22 .
Mais
k u k=
et donc

q
u21 + u22

u • u =k u k2 ,
ce qui d´emontre (6).

4.2. LE PRODUIT SCALAIRE

45

v−u

u
ϑ
v
Figure 6.8

Th´
eor`
eme 4.4.
u • v =k u k · k v k · cos(θ)
´monstration : On a
De
k v − u k2

=
=
=

(v − u) • (v − u)

v • v + u • u − 2u • v
k v k2 + k u k2 −2u • v .

Par le th´eor`eme du cosinus, on a :
k v − u k2 =k v k2 + k u k2 −2 k u k k v k cos(θ) .
Donc
u • v =k u k k v k cos(θ) .
Ceci d´emontre le th´eor`eme.
Th´
eor`
eme 4.5. u et v sont orthogonaux si et seulement si
u • v = 0.

´monstration : Comme
De
u • v =k u k · k v k · cos(θ) .
on a u • v = 0 si et seulement si cos(θ) = 0 et donc si et seulement si θ =
si u et v sont orthogonaux.

4.2.1

π
2

et donc si et seulement

Projection orthogonale

La projection (orthogonale) de u sur v est not´ee
projv u.
Le th´eor`eme suivant nous donne le lien entre la projection et le produit scalaire :
Th´
eor`
eme 4.6.
projv u =

u•v
v
k v k2

46

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

u

v
Figure 6.9

u

w2

v

w1
Figure 6.10

´monstration :
De
Posons w1 = projv u . Comme w1 est parall`ele v, on peut l’´ecrire
w1 = `v
pour un certain scalaire `. On a :
u = w 1 + w2 .
Calculons le produit scalaire avec v. On a :
u•v

= (w1 + w2 ) • v =
= w 1 • v + w2 • v .

Mais w2 • v = 0, car w2 et v sont orthogonaux. Il reste alors
u•v

= w1 • v = (`v) • v =
= ` v • v = ` k v k2

d’o`
u
`=
On a donc

u•v
.
k v k2

projv u =

u•v
v.
k v k2

Th´
eor`
eme 4.7. Soit θ l’angle form´e par les vecteurs u et v. Alors
k projv u k=k u k · |cos(θ)| .

4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT)

47

´monstration : Par les th´eor`emes 4.6 et 4.4, on a
De
|u • v|
|u • v|
kvk=
k v k2
kvk
k u k k v k cos(θ)
=k u k ·| cos(θ)|.
=
kvk

k projv u k =

4.3

Le produit vectoriel (cross product)

Le produit vectoriel associe `a deux vecteurs de l’espace u et v un troisi`eme vecteur, not´e u × v, et
d´efini de la fa¸con suivante :

efinition 4.8. Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ) deux vecteurs. Leur produit vectoriel
est le vecteur u × v d´efini par
u×v

Posons

=

(u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 )
¯
¯
¯¶
¯ ¯
µ¯
¯ u2 u3 ¯
¯ u1 u3 ¯ ¯ u1 u2 ¯
¯
¯
¯
¯
¯
¯
=
¯ v2 v3 ¯ , − ¯ v1 v3 ¯ , ¯ v1 v2 ¯ .

i = (1, 0, 0)
Alors

j = (0, 1, 0)

¯
¯ i
¯
u × v = ¯¯ u1
¯ v1

et

j
u2
v2

Le produit vectoriel satisfait les propri´et´es suivantes :

k
u3
v3

k = (0, 0, 1).

¯
¯
¯
¯.
¯
¯

Th´
eor`
eme 4.9. Si u, v et w sont des vecteurs dans l’espace de dimension 3, on a :
(a) u • (u × v) = 0
(b) v • (u × v) = 0
2

u × v est orthogonal a
`u

u × v est orthogonal v

2

(c) k u × v k =k u k · k v k2 − (u • v)2

identit´e de Lagrange.

(d) u × (v × w) = (u • w)v − (u • v)w

(e) (u × v) × w = (u • w)v − (v • w)u

´monstration :
De
(a) Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ). Alors
u • (u × v)

= (u1 , u2 , u3 )(u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ) =
= u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 ) =
=

u 1 u 2 u 3 − u 1 u 3 v2 + u 2 u 3 v1 − u 1 u 2 v3 + u 1 u 3 v2 − u 2 u 3 v1 = 0 .

(b) calcul similaire `a (a)
(c) On a
k u × v k2 = (u2 v3 − u3 v2 )2 + (u3 v1 − u1 v3 )2 + (u1 v2 − u2 v1 )2
et
k u k2 k v k2 −(u • v)2 = (u21 + u22 + u33 )(v12 + v22 + v32 ) − (u1 v1 + u2 v2 + u3 v3 )2
et un calcul direct montre que les deux termes de droites sont ´egaux.
(d) Les ´egalit´es (d) et (e) se montrent de mani`ere similaire.

Le produit vectoriel est bilin´eaire et anti-sym´etrique. En d’autres termes, on a

48

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

Th´
eor`
eme 4.10. (a) u × v = −(v × u)
(b) u × (v + w) = (u × v) + (u × w)
(c) (u + v) × w = (u × w) + (v × w)
(d) k(u × v) = (ku) × v = u × (kv)
(e) u × 0 = 0 × u = 0
(f ) u × u = 0 .

La notion de produit vectoriel est li´ee `a celle de colin´earit´e par le th´eor`eme suivant :
Th´
eor`
eme 4.11. Soient u et v deux vecteurs non nuls de l’espace de dimension 3. Les affirmations
(1) et (2) sont ´equivalentes :
(1) u et v sont colin´eaires (c’est-`
a-dire u = `v)
(2) u × v = 0.

´monstration :
De
(1) =⇒ (2) : Supposons que u = `v. Alors

u × v = (`v) × v = `(v × v) = 0.
ce qui d´emontre (2).
Montrons maintenant l’implication inverse (2) =⇒ (1) : Soient u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) et
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 ). Supposons que u × v = 0. On a donc
u 2 v3 − u 3 v2
u 3 v1 − u 1 v3

u 1 v2 − u 2 v1

= 0
= 0
= 0.

1er cas : Si u1 6= 0 et u2 = u3 = 0, les ´equations deviennent
0

=

0

−u1 v3
u 1 v2

=
=

0
0.

Comme u1 6= 0, ceci entraˆıne v2 = v3 = 0 et donc
u
v

= (u1 , 0, 0)
= (v1 , 0, 0)

Comme v est non nul, on a v1 6= 0, d’o`
u u = `v avec ` =

u1
v1

ce qui d´emontre (1).

2`
eme cas : Supposons maintenant que u1 6= 0 et u2 6= 0. Si v2 = 0 la 1-`ere ´equation devient
u2 v3 = u3 v2 = 0.
Comme u2 6= 0, ceci entraˆıne v3 = 0. Comme par hypoth`ese v est non nul, on doit avoir v1 6= 0.
Alors par la 3`eme ´equation, on a
u1 v2 = u2 v1 6= 0

ce qui implique v2 6= 0 ce qui est absurde. Ainsi, on a donc v1 6= 0 et v2 6= 0.
Posons
u1
`=
.
v1
Alors la 3-`eme ´equation donne
u2
=`
v2
et par la 2`eme ´equation on a
u 3 v1 = u 1 v3
ce qui implique
u3 =

u1
v3 = `v3 .
v1

En conclusion, on a
ce qui d´emontre (2).

u=`·v

4.3. LE PRODUIT VECTORIEL (CROSS PRODUCT)

4.3.1

49

Interpr´
etation g´
eom´
etrique du produit vectoriel

Nous avons vu que
k u × v k2 =k u k2 k v k2 −(u • v)2
(identit´e de Lagrange). Soit θ l’angle form´e par u et v. Alors on a :
u • v = k u k k v k cos(θ) .
On a donc
k u × v k2

k u k2 k v k2 − k u k2 k v k2 cos2 θ
k u k2 k v k2 (1 − cos2 θ)

=
=

k u k2 k v k2 sin2 θ .

=
On obtient donc
Th´
eor`
eme 4.12.

k u × v k=k u k k v k sin(θ)
´monstration : Comme
De
0≤θ≤π
on a
sin(θ) ≥ 0 .
et donc l’´egalit´e cherch´ee.
Consid´erons maintenant un parall´elogramme dont les cˆot´es sont les vecteurs u et v :

v
h
ϑ

u
Figure 6.12 : h =k v k sin(θ)

L’aire A de ce parall´elogramme se calcule de la fa¸con suivante :
A = (base)·(hauteur)
= k u k k v k sin(θ)
=k u × v k .
On obtient donc le th´eor`eme suivant qui donne une interpr´etation g´eom´etrique du produit vectoriel
de deux vecteurs :
Th´
eor`
eme 4.13. La norme k u × v k est ´egale a
` l’aire du parall`elogramme d´etermin´e par u et v.
En r´esum´e, u × v est un vecteur perpendiculaire a
` u et v, et de longueur (norme) ´egale a
` l’aire du
parall`elogramme d´etermin´e par u et v. De plus, l’otientation du triplet (u, v, u × v) est positive

50

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

u×v

v
u

Figure 6.13

4.4

Le produit mixte (triple product)


efinition 4.14. Soient u, v et w des vecteurs de l’espace de dimension 3. On d´efinit le produit
mixte des vecteurs u, v et w par
[u, v, w] = u • (v × w) .
C’est un scalaire. Si u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) et w = (w1 , w2 , w3 ) alors
[u, v, w] = u • (v × w)
¯
¯
¯
¯
µ¯
¯ v2 v3 ¯
¯ v1 v3 ¯
¯ v
v2
¯
¯
¯
¯
=u ¯
i−¯
j + ¯¯ 1
¯
¯
w2 w3
w1 w3
w1 w2
¯
¯
¯
¯
¯
¯ v2 v3 ¯
¯ v1 v3 ¯
¯ v
v2
¯
¯
¯
¯

u1 − ¯
u2 + ¯¯ 1
¯
¯
w2 w3
w1 w3
w1 w2
¯
¯
¯ u1 u2 u3 ¯
¯
¯
= ¯¯ v1 v2 v3 ¯¯ .
¯ w1 w2 w3 ¯

¯ ¶
¯
¯k
¯
¯
¯
¯ u3
¯

Th´
eor`
eme 4.15. Soient u, v et w trois vecteurs de l’espace. Alors

(1) [u, v, w] = [w, u, v] = [v, w, u] = −[v, u, w] = −[u, w, v] = −[w, v, u]
(2) [λu, v, w] = λ[u, v, w] pour tout scalaire λ.

(3) [u, v, w] = 0 si et seulement s’il existe des scalaires α, β, γ non tous nuls tels que αu+βv+δw =
0.
´monstration : (1) et (2) d´ecoulent directement de la d´efinition. Montrons alors la propri´et´e (3).
De
Supposons que
αu + βv + γw = 0
avec α, β, γ non tous nuls. Sans perte de g´en´eralit´e, on peut supposer α 6= 0.
Alors
u = λv + µw
avec
λ=−

β
α

et

γ
µ=− ,
α

et
[u, v, w]

=
=

(λv + µw) • (v × w)

λ v • (v × w) +µ w • (v × w)
{z
}
| {z }
|
0

=

0.

0

4.4. LE PRODUIT MIXTE (TRIPLE PRODUCT)

51

R´eciproquement, supposons que [u, v, w] = 0. On a donc
(u × v) • w = 0
c’est-`a-dire que u × v est orthogonal `a w. Mais u × v est aussi orthogonal `a u et `a v. Ceci entraˆıne
que u, v et w sont coplanaires et donc que l’on peut ´ecrire
w = αu + βv
ce qui termine la d´emonstration.
Le produit mixte peut ´egalement ˆetre interpr´et´e g´eom´etriquement ce qui est l’objet du th´eor`eme
suivant.
Th´
eor`
eme 4.16. (1) Soit u = (u1 , u2 ) et v = (v1 , v2 ) deux vecteurs de R2 . Alors la valeur absolue
du d´eterminant
¯
¯
¯ u1 u2 ¯
¯
¯
¯ v1 v2 ¯
est ´egal a
` l’aire du parall`elogramme d´efini par les vecteurs u et v.
(2) Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ) deux vecteurs de R3 . Alors la valeur absolue du
d´eterminant
¯
¯
¯ u1 u2 u3 ¯
¯
¯
¯ v1 v2 v3 ¯
¯
¯
¯ w1 w2 w3 ¯
est ´egal au volume du parall´el´epip`ede d´etermin´e par ces trois vecteurs

´monstration :
De
(1) On consid`ere u et v comme vecteurs de l’espace de dimension 3 :
u = (u1 , u2 , 0)
Alors

¯
¯ i
¯
u × v = ¯¯ u1
¯ v1
L’aire du parall´elogramme d´etermin´e par
°
µ
°
u1
ku×v k = °
det
°
v1
¯
µ
¯
u1
= ¯¯det
v1

et

v = (v1 , v2 , 0)

¯
k ¯¯ ¯¯
u
0 ¯¯ = ¯¯ 1
v
1
0 ¯
v est
¶ °
°
u2

°
v2
¶¯
u2 ¯¯
· k k k=
v2 ¯

j
u2
v2
u et

¯
u2 ¯¯
k.
v2 ¯

¯
µ
¯
¯det u1
¯
v1

u2
v2

¶¯
¯
¯.
¯

(2) Prenons le parall´elogramme d´etermin´e par v et w comme base du parall´el´epip`ede d´etermin´e par
u, v et w. L’aire de la base est donc
kv×w k
et la hauteur du parall´el´epip`ede est la projection orthogonale de u sur v × w .
On a
|u • (v × w)|
h =k projv×w u k=
kv×w k
et le volume V du parall´el´epip`ede est alors
V = (aire de la base) · (hauteur)
|u • (v × w)|
kv×w k
= |u • (v × w)|
=k v × w k

qui est donc bien la valeur absolue du d´eterminant
¯
¯ u1 u2 u3
¯
¯ v1 v2 v3
¯
¯ w1 w2 w3

¯
¯
¯
¯.
¯
¯

52

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

Figure 6.14 : h = hauteur

4.5
4.5.1

Droites et plans dans l’espace de dimension 3
Equation du plan passant par un point P0 et ayant vecteur normal
n

Soit P0 = (x0 , y0 , z0 ) un point de l’espace de dimension 3 et n = (n1 , n2 , n3 ) un vecteur.

Figure 6.15

Le plan passant par P0 et ayant n comme vecteur normal est form´e des points P tels que le vecteur
−−→
P0 P est orthogonal au vecteur n. On a donc
−−→
P0 P • n = 0 .
−−→
−−→
Si P = (X, Y, Z) alors P0 P = (X − x0 , Y − y0 , Z − z0 ) et la condition P0 P • n = 0 s’´ecrit
(X − x0 , Y − y0 , Z − z0 ) • (n1 , n2 , n3 ) = 0
ou encore
n1 (X − x0 ) + n2 (Y − y0 ) + n3 (Z − z0 ) = 0 .
Exemple 4.17. L’´equation du plan passant par le point P0 = (2, −5, 6) et perpendiculaire au
vecteur n = (1, 3, −2) est
(X − 2) + 3(Y + 5) − 2(Z − 6) = 0
ou encore

X + 3Y − 2Z + 25 = 0.
Th´
eor`
eme 4.18. Soient a, b, c, d des scalaires tels que abc 6= 0. Alors l’´equation
aX + bY + cZ + d = 0
est l’´equation d’un plan ayant comme vecteur normal le vecteur
n = (a, b, c).

4.5. DROITES ET PLANS DANS L’ESPACE DE DIMENSION 3

53

´monstration : Par hypoth`ese, les scalaires a, b, c sont non tous nuls. Nous pouvons supposer
De
que a 6= 0. Alors l’´equation
aX + bY + cZ + d = 0
peut ˆetre r´e´ecrite comme
µ

d
a X+
a



+ bY + cZ = 0 .

Mais ceci est l’´equation du plan passant par le point (− ad , 0, 0) et ayant comme vecteur normal le
vecteur (a, b, c).

4.5.2

Droites dans l’espace de dimension 3

Soit L la droite passant par le point P0 = (x0 , y0 , z0 ) et parall`ele au vecteur v = (a, b, c). Alors L
−−→
est constitu´ee des points P = (X, Y, Z) tels que le vecteur P0 P est parall`ele au vecteur v. Autrement
dit :
−−→
P0 P = λv
pour un scalaire λ. On a donc
(X − x0 , Y − y0 , Z − z0 ) = (λa, λb, λc)
ou, de mani`ere ´equivalente,
X − x0
Y − y0
Z − z0

=
=

λa
λb

=

λc

Ce syst`eme est est appel´e syst`eme d’´equations param´etriques de la droite L.
Th´
eor`
eme 4.19. La distance D entre le point P0 = (x0 , y0 , z0 ) et le plan d’´equation
aX + bY + cZ + d = 0
est donn´ee par
D=

|ax0 + by0 + cz0 + d|

.
a 2 + b2 + c 2

´monstration :
De

Figure 6.16

Soit Q = (x1 , y1 , z1 ) un point du plan. On place le vecteur normal n au point Q. La distance de P0
−−→
au plan est ´egale `a la norme de la projection orthogonale du vecteur QP0 sur le vecteur n :
Donc
−−→
−−→
|QP0 • n|
D =k projn QP0 k=
.
knk

54

CHAPITRE 4. CALCUL VECTORIEL DANS LE PLAN ET DANS L’ESPACE

−−→
On a QP0 = (x0 − x1 , y0 − y1 , z0 − z1 ) et ainsi
−−→
QP0 • n = (x0 − x1 , y0 − y1 , z0 − z1 ) • (a, b, c) = a(x0 − x1 ) + b(y0 − y1 ) + c(z0 − z1 ).
Comme
k n k=
on a
D=

p
a2 + b 2 + c 2 ,

|a(x0 − x1 ) + b(y0 − y1 ) + c(z0 − z1 )|

.
a 2 + b2 + c 2

Or Q = (x1 , y1 , z1 ) est un point du plan, ce qui entraˆıne que ax1 + by1 + cz1 + d = 0 et donc que
d = −ax1 − by1 − cz1 . On obtient finalement
D=

|ax0 + by0 + cz0 + d|

a 2 + b2 + c 2

Chapitre 5
ESPACES VECTORIELS
5.1
5.1.1

Dé…nitions et propriétés
Dé…nition d’un espace vectoriel sur un corps

Un groupe commutatif (E; +) est un ensemble E muni d’une loi de
composition interne (x + y) 2 E, dé…nie pour tous éléments x et y de E,
ayant les propriétés suivantes :
(1) Associativité : x + (y + z) = (x + y) + z; 8x; y; z 2 E
(2) Il existe un élément neutre 0 2 E qui véri…e : 8x 2 E; x + 0 = 0 + x = x:
(3) Tout élément x de E possède un symétrique, noté x tel que
x + ( x) = ( x) + x = 0:
(4) Commutativité : x + y = y + x; 8x; y 2 E:
Dé…nition 1 : Soit (E; +) un groupe commutatif et K un corps(commutatif):
Nous dirons que E est un espace vectoriel sur K
(qui est appelé le corps de base de l’espace vectoriel)
s’il existe une loi de composition externe associant à tout élément
2 K et tout élément x 2 E, un élément de E; noté x;avec les propriétes suivantes :
(5) 1x = x; tout élément x 2 E:
(6) ( x) = ( ) x; tout élément x 2 E; 8 ; 2 K:
(7) (x + y) = x + y; 8 2 K; 8x; y 2 E:
(8) ( + ) x = x + x; 8 ; 2 K; tout élément x 2 E:
Ainsi on dit que E est un K-espace vectoriel.
Un élément x de E (qu’on pourrait écrire ~x ) est dit vecteur et ceux de K scalaires.
Deux vecteurs x et y de E sont dit colinéaires s’il existe 2 K tel que
y= x
Nous laissons au lecteur le soin de distinguer l’élément neutre de E
(qu’on pourrait écrire ~0 ou 0E );
qui est un vecteur, de l’élément nul 0 de K (qu’on pourrait écrire 0K ),
qui est un scalaire.
Ces éléments véri…ent les règles de calcul suivantes :
Tout élément x 2 E 0x = 0, d’après (8) si =
:
Tout élément x 2 E; 8 2 K; x = 0 () = 0 ou x = 0E :
On a en outre : ( x) = ( ) x =
x; tout élément x 2 E; 8 2 K:
26

CHAPITRE 5. ESPACES VECTORIELS

Et, en particulier ( 1) x =

5.1.2

x:

Dé…nition générale d’un espace vectoriel sur un corps (|; ~; |)

Ici (|; ~; |) est un corps dont l’élément neutre de la deuxième loi est noté e|
et l’élément neutre de la première loi est e~ .
Soit E un ensemble non vide muni d’une loi de composition interne notée " ",
de sorte que (E; ) soit un groupe commutatif d’élément neutre e .
Aussi, on munit E d’une loi de composition externe " " sur |, c’est-à-dire
: E | ! E, (x; ) 7 !
x,
Si on a :
(1) e| x = x; tout élément x 2 E:
(2)
(
x) = ( | ) x; tout élément x 2 E; 8 ; 2 |.
(3)
(x y) = (
x) (
y) ; 8 2 |; 8x; y 2 E:
(4) ( ~ ) x = (
x) (
x) ; 8 ; 2 |; tout élément x 2 E.
En plus d’avoir (E; ) comme un groupe commutatif, nous dirons
que (E; ; ) a une structure d’espace vectoriel sur le corps (|; ~; |).
Un élément x de E (qu’on pourrait écrire ~x ) est dit vecteur et ceux de | scalaires.
Deux vecteurs x et y de E sont dit colinéaires s’il existe 2 | tel que
y=

x

Le vecteur nul de (E; ; ) est l’élément neutre e .
Ici e~ et e| sont des scalaires éléments neutres respectifs de ~; |.
Ces éléments véri…ent les règles de calcul suivantes :
Tout élément x 2 E e~ x = e , d’après (4) si = symet~ ( ).
(Soulignons que symet~ ( ) est le symétrique de par rapport à la loi ~.
Et que symet~ ( ) ~ = ~symet~ ( ) = e~ .)
Tout élément x 2 E; 8 2 |;
x = e () = e~ ou x = e .
On a en outre :
symet (x) = (symet~ ( )) x = symet (
x),
tout élément x 2 E; 8 2 |.
Et, en particulier (symet~ (e| )) x = symet (e| x) = symet (x).
Exemples
a) Soit K = R ou C et n un entier naturel non nul.
On munit l’ensemble K n des lois dé…nies par les formules ci-dessous :
8 (u1 ; u2 ; :::::; un ) ; (v1 ; v2 ; :::::; vn ) 2 K n ;
(u1 ; u2 ; :::::; un ) + (v1 ; v2 ; :::::; vn ) = (u1 + v1 ; u2 + v2 ; :::::; un + vn ) :
8 (u1 ; u2 ; :::::; un ) 2 K n , 8 2 K;
(u1 ; u2 ; :::::; un ) = ( u1 ; u2 ; :::::; un ) :
Ces lois font de K n un K-espace vectoriel.
b) L’ensemble C [x] des polynômes à une variable x et à coe¢ cients dans C
est un espace vectoriel sur le corps des nombre complexes, l’addition étant celle
des polynômes et la multiplication par un nombre complexe c le produit d’un
polynôme par c:
Ce même ensemble est aussi un espace vectoriel sur le corps R des nombres réels avec
une loi externe de multiplication par un nombre réel.On dit que C [x] est un espace
vectoriel complexe si son corps de base est C Si le corps de base est R,
27

CHAPITRE 5. ESPACES VECTORIELS

on dit qu’on a un espace vectoriel réel.

Sous-espaces vectoriels
Dé…nition 2 : Une partie non vide F d’un K-espace vectoriel E est un sous-espace
vectoriel de E si elle véri…e les deux propriétés suivantes :
1° ) (F; +) est un sous-groupe de (E; +)
2° ) 8 2 K; 8x 2 F; x 2 F:
Les opérations dé…nies dans E sont donc également dé…nies dans F et lui confère
une structure d’espace vectoriel sur K: Ainsi un sous-espace vectoriel
d’un K-espace vectoriel E est un sous-ensemble F 6= ? de E
caractérisé par les deux propriétés suivantes :
8x; y 2 F
:x+y 2F
() 8 ; 2 K; 8x; y 2 F; x + y 2 F:
8 2 K; 8x 2 F; x 2 F:
Exemples : a) Soit une suite (x1 ; x2 ; :::::; xn ) de n éléments d’un K-espace vectoriel E;
une combinaison linéaire de cette suite est un élément de E de la forme :
y=

n
X

i xi

=

1 x1

+

2 x2

+ ::::: +

n xn

i=1

où 1 ; 2 ; :::::; n sont des scalaires de K.
L’ensemble F des combinaisons linéaires de la suite (x1 ; x2 ; :::::; xn )
est un sous-espace vectoriel de E.
Nous appellerons ce sous-espace vectoriel F le sous-espace engendré
par la suite (x1 ; x2 ; :::::; xn ) :
b) Soit E un K-espace vectoriel, l’ensemble réduit au singleton vecteur nul :f0E g
est un sous-espace vectoriel de E , ainsi que E lui-même.
Le sous-espace vectoriel nul f0E g et E sont dit sous-espaces vectoriels
triviaux de E:
Tout autre sous-espace vectoriel F de E est dit sous-espace vectoriel
propre de E;et véri…e : f0E g F E:
c) L’ensemble des polynômes complexes de degré inférieur ou égal à n 2 N ;
forme avec le polynôme nul, un sous-espace vectoriel de C [x] :

5.1.3

Suite liée de vecteurs. Suite libre de vecteurs

Dé…nition 3. Soit E un K-espace vectoriel,on dit que la suite de vecteurs
(x1 ; x2 ; :::::; xn ) est liée si l’on peut trouver des scalaires
1 ; 2 ; :::::; n 2 K; non tous nuls, tels que :
(9) :

n
X

i xi

=

1 x1

+

2 x2

+ ::::: +

n xn

=0

i=1

On dit également, par abus de langague, que les vecteurs de la suite sont liés,
ou encore linéairement dépendants.
Si la suite (x1 ; x2 ; :::::; xn ) n’est pas liée, on dit qu’elle est libre, ou encore
que x1 ; x2 ; :::::; xn sont libres ou linéairement indépendants ;
28

CHAPITRE 5. ESPACES VECTORIELS

ceci signi…e que l’égalité (9) entraîne 1 = 2 = ::::: = n = 0:
Si la suite (x1 ; x2 ; :::::; xn ) est libre , il en est de même de toute suite
partielle et, en particulier, tous les éléments xi de la suite sont distincts.
Propriété 1
Pour qu’une suite de vecteurs x1 ; x2 ; :::::; xn soit liée, il faut et il su¢ t
que l’un d’eux soit une combinaison linéaire des autres.
Théorème 1
Soit (x1 ; x2 ; :::::; xn ) une suite de n vecteurs d’un espace vectoriel E:
Soit (y1 ; y2 ; :::::; yn+1 ) une suite de (n + 1) combinaisons linéaires des
vecteurs x1 ; x2 ; :::::; xn : Alors la (y1 ; y2 ; :::::; yn+1 ) est liée.

5.2
5.2.1

Espaces vectoriels de dimension …nie
Espace vectoriel ayant un nombre …ni de générateurs

Dé…nition 4.On dit qu’un K-espace vectoriel E possède n générateurs
x1 ; x2 ; :::::; xn , si x1 ; x2 ; :::::; xn sont des vecteurs de E et si tout vecteur de E
est une combinaison linéaire de (x1 ; x2 ; :::::; xn ) : Il en résulte que E coïncide avec
l’ensemble des combinaisons linéaires de (x1 ; x2 ; :::::; xn ) et est donc l’espace
engendré par cette suite.
Le théorème 1 entraîne immédiatement :
Propriété 2
Soit E un K-espace vectoriel ayant n générateurs. Alors toute suite
de (n + 1) vecteurs de E est liée.

5.2.2

Base d’un espace vectoriel

Dé…nition 5. Soit E un K-espace vectoriel. On dit que la suite (x1 ; x2 ; :::::; xn )
est une base de E, si l’on a les deux propriétés suivantes :
1° ) x1 ; x2 ; :::::; xn sont des générateurs de E:
2° ) La suite (x1 ; x2 ; :::::; xn ) est libre.
Propriété 3
Soit x1 ; x2 ; :::::; xn des vecteurs de E un K-espace vectoriel. Pour que la suite
(x1 ; x2 ; :::::; xn ) soit une base de E; il faut et il su¢ t que tout
vecteur y 2 E s’exprime de façon unique sous la forme :
y=

1 x1

+ ::::: +

n xn

2 K; i 2 f1; 2; ::::; ng :
eme
coordonnée du vecteur y par rapport à la base (x1 ; x2 ; :::::; xn ) :
i s’appelle la i
Le théorème suivant exprime l’invariance du nombre d’éléments d’une base.
Théorème 2
Soit E un K-espace vectoriel ayant une base (x1 ; x2 ; :::::; xn ) :
Toute autre base de E est formée de n éléments. Toute suite libre (y1 ; y2 ; :::::; yn )
est une base de E: Aussi toute suite génératrice (z1 ; z2 ; :::; zn ) est une base de E:
Dé…nition 6. Soit E un K-espace vectoriel non réduit à f0g :
On dit que E est de dimension …nie s’il existe un entier n et une base de E
composée de n éléments.Alors, d’après le théorème 2, toute base de E est formée
i

29

CHAPITRE 5. ESPACES VECTORIELS

de n éléments ; cet entier n s’appelle la dimension de E et se note
dim E ou (dimK E):
Remarques
a) Si E = f0g ; il n’y a pas de base ; on dit encore que E est de dimension nulle et
on pose dim E = 0:
b) Un K-espace vectoriel non nul de dimension …nie, a une in…nité de bases.
Exemples
a° ) Soit K = R ou C et n un entier naturel non nul. Le K-espace vectoriel K n a
une base dite base canonique (e1 ; e2 ; :::::; en ) où le vecteur ek est le vecteur
(0; 0; ::; 0; 1; 0; :::; 0) ; le 1 étant la k ieme coordonnée, toutes les autres
coordonnées sont nulles.
b° ) Soit E l’espace vectoriel des polynômes complexes de degré inférieur ou
égal à n; avec le polynôme nul. La suite de polynômes (1; x; x2 ; :::::; xn )
forme une base de E:
Donc dim E = n + 1: Avec a 2 C, on véri…e que
1; x a; (x a)2 ; :::::; (x a)n est aussi une base de E:
c° ) Il ne faut pas croire que tout espace vectoriel soit de dimension …nie.
Ainsi l’espace vectoriel C [x] de tous les polynômes complexes n’est pas de
dimension …nie ; s’il était de dimension n; n + 1 polynômes quelconques seraient liés ;
or la suite (1; x; x2 ; :::::; xn ) est une suite libre de n + 1 vecteurs.
Un espace vectoriel qui n’est pas de dimension …nie est dit de dimension in…nie.

5.3

Sous-espaces vectoriels d’un espace vectoriel de
dimension …nie

La propriété suivante nous sera utile dans cette étude.
Propriété 4
Soit E un K-espace vectoriel et n 0 un entier. Supposons que toutes les suites
de (n + 1) vecteurs de E soient liées. Alors E est un espace vectoriel de
dimension …nie et dim E n:
Corollaire 1
Soit E un K-espace vectoriel de dimension …nie et F E un sous-espace vectoriel
de E.Alors F est de dimension …nie et dim F
dim E. De plus, si dim F = dim E;
on a F = E:
Une autre conséquence de la propriété 4 est la suivante :
Corollaire 2
Soit E un espace vectoriel ayant n générateurs x1 ; x2 ; :::::; xn ; alors E est
un espace vectoriel de dimension …nie et dim E n:

5.3.1

Rang d’une suite …nie de vecteurs

Considérons une suite (x1 ; x2 ; :::::; xn ) de n vecteurs d’un K-espace vectoriel E;
de dimension …nie ou non. Le sous-espace F engendré par cette suite admet
les n générateurs x1 ; x2 ; :::::; xn ; c’est donc, d’après le corollaire 2,
un espace vectoriel de dimension …nie r n:

30

CHAPITRE 5. ESPACES VECTORIELS

Dé…nition 6. On appelle rang r d’une suite …nie de n vecteurs
d’un K-espace vectoriel la dimension de l’espace vectoriel E engendré par
ces vecteurs. On a r n:
Remarque
Si dim E = n; n générateurs de E forment une base de E:

5.4

Sous-espaces supplémentaires
THEOREME DE LA BASE INCOMPLETE

Dé…nition 8
Soit E un K-espace vectoriel. Deux sous-espaces vectoriels F et G de E sont appelés
supplémentaires si tout élément x 2 E s’écrit d’une façon et d’une seule sous
la forme : x = y + z; y 2 F; z 2 G:
On dit encore que E est la somme directe de F et G et on écrit :
E=F

G

En particulier F \ G = f0E g :
Théorème 3
Soit E un K-espace vectoriel de dimension …nie, F et G deux sous-espaces
vectoriels de E. Les deux propriétés ci-dessous sont équivalentes :
(a) F et G sont supplémentaires
(b) F \ G = f0E g et dim E =dim F + dim G:
Théorème 4. (De la base incomplète) :
1. Soit E un K-espace vectoriel de dimension …nie n: Pour toute suite libre
(y1 ; y2 ; :::::; yp ) de E (p n) ; on peut trouver q = n p vecteurs
z1 ; z2 ; :::::; zq de E tels que (y1 ; y2 ; :::::; yp ; z1 ; z2 ; :::::; zq ) soit une base de E:
2. Tout sous-espace vectoriel F de E admet un supplémentaire G:

31

Chapitre 6
APPLICATIONS LINÉAIRES
6.1

Image et Noyau

Dé…nition 1 (d’une application linéaire)
Soient E et F deux K-espaces vectoriels et f : E ! F une application de E dans F .
On dit que f est une application linéaire si elle possède les deux propriétés suivantes :
(1)
8x 2 E, 8y 2 E
;
f (x + y) = f (x) + f (y) :
(2)
8x 2 E;
8 2 K;
f ( x) = f (x) :
Remarques
a° ) On déduit de (1) en posant y = x = 0 2 E; f (0) = 0 2 F:
On a également f ( x) = f (x) :
b° ) (1) et (2) () 8x; y 2 E; 8 ; 2 K; f ( x + y) = f (x) + f (y) :
c° ) Soit E munit d’une base (e1 ; e2 ; :::::; en ) ;
n
P
pour tout y 2 E; 9! 1 ; 2 ; :::::; n 2 K; y =
i ei ;
d’où f (y) = f

n
P

i=1

i ei

=

n
P

i=1

if

(ei ) ; et on constate que f est déterminée par

i=1

son action sur une base de E:
Dé…nition 2 (du noyau d’une application linéaire)
Le noyau d’une application linéaire f : E ! F est l’ensemble des vecteur x 2 E tels
que f (x) = 0: Il est noté Ker f: D’où Ker f = fx 2 E; f (x) = 0F g :
Lemme 1. Le noyau de f est un sous-espace vectoriel de E:
Proposition 1. Une application linéaire f : E ! F est
injective si et seulement si Ker f = f0E g :
Dé…nition 3 (de l’image d’une application linéaire)
L’image d’une application linéaire f : E ! F est l’ensemble image de E par
l’application f , c’est-à-dire l’ensemble des vecteurs appartenant à F tels qu’il existe
au moins un vecteur x 2 E avec f (x) = y: On la note f (E) ou encore Im f .
Im f = fy 2 F; 9x 2 E; f (x) = yg = f (E)
Lemme 2 L’image de f est un sous-espace vectoriel de F:
Remarque
L’image par une application linéaire f : E ! F d’un sous-espace vectoriel de E
est un sous-espace vectoriel de F:
Proposition 2
Une application linéaire f : E ! F est surjective si et seulement si Im f = F:
Dé…nition 4 (d’un isomorphisme)
32

CHAPITRE 6. APPLICATIONS LINÉAIRES

Une application linéaire f : E ! F est un isomorphisme si elle est injective et
surjective. On dit alors que E et F sont isomorphes par f:
Deux espaces E et F sont isomorphes noté(E ' F ) ;
s’il existe un isomorphisme f de E sur F:
Si f : E ! F est un isomorphisme, il existe une application inverse f 1 ; et f 1 est
un isomorphisme de F sur E: f : E ! F est
un isomorphisme () Ker f = f0g et f (E) = F:
Théorème 1
Soient E et F deux K-espaces vectoriels de dimension …nie
et une application linéaire f : E ! F: Alors :
(a) f est un isomorphisme entre E et F:
m
(b) dimE = dimF et Kerf = f0E g :
m
(c) dimE = dimF et Im f = F
Lemme 3 Soit (x1 ; x2 ; :::::; xn ) une suite libre de vecteurs de E et une
application linéaire f : E ! F injective. Alors (f (x1 ) ; f (x2 ) ; :::::; f (xn ))
est une suite libre dans F:

6.1.1

Le théorème noyau-image

Théorème 2
Soient E et F deux K-espaces vectoriels et une application linéaire f : E ! F:
Si la dimension de E est …nie, il en est de même des dimensions de Kerf et
de f (E) = Im f et l’on a : dim E = dim f (E) + dim Ker f:
Lemme 4
Soient E de dimension …nie et une application linéaire f : E ! F:
Alors f (E) = Im f est de dimension …nie.
Corollaire. Avec les hypothèses du théorème 2 :
Ker f = f0g () dim Im f = dim f (E) = dim E:

6.1.2

Rang d’une application linéaire

Dé…nition 5. Le rang d’une application linéaire f : E ! F:
Avec E de dimension …nie est par dé…nition la dimension
de l’image f (E) = Im f .
Exemples.
a° ) L’application f : E ! F qui, à tout vecteur x 2 E associe le vecteur nul
de F est linéaire. On a Im f = f0g et le rang de f est nul.Le noyau ker f = E:
b° ) L’application f de E dans E qui, à tout vecteur x 2 E, associe le vecteur x est
linéaire. Ker f = f0g ; f (E) = E: On l’appelle l’identité IE :
C’est un isomorphisme de E sur E;ou automorphisme de E:
c° ) Si E est un espace vectoriel sur le corps K et a 6= 0 un élément de K,
l’application f x 7 ! ax est une application linéaire de E sur E et
c’est un automorphisme(homothétie vectorielle):

33



Documents similaires


cours algebre iii chapitre 1 et chapitre 2
l1 maths fondamentales
cours1eso matrices 2 1
ch ev
chapitre3
exercices informatique seance 1