Alg bre .pdf



Nom original: Alg-bre.pdfTitre: Algèbre.dvi

Ce document au format PDF 1.4 a été généré par dvips(k) 5.992 Copyright 2012 Radical Eye Software / GPL Ghostscript 9.07, et a été envoyé sur fichier-pdf.fr le 12/04/2015 à 00:13, depuis l'adresse IP 78.231.x.x. La présente page de téléchargement du fichier a été vue 1132 fois.
Taille du document: 704 Ko (86 pages).
Confidentialité: fichier public


Aperçu du document


Cycle préparatoire 2ème année

Algèbre linéaire et bilinéaire – Notes de cours

Romain Dujol
2013 – 2014

Table des matières
0 Révisions d’algèbre linéaire
0.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . .
0.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . .
0.2.1 Somme de deux sous-espaces vectoriels
0.2.2 Famille de vecteurs . . . . . . . . . . . . . . . .
0.2.3 Espace vectoriel de dimension finie . . .
0.3 Applications linéaires . . . . . . . . . . . . . . . . . . .
0.3.1 Application linéaire . . . . . . . . . . . . . . .
0.3.2 Sous-espaces particuliers . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Réduction des endomorphismes
1.1 Élements propres . . . . . . . . . . . . . .
1.1.1 Valeur propre. Vecteur propre
1.1.2 Sous-espace propre . . . . . . .
1.2 Polynôme caractéristique . . . . . . . .
1.2.1 Définition . . . . . . . . . . . . . .
1.2.2 Propriétés . . . . . . . . . . . . . .
1.3 Réduction des endomorphismes . . .
1.3.1 Diagonalisation . . . . . . . . . .
1.3.2 Trigonalisation . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

4
. 4
. 5
. 5
. 6
. 7
. 9
. 9
. 9
. 10

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

12
12
12
13
14
14
15
16
16
18
20

2 Réduction des endomorphismes, techniques avancées
2.1 Polynôme annulateur . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Polynôme d’endomorphisme . . . . . . . . . . .
2.1.2 Polynôme annulateur. Polynôme minimal . .
2.2 Sous-espaces caractéristiques. Forme de JORDAN . .
2.2.1 Sous-espace caractéristique . . . . . . . . . . . .
2.2.2 Forme de JORDAN . . . . . . . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

22
22
22
25
28
28
29
31

Romain Dujol

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

1

3 Réduction des endomorphismes, applications
3.1 Puissances entières d’une matrice . . . . . . . . . . . . . .
3.1.1 Méthode par réduction d’endomorphisme . .
3.1.2 Méthode par division euclidienne . . . . . . . . .
3.2 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . .
3.2.1 Suites vectorielles récurrentes d’ordre un . . .
3.2.2 Suites récurrentes linéaires d’ordre supérieur
3.3 Systèmes différentiels linéaires . . . . . . . . . . . . . . . .
3.3.1 Méthode par réduction directe . . . . . . . . . . .
3.3.2 Méthode par exponentielle . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

32
32
32
33
34
34
35
36
36
36
39

4 Formes bilinéaires. Formes quadratiques
4.1 Forme bilinéaire . . . . . . . . . . . . . . . . . . . .
4.1.1 Définitions . . . . . . . . . . . . . . . . . . .
4.1.2 Orthogonalité . . . . . . . . . . . . . . . .
4.1.3 Matrice d’une forme bilinéaire . . . .
4.2 Forme quadratique . . . . . . . . . . . . . . . . . .
4.2.1 Définitions . . . . . . . . . . . . . . . . . . .
4.2.2 Orthogonalité . . . . . . . . . . . . . . . .
4.2.3 Matrice d’une forme quadratique . .
4.2.4 Réduction d’une forme quadratique
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

40
40
40
42
43
46
46
47
49
50
54

5 Espaces euclidiens
5.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Exemples fondamentaux . . . . . . . . . . . . .
5.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Familles orthogonales . . . . . . . . . . . . . . .
5.2.3 Procédé d’orthonormalisation de SCHMIDT
5.3 Théorème de projection . . . . . . . . . . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

58
58
58
59
60
60
60
63
65
68

6 Endomorphismes remarquables d’un espace euclidien
6.1 Endomorphismes orthogonaux. Matrices orthogonales
6.1.1 Endomorphismes orthogonaux . . . . . . . . . . . .
6.1.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . .
6.2 Endomorphismes autoadjoints . . . . . . . . . . . . . . . . . .
6.2.1 Adjoint d’un endomorphisme . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

70
70
70
72
73
73

Romain Dujol

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

2

6.2.2 Endomorphisme autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.2.3 Endomorphisme anti-autoadjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7 Espaces préhilbertiens complexes
7.1 Forme sesquilinéaire. Produit scalaire . . . . . . . . . . . . .
7.1.1 Forme sesquilinéaire . . . . . . . . . . . . . . . . . . . .
7.1.2 Forme sesquilinéaire hermitienne . . . . . . . . . . .
7.1.3 Forme quadratique hermitienne . . . . . . . . . . . .
7.1.4 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Endomorphismes remarquables d’un espace hermitien
7.2.1 Endomorphismes unitaires . . . . . . . . . . . . . . . .
7.2.2 Endomorphismes hermitiens et anti-hermitiens
7.3 Matrices remarquables . . . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Matrice d’une forme sesquilinéaire . . . . . . . . . .
7.3.2 Matrices unitaires . . . . . . . . . . . . . . . . . . . . . .
7.3.3 Matrices hermitiennes et anti-hermitiennes . . .
Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Romain Dujol

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

3

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

78
78
78
79
79
80
81
81
81
82
82
82
82
84

Chapitre 0

Révisions d’algèbre linéaire
0.1

Espaces vectoriels

Définition 0.1 (Espace vectoriel). Soit K un corps commutatif. Un espace vectoriel sur K ou
K-espace vectoriel est un ensemble E muni :
– d’une loi de composition interne + telle que (E , +) est un groupe abélien ;
– d’une loi de composition externe · : K × E → E
telle que :
(λ, x ) 7→ λ · x
1. ∀x ∈ E , 1K · x = x

2. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , λ · (µ · x ) = (λµ) · x

3. ∀λ ∈ K, ∀µ ∈ K, ∀x ∈ E , (λ + µ) · x = λ · x + µ · x

4. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , λ · (x + y ) = λ · x + λ · y

Les éléments de E sont appelés des vecteurs. Les éléments de K sont appelés des scalaires.

Remarque. Les propriétés 1 et 2 indiquent que · est une action à gauche du groupe K sur E .
Proposition 0.1. Soit K un corps commutatif et E un K-espace vectoriel. Alors :
1. ∀λ ∈ K, λ · 0E = 0E
2. ∀x ∈ E , 0K · x = 0E

3. ∀x ∈ E , (−1K ) · x = −x
Proposition 0.2 (Exemples fondamentaux). Soit n un entier naturel non nul.
1. L’ensemble Kn = K × · · · × K (n fois) des n -uplets à valeurs dans K est un K-espace vectoriel.
2. L’ensemble K[X ] des polynômes à coefficients dans K est un K-espace vectoriel

Romain Dujol

4

Démonstration.
1. Kn est un K-espace vectoriel pour les opérations
+:

Kn × Kn

(x 1 , . . . , x n ), (y 1 , . . . , y n )

Kn
et + :
(x 1 + y 1 , . . . , x n + y n )


7


K × Kn

λ, (x 1 , . . . , x n )


7→

Kn
(λx 1 , . . . , λx n )

2. K[X ] est un K-espace vectoriel pour les opérations
+:
p
X

K[X ] × K[X ]
!
q
X
bk X k
akXk,

k =0

k =0



et + :

K[X ]
max(p,q
X )

7→

(a k + b k )X k

K × K[X ] !
p
X
akXk
λ,


7→

k =0

k =0

K[X ]
p
X
(λa k )X k
k =0

Remarque. R et C sont des corps commutatifs et sont les corps les plus fréquemment utilisés.

0.2

Sous-espace vectoriel

Définition 0.2 (Sous-espace vectoriel). Soit E un K-espace vectoriel.
F est un sous-espace vectoriel de E si et seulement si :
(F est inclus dans E )

et

(F est un K-espace vectoriel)

Proposition 0.3 (Caractérisation d’un sous-espace vectoriel). Soit E un K-espace vectoriel.
Une partie non vide F de E est un sous-espace vectoriel de E si et seulement si
∀x ∈ F, ∀y ∈ F, x + y ∈ F

et

∀λ ∈ K, ∀x ∈ F, λ · x ∈ F

ou si et seulement si
∀λ ∈ K, ∀x ∈ F, ∀y ∈ F, x + λ · y ∈ F
Proposition 0.4. Soit n un entier naturel. Alors l’ensemble Kn [X ] des polynômes à coefficients
dans K de degré au plus n est un sous-espace vectoriel de K[X ].

0.2.1

Somme de deux sous-espaces vectoriels

Définition 0.3 (Somme. Somme directe). Soit E un K-espace vectoriel et F et G deux sousespaces vectoriels de E . On définit la somme de F et G , notée F + G par
F + G = {x + y , x ∈ F, y ∈ G }
La somme F + G est dite directe si et seulement si tout élément de F + G admet une et une
seule décomposition comme somme d’un élément de F et d’un élément de G . La somme est alors
noté F ⊕ G .

Romain Dujol

5

Proposition 0.5. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors
F + G est un sous-espace vectoriel de E .
Remarque. On peut étendre cette définition à plus de deux sous-espaces vectoriels.
Proposition 0.6 (Caractérisation).
Soit F et G deux sous-espaces vectoriels du K-espace vectoriel E .
Alors F et G sont en somme directe si et seulement si F ∩ G = {0E }.

Définition 0.4. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E .
F et G sont dits supplémentaires dans E si et seulement si E = F ⊕ G .

0.2.2

Famille de vecteurs

Définition 0.5 (Combinaison linéaire). Soit E un K-espace vectoriel.
Un vecteur x de E est une combinaison linéaire des vecteurs x 1 , . . . , x n si et seulement si il
existe des scalaires λ1 , . . . , λn tels que x = λ1 x 1 + λ2 x 2 + · + λn x n .

Définition 0.6 (Sous-espace vectoriel engendré). Soit E un K-espace vectoriel.
Le sous-espace engendré par x 1 , . . . , x n est l’ensemble des combinaisons linéaires des vecteurs
x 1 , . . . , x n , noté Vect(x 1 , . . . , x n ).

Définition 0.7 (Famille génératrice). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est dite génératrice si et seulement si tout élément de E
est une combinaison linéaire des vecteurs x 1 , . . . , x n , i.e. E ⊂ Vect(x 1 , . . . , x n ).

Romain Dujol

6

Définition 0.8 (Famille liée. Famille libre). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est dite liée si et seulement si il existe des scalaires
λ1 , . . . , λn non tous nuls tels que
λ1 x 1 + λ2 x 2 + · · · + λn x n = 0 E
Une famille libre est une famille non liée.

Proposition 0.7 (Caractérisation). Soit E un K-espace vectoriel.
Une famille (x 1 , . . . , x n ) de vecteurs de E est liée si et seulement si
∀(λ1 , . . . , λn ) ∈ Kn , λ1 x 1 + λ2 x 2 + · · · + λn x n = 0E =⇒ λ1 = · · · = λn = 0

Définition 0.9 (Base). Une base est une famille libre et génératrice.

0.2.3

Espace vectoriel de dimension finie

Définition 0.10 (Espace vectoriel de dimension finie). Un espace vectoriel est dit de dimension finie si et seulement il admet une famille génératrice finie.

Théorème (Dimension). Tout espace vectoriel E de dimension finie admet au moins une base.
Toutes les bases de E ont le même nombre de vecteurs : cet entier commun est appelé dimension
de E , notée dim E .
On convient que dim{0E } = 0.
Proposition 0.8.
1. Kn est un K-espace vectoriel de dimension n .
2. Kn [X ] est un K-espace vectoriel de dimension n + 1.
3. K[X ] n’est pas de dimension finie.
4. F (K, K) n’est pas de dimension finie.

Romain Dujol

7

Démonstration.
(
1. Une base B = (e i )1≤i ≤n de Kn est définie par e i = (δi j )1≤j ≤n où δi j =
base canonique de Kn .

1 si i = j
0 si i 6= j

. Elle est appelée

2. Une base de Kn [X ] est (X i )0≤i ≤n . Elle est appelée base canonique de K[X ].
3. Supposons par l’absurde que K[X ] est de dimension finie n : soit alors B une base de n polynômes.

On note d = max deg P le plus haut degré des polynômes de B : alors K[X ] = Vect(B ) ⊂ Kd [X ]. Or
P∈B

X d +1 ∈ K[X ]\Kd [X ], ce qui est impossible.

On conclut que K[X ] n’est pas dimension finie.

4. F (K, K) contient l’ensemble des fonctions polynômiales sur K. Comme cet ensemble n’est pas de
dimension finie, F (K, K) non plus.

Remarque. La notation δi j est communément appelée symbole de KRONECKER.
Proposition 0.9 (Dimension d’un sous-espace vectoriel).
Soit E un K-espace vectoriel et F un sous-espace vectoriel de E . Alors dim F ≤ dim E .
De plus F = E si et seulement si dim F = dim E .
Proposition 0.10 (Dimension d’une somme).
Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E . Alors
dim(F + G ) = dim F + dimG − dim(F ∩ G )
En particulier dim(F ⊕ G ) = dim F + dimG .

Définition 0.11 (Rang). On appelle rang d’une famille finie de vecteurs la dimension du sousespace engendré par cette famille de vecteurs.

Proposition 0.11. Une famille (finie) de vecteurs est libre si et seulement si son rang est égal au
nombre de vecteurs qui composent cette famille.

Romain Dujol

8

0.3

Applications linéaires

0.3.1

Application linéaire

Définition 0.12. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est dite
linéaire si et seulement si :
– elle est un morphisme du groupe (E , +) dans (F, +) ;
– ∀λ ∈ K, ∀x ∈ E , f (λ · x ) = λ · f (x )
L’ensemble des applications linéaires de E dans F est noté L (E , F ).
Un endomorphisme de E est une application linéaire de E dans E .
Un isomorphisme de E dans F est une application linéaire bijective de E dans F .
Un automorphisme de E est un endomorphisme bijectif de E .
Une forme linéaire sur E est une application linéaire de E dans K.

0.3.2

Sous-espaces particuliers

Définition 0.13 (Noyau. Image). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F .
On appelle noyau de f , noté Ker f , le sous-espace vectoriel de E défini par
Ker f = f −1 (0F ) = {x ∈ E , f (x ) = 0F }
On appelle image de f , noté Im f , le sous-espace vectoriel de F défini par
Im f = f (E ) = { f (x ), x ∈ E }
Si F est de dimension finie, alors Im f aussi et on définit le rang de f comme étant égal à la
dimension de Im f .
Proposition 0.12 (Caractérisation rapide de l’injectivité). Soit E et F deux K-espaces vectoriels
et f une application linéaire de E dans F . Alors :
f est injective si et seulement si Ker f = {0E }.
Théorème (Formule du rang). Soit E et F deux K-espaces vectoriels et f une application linéaire de E dans F . Alors
dim E = dim(Im f ) + dim(Ker f )
Corollaire (Corollaire fondamental). Soit E et F deux K-espaces vectoriels de même dimension
(finie) et f une application linéaire de E dans F . Alors
f injective ⇐⇒ f surjective ⇐⇒ f bijective
Remarque. Ce corollaire est donc valable en particulier si E = F .

Romain Dujol

9

Révisions d’algèbre linéaire : Exercices

Exercice 0.1.
1. La famille de vecteurs {(1, 2, 3), (1, −2, −3), (1, 4, 3)} est-elle libre dans R3 ?

2. La famille de vecteurs {(2, i , 4, −i ), (i , −1, −i , 1), (0, 3, −i , 1)} est-elle libre dans C4 ?

Exercice 0.2. Soit n un entier naturel non nul et (a i )1≤i ≤n un n -uplet de nombres réels distincts
deux à deux rangés dans l’ordre croissant :
2

∀(i , j ) ∈ J1, n K , (i < j ) ⇒ a i < a j
1. Montrer que la famille {x 7→ e a i x }i ≤n est libre dans F (R, R) :
(a) lorsque tous les coefficients a i sont des entiers naturels ;

(b) lorsque tous les coefficients a i sont des nombres réels quelconques.
2. En déduire que F (R, R) est de dimension infinie.

4
3
Exercice 0.3. Soit f une application
linéaire
de R dans R dont la matrice dans les deux bases

−11 7 0 3


1 11 2.
canoniques respectives est  0
1
0 7 1

1. Déterminer le rang de f .
2. Déterminer une base de Ker f .
3. Déterminer une base de Im f .

Exercice 0.4. On considère l’application U : R3 [X ] → R3 [X ] .
P
7→ P ′ + P

1. Vérifier que l’application U est bien définie et qu’il s’agit d’un automorphisme de R3 [X ].

2. Écrire la matrice de U dans la base canonique de R3 [X ].

Romain Dujol

10

Exercice 0.5. Soit m

1
1

1. 1 + m −1
2
−m

1
1 1

1 m
1
2. 
1
m
1

m 1 1

un nombre réel. Déterminer le rang des matrices suivantes :

1−m

2 
3

m

1

1
1

Exercice 0.6. Calculer les déterminants suivants :


1
cos(t ) cos(2t )

1. cos(t ) cos(2t ) cos(3t )
cos(2t ) cos(3t ) cos(4t )


a a a a


a b b b
où a , b , c et d sont des réels quelconques
2.

a b c c
a b c d

Exercice 0.7. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E .
Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit


0

A =  −1
− sin θ

1
0
cos θ


− sin θ

cos θ 
0

1. Montrer que f 3 = f ◦ f ◦ f = 0.

2. On note e 1′ = (cos θ ) · e 1 + (sin θ ) · e 2 , e 2′ = f (e 1 ) et e 3′ = f (e 2 ).

(a) Montrer que B ′ = (e 1′ , e 2′ , e 3′ ) est une base de E et déterminer la matrice de passage de
B dans B ′ .
(b) En déduire la matrice de f dans B ′ .

Romain Dujol

11

Chapitre 1

Réduction des endomorphismes
Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C).

1.1

Élements propres

1.1.1

Valeur propre. Vecteur propre

Définition 1.1 (Valeur propre, vecteur propre d’un endomorphisme). Soit E un K-espace
vectoriel et f un endomorphisme de E .
Un scalaire λ ∈ K est une valeur propre de f si et seulement il existe un vecteur non nul x
de E tel que
f (x ) = λ · x
Auquel cas, x est un vecteur propre de f associé à la valeur propre λ.
L’ensemble des valeurs propres de f est appelé spectre de f et noté Sp f .
ATTENTION. Le vecteur nul n’est JAMAIS un vecteur propre.
Remarque. L’équation f (x ) = λ · x est parfois appelé équation aux valeurs propres.
Définition 1.2 (Valeur propre, vecteur propre d’une matrice carrée). Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
Un scalaire λ ∈ K est une valeur propre de A si et seulement il existe une matrice-colonne
non nulle X telle que
AX = λX
Auquel cas, X est un vecteur propre de A associé à la valeur propre λ.
L’ensemble des valeurs propres de A est appelé spectre de A et noté Sp A.

Romain Dujol

12

Théorème 1.1 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors :
1. λ est une valeur propre de f si et seulement si λ est valeur propre de A ;

2. x est un vecteur propre de f associé à la valeur propre λ si et seulement si X = matB x
est un vecteur propre de A associé à la valeur propre λ.

DONC

TOUS LES RÉSULTATS ÉNONCÉS DANS CE CHAPITRE PEUVENT ÊTRE TRANSPOSÉS DANS UNE

FORMULATION MATRICIELLE AVEC LES SUBSTITUTIONS SUIVANTES

f ↔A

,

x ↔X

,

:

idE ↔ I n (matrice identité)

Proposition 1.1 (Caractérisation de la valeur propre). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors :
λ ∈ Sp f ⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif
Démonstration. On part de la définition de la valeur propre :
λ ∈ Sp f ⇐⇒ ∃x ∈ E \{0E }, f (x ) = λ · x

⇐⇒ ∃x ∈ E \{0E }, f (x ) − λ · x = 0E

⇐⇒ ∃x ∈ E \{0E }, ( f − λ idE )(x ) = 0E

⇐⇒ Ker( f − λ idE ) 6= {0E } ⇐⇒ ( f − λ idE ) n’est pas injectif

Corollaire (Valeur propre d’un automorphisme). Soit E un K-espace vectoriel et f un endomorphisme de E . Alors f est bijective si et seulement si 0 n’est pas valeur propre de f .
Démonstration. C’est l’application de la proposition précédente avec λ = 0 et le fait que f est injective si
et seulement si elle est bijective.

1.1.2

Sous-espace propre

Définition 1.3 (Sous-espace propre). Soit E un K-espace vectoriel.
Soit f un endomorphisme de E et λ une valeur propre de f . On appelle sous-espace propre
de f associé à la valeur propre λ, noté E λ ( f ) ou SEP( f , λ) par
E λ ( f ) = Ker( f − λ idE ) = {x ∈ E , f (x ) = λ · x }
Lorsqu’il n’y a pas d’ambigüité, on notera E λ au lieu de E λ ( f ).

Romain Dujol

13

Proposition 1.2. Soit E un K-espace vectoriel.
Soit f un endomorphisme de E et λ une valeur propre de f .
1. E λ ( f ) est un sous-espace vectoriel de E .
2. E λ ( f ) est composé de l’ensemble de tous les vecteurs propres de f associés à λ et de 0E .
Proposition 1.3. Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ1 et λ2 deux valeurs propres distinctes de f . Alors E λ1 ( f ) et E λ2 ( f ) sont en somme directe.
Démonstration. Soit x ∈ E λ1 ( f ) ∩ E λ2 ( f ), alors :
– x ∈ E λ1 ( f ), donc f (x ) = λ1 x
– x ∈ E λ2 ( f ), donc f (x ) = λ2 x
Donc λ1 x = λ2 x et (λ1 − λ2 )x = 0. Comme λ1 et λ2 sont distincts, il vient que λ1 − λ2 6= 0, puis que x = 0.
On en déduit que E λ1 ( f ) ∩ E λ2 ( f ) = {0E } et que E λ1 ( f ) et E λ2 ( f ) sont en somme directe.

1.2
1.2.1

Polynôme caractéristique
Définition

Proposition 1.4 (Introduction du polynôme caractéristique). Soit E un K-espace vectoriel de
dimension finie et f un endomorphisme de E . Alors
λ ∈ Sp f ⇐⇒ det( f − λ idE ) = 0
Démonstration.
λ ∈ Sp f ⇐⇒ ( f − λ idE ) n’est pas injectif ⇐⇒ ( f − λ idE ) n’est pas bijectif ⇐⇒ det( f − λ idE ) = 0

Définition 1.4 (Polynôme caractéristique d’un endomorphisme). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
L’expression det( f − X idE ) [où X est ici l’indéterminée des polynômes] est un polynôme à
coefficients dans K appelé polynôme caractéristique de f , noté χ f .

Définition 1.5 (Polynôme caractéristique d’une matrice carrée). Soit n un entier naturel
non nul et A une matrice carrée d’ordre n à coefficients dans K.
L’expression det(A − X I n ) [où X est ici l’indéterminée des polynômes] est un polynôme à
coefficients dans K appelé polynôme caractéristique de A, noté χA .

Romain Dujol

14

1.2.2

Propriétés

Corollaire (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors Sp f est l’ensemble des racines de χ f .
Proposition 1.5 (Coefficients du polynôme caractéristique). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors χ f est un polynôme de degré n et :
1. le coefficient dominant, i.e. de degré n , de χ f est (−1)n ;
2. le coefficient de degré n − 1 de χ f est (−1)n−1 tr f ;

3. le coefficient constant, i.e. de degré 0, de χ f est det f .
(On rappelle que tr f est la trace de l’endomorphisme f .)
Corollaire. Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors f
admet au plus n valeurs propres.
Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, χ f admet au plus n racines distinctes (certaines pouvant être répétées). Comme les racines de χ f sont exactement les valeurs propres de f , on
conclut immédiatement.


8
12
10


Exemple. Déterminer les éléments propres de A = −9 −22 −22.
9
18
17


Définition 1.6 (Ordre de multiplicité géométrique. Ordre de multiplicité algébrique). Soit
E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur
propre de f .
L’ordre de multiplicité géométrique de λ est la dimension de son sous-espace propre, i.e.
dim E λ ( f ).
L’ordre de multiplicité algébrique de λ est l’ordre de multiplicité de λ en tant que racine du
polynôme caractéristique χ f .
Une valeur propre λ est dite simple si et seulement si son ordre de multiplicité algébrique
est égal à un. Une valeur propre λ est dite double si et seulement si son ordre de multiplicité
algébrique est égal à deux, et ainsi de suite.

Exemple. Reprendre l’exemple précédent et déterminer les ordres de multiplicités géométriques
et algébriques des valeurs propres de A.

Romain Dujol

15

Proposition 1.6 (Comparaison des ordres de multiplicité). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ une valeur propre de f dont on note γ l’ordre
de multiplicité géométrique et α l’ordre de multiplicité algébrique. Alors
1≤γ≤α
Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E . Soit λ
une valeur propre simple de f : alors dim E λ ( f ) = 1.
Démonstration. On note respectivement γ et α les ordres de multiplicité géométrique et algébrique de λ.
Comme λ est une valeur propre simple, α = 1 et 1 ≤ γ ≤ 1 : on en déduit que dim E λ ( f ) = γ = 1.

1.3
1.3.1

Réduction des endomorphismes
Diagonalisation

Définition 1.7 (Endomorphisme diagonalisable).
Soit E un K-espace vectoriel de dimension finie.
Un endomorphisme f de E est dit diagonalisable sur K si et seulement si il existe une base
B de E telle que la matrice de f dans B soit diagonale.
Auquel cas, B est appelée la base de diagonalisation de f .

Définition 1.8 (Matrice carrée diagonalisable). Soit n un entier naturel non nul.
Une matrice A carrée d’ordre n à coefficients dans K est dite diagonalisable sur K si et
seulement si elle est semblable à une matrice diagonale, i.e.
∃P ∈ GLn (K), ∃D ∈ Dn (K), A = PDP −1
Auquel cas, la donnée du couple (P, D) constitue la diagonalisation de A.

Remarque.
1. On trouve parfois réduction à la forme diagonale au lieu de diagonalisation.
2. Une diagonalisation n’est pas unique : pour une matrice diagonalisable A donnée, il existe
plusieurs (une infinité) couples (P, D) possibles.
3. Diagonaliser A, c’est trouver une diagonalisation de A.

Romain Dujol

16

Proposition 1.7. Toute matrice diagonale à coefficients dans K est diagonalisable sur K.
Démonstration. Une matrice diagonale est semblable à elle-même, donc elle est diagonalisable. Donc
(I , D) est une diagonalisation de la matrice diagonale D.

Proposition 1.8 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors f est diagonalisable sur K si et seulement
si A est diagonalisable sur K.
Proposition 1.9 (Caractérisation de la diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E . Alors les propositions suivantes sont équivalentes.
1. f est diagonalisable sur K
2. Il existe une base B de E constituée exclusivement de vecteurs propres de f .
3. La somme (directe) de tous les sous-espaces propres de f est égale à E .

4. La somme des dimensions de tous les sous-espaces propres de E est égale à n .
Proposition 1.10 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel
de dimension n et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si les deux propositions suivantes sont vérifiées :
1. le polynôme caractéristique χ f de f est scindé sur K ;
2. pour chaque valeur propre de f , les ordres de multiplicité géométrique et algébrique sont
égaux, i.e. la dimension du sous-espace propre est égale à son ordre de multiplicité dans χ f .
Corollaire (Condition suffisante de diagonalisabilité). Soit E un K-espace vectoriel de dimension n et f un endomorphisme de E .
Si f admet n valeurs propres distinctes deux à deux, alors f est diagonalisable sur K.
Démonstration. Donc f admet n valeurs propres simples :
– le polynôme caractéristique admet donc n racines simples : il est donc scindé sur K ;
– la dimension de chaque sous-espace propre est égale à un : comme il y a n sous-espaces propres,
la somme des dimensions de ces sous-espaces propres est égale à n.
On en conclut que f est diagonalisable sur K.


2 0 1


Exemple. Diagonaliser A =  1 1 1 .
−2 0 −1


Proposition 1.11. Toute matrice à coefficients réels diagonalisable sur R est diagonalisable sur C.

Romain Dujol

17

1.3.2

Trigonalisation

Définition 1.9 (Endomorphisme trigonalisable).
Soit E un K-espace vectoriel de dimension finie.
Un endomorphisme f de E est dit trigonalisable sur K si et seulement si il existe une base
B de E telle que la matrice de f dans B soit triangulaire.
Auquel cas, B est appelée la base de trigonalisation de f .
Proposition 1.12. Tout endomorphisme diagonalisable sur K est trigonalisable sur K.

Définition 1.10 (Matrice carrée trigonalisable). Soit n un entier naturel non nul.
Une matrice A carrée d’ordre n à coefficients dans K est dite trigonalisable sur K si et seulement si elle est semblable à une matrice triangulaire, i.e.
∃P ∈ GLn (K), ∃D ∈ Tn (K), A = PT P −1
Auquel cas, la donnée du couple (P, T ) constitue la trigonalisation de A.

Proposition 1.13. Toute matrice carrée diagonalisable sur K est trigonalisable sur K.
Remarque.
1. On trouve parfois réduction à la forme triangulaire au lieu de trigonalisation.
2. Une trigonalisation n’est pas unique : pour une matrice trigonalisable A donnée, il existe
plusieurs (une infinité) couples (P, T ) possibles.
3. Trigonaliser A, c’est trouver une trigonalisation de A.
Proposition 1.14. Toute matrice triangulaire à coefficients dans K est trigonalisable sur K.
Démonstration. Une matrice triangulaire est semblable à elle-même, donc elle est trigonalisable. Donc
(I , T ) est une trigonalisation de la matrice triangulaire T .

Proposition 1.15 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B . Alors f est trigonalisable sur K si et seulement
si A est trigonalisable sur K.

Romain Dujol

18

Proposition 1.16 (Caractérisation rapide de la diagonalisabilité). Soit E un K-espace vectoriel
de dimension n et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si le polynôme caractéristique χ f de f est
scindé sur K.
Corollaire (Cas des C-espaces vectoriels).
1. Soit E un C-espace vectoriel de dimension finie. Alors tout endomorphisme de E est trigonalisable sur C.
2. Toute matrice carrée à coefficients complexes est trigonalisable sur C.
Démonstration. D’après le théorème de D’ALEMBERT-GAUSS, tout polynôme à coefficients complexes est
scindé sur C. Donc le polynôme caractéristique de tout endomorphisme est scindé sur C, ce qui permet
de conclure.

Proposition 1.17. Toute matrice à coefficients réels trigonalisable sur R est trigonalisable sur C.
Exemple.


−4

1. Trigonaliser A =  0
5

−2

2. Trigonaliser A = −15
−14


0 −2

1 0 .
1 3

−1 2

−6 11.
−6 11

ATTENTION.
1. Il existe des endomorphismes/matrices carrées non diagonalisables/trigonalisables.
2. Changer le corps K peut modifier le caractère diagonalisable/trigonalisable d’un endomorphisme/d’une matrice carrée.
Exemple.
‚
A = ···
A
A
A
A

Romain Dujol

est-elle diagonalisable sur R ?
est-elle diagonalisable sur C ?
est-elle trigonalisable sur R ?
est-elle trigonalisable sur C ?

Œ
1 1
1 1

‚

Œ
1 1
0 1

‚

Œ
0 1
−1 0

OUI

NON

NON

OUI

NON

OUI

OUI

OUI

NON

OUI

OUI

OUI

19

Réduction des endomorphismes : Exercices

Élements propres
Exercice 1.1. Soit n un entier naturel non nul et A et B deux matrices carrées d’ordre n à coefficients dans K.
1. Montrer que les polynômes caractéristiques de A et t A sont égaux.
Ces deux matrices ont-elles les mêmes sous-espaces propres et les mêmes valeurs propres ?
2. Montrer que A B et B A ont les mêmes valeurs propres.

Exercice 1.2. Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients
dans K telle que la somme des coefficients de chaque ligne vaut α ∈ K.
Montrer que α est valeur propre de A.

Exercice 1.3. Soit n un entier naturel non nul et f : M n (K) → M n (K) .
M
7→ t A
1. Vérifier que f est un endomorphisme de M n (K).
2. Déterminer les valeurs propres de f .

Exercice 1.4. On considère l’application f : R[X ] → R[X ]
.

P
7→ (X + 1)(X − 3)P − X P
1. Vérifier que f est un endomorphisme de R[X ].
2. Déterminer les éléments propres de f .

Romain Dujol

20

Diagonalisation
Exercice 1.5. Diagonaliser les matrices suviantes :


0 1 0


1. A 1 = 1 0 1
0 1 0


11 −5 5


2. A 2 = −5 3 −3
5 −3 3


−1 a a 2


3. A 3 =  0 0 −a , a ∈ R
0 0
1


0
−1
1


4. A 4 = −(a + 1) a a + 1, a ∈ R
−a
a a +1


−1 2 −2 4


−3 4 2 1
5. A 5 = 

 0 0 −2 3
0 0 −4 5


1 3 0 0


4 2 0 0 
6. A 6 = 

1 −1 5 −3
2 0 4 −2

Trigonalisation
Exercice 1.6. Diagonaliser les matrices suviantes :


5 −17 25


1. A 1 = 2 −9 16
1 −5
9


2 0 1


2. A 2 =  1 1 0
−1 1 3

Romain Dujol

21

Chapitre 2

Réduction des endomorphismes,
techniques avancées
Dans ce chapitre, K désigne un corps commutatif (dans la pratique, on prendra K = R ou C).

2.1

Polynôme annulateur

2.1.1
2.1.1.1

Polynôme d’endomorphisme
Définition et propriétés

Définition 2.1 (Polynôme d’endomorphisme).
Soit E un K-espace vectoriel et f un endomorphisme de E . Pour tout polynôme P =

p
X

aiXi

i =0

à coefficients dans K, on définit l’endomorphisme P( f ) de E par
P( f ) =

p
X

ai f i

i =0

Définition 2.2 (Polynôme de matrice carrée).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n . Pour tout polynôme
p
X
P=
a i X i à coefficients dans K, on définit la matrice carrée d’ordre n P(A) par
i =0

P(A) =

p
X

a i Ai

i =0

Romain Dujol

22

Proposition 2.1 (Équivalence des formulations).
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Soit B une base de E et A la matrice de f dans B .
Alors la matrice de l’endomorphisme P( f ) dans la base B est P(A).
Proposition 2.2 (Règles opératoires). Soit E un K-espace vectoriel et f un endomorphisme de E .
Alors Φ : K[X ] → L (E ) est un morphisme d’algèbres unitaire, c’est-à-dire :
P
7→ P( f )
1. ∀λ ∈ K, ∀µ ∈ K, ∀P ∈ K[X ], ∀Q ∈ K[X ], (λP + µQ)( f ) = λP( f ) + µQ( f )
2. ∀P ∈ K[X ], ∀Q ∈ K[X ], (PQ)( f ) = P( f ) ◦Q( f )
3. 1( f ) = idE

Proposition 2.3 (Opération sur les vecteurs propres).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ une valeur propre de f et x un élément de E λ ( f ). Alors
∀P ∈ K[X ], P( f )(x ) = P(λ) · x
Démonstration. Montrons d’abord par récurrence sur i que le résultat demandé est vérifié pour P = X i
pour tout entier naturel i .
– Si i = 0, alors (X 0 )( f )(x ) = idE (x ) = x = 1 · x = λ0 x . Donc la propriété est vérifiée au rang 0.
– Soit i un entier naturel tel que f i (x ) = λi · x . Alors
f i +1 (x ) = f i ( f (x )) = f i (λx ) = λ f i (x ) = λ(λi x ) = λi +1 x
Donc la propriété est vraie au rang i + 1.
p
X
a i X i un polynôme quelconque à coefficients dans K. Alors
Soit alors P =
i =0

P( f )(x ) =

p
X
i =0

2.1.1.2

p
X

!
ai fi

(x ) =

a i f i (x ) =

i =0

p
X
i =0

i

a i (λ · x ) =

p
X
i =0

!
aiλ

i

· x = P(λ) · x

Noyau de polynômes d’endomorphismes

Proposition 2.4 (Stabilité). Soit E un K-espace vectoriel de f un endomorphisme de E .
Pour tout polynôme P à coefficients dans K, Ker P( f ) est stable par f .
Démonstration. Soit x ∈ Ker P( f ). Alors P( f )[ f (x )] = P( f )[X ( f )(x )] = [P( f ) ◦ X ( f )](x ) = [P X ]( f )(x )
= [X P( f )](x ) = [X ( f ) ◦ P( f )](x ) = X ( f )[P( f )(x )]
= f (0E ) = 0E

Donc f (x ) ∈ Ker P( f ) et Ker P( f ) est stable par f .

Romain Dujol

23

Théorème 2.1 (Théorème des noyaux). Soit E un K-espace vectoriel de f un endomorphisme de E .
Soit P1 , . . . , Pm des polynômes à coefficients dans K deux à deux premiers entre eux. Alors :

! 
m
m
Y
M
Ker[Pi ( f )] = Ker 
Pi ( f )
i =1

i =1

Démonstration. On effectuera la démonstration pour m = 2. Soit alors P et Q deux polynômes premiers
entre eux. Montrons que Ker P( f ) ⊕ KerQ( f ) = Ker[(PQ)( f )] en deux étapes :
1. on vérifie que Ker P( f ) et KerQ( f ) sont en somme directe ;

2. on montre que la somme de ces deux sous-espaces vectoriels est égale à Ker[(PQ)( f )].
D’après le théorème de BEZOUT, il existe deux polynômes A et B à coefficients dans K tels que AP + BQ = 1.
1. Soit x ∈ Ker P( f ) ∩ KerQ( f ). Alors :
x = idE (x ) = 1( f )(x ) = (AP + BQ)( f )(x ) = [A( f ) ◦ P( f )](x ) + [B ( f ) ◦Q( f )](x )

= A( f )[P( f )(x )] + B ( f )[Q( f )(x )] = A( f )(0E ) + B ( f )(0E ) = 0E

On en déduit que Ker P( f ) ∩ KerQ( f ) = 0E et que Ker P( f ) et KerQ( f ) sont en somme directe.

2. Montrons que Ker P( f ) + KerQ( f ) = Ker[(PQ)( f )] à l’aide d’une double inclusion.
– Soit x ∈ Ker P( f ) + KerQ( f ) : alors il existe x 1 ∈ Ker P( f ) et x 2 ∈ KerQ( f ) tel que x = x 1 + x 2 et :
(PQ)( f )(x ) = (PQ)( f )(x 1 + x 2 ) = (PQ)( f )(x 1 ) + (PQ)( f )(x 2 ) = (QP)( f )(x 1 ) + (PQ)( f )(x 2 )
= [Q( f ) ◦ P( f )](x 1 ) + [P( f ) ◦Q( f )](x 2 ) = Q( f )[P( f )(x 1 )] + P( f )[Q( f )(x 2 )]
= Q( f )(0E ) + P( f )(0E ) = 0E

Donc x ∈ Ker[(PQ)( f )].
– Soit x ∈ Ker[(PQ)( f )]. On note x 1 = (BQ)( f )(x ) et x 2 = (AP)( f )(x ). Alors :
· x 1 + x 2 = (BQ)( f )(x ) + (AP)( f )(x ) = (BQ + AP)( f )(x ) = 1( f )(x ) = idE (x ) = x
· P( f )(x 1 ) = P( f )[(BQ)( f )(x )] = [P( f ) ◦ (BQ)( f )](x ) = (P BQ)( f )(x )

= (B PQ)( f )(x ) = [B ( f ) ◦ (PQ)( f )](x ) = B ( f )[(PQ)( f )(x )] = B ( f )(0E ) = 0E
· Q( f )(x 2 ) = Q( f )[(AP)( f )(x )] = [Q( f ) ◦ (AP)( f )](x ) = (QAP)( f )(x )

= (APQ)( f )(x ) = [A( f ) ◦ (PQ)( f )](x ) = A( f )[(PQ)( f )(x )] = A( f )(0E ) = 0E
Donc x 1 ∈ Ker P( f ), x 2 ∈ KerQ( f ) et x = x 1 + x 2 ∈ Ker P( f ) + KerQ( f ).

Remarque. La relation Ker P( f )+KerQ( f ) ⊂ Ker[(PQ)( f )] est valable pour tous polynômes P et Q
(qu’ils soient premiers entre eux ou non).

Romain Dujol

24

2.1.2
2.1.2.1

Polynôme annulateur. Polynôme minimal
Cas général

Définition 2.3 (Polynôme annulateur).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Un polynôme P à coefficients dans K est dit polynôme annulateur de f si et seulement si
P( f ) est l’endomorphisme nul.

Proposition 2.5. Soit E un K-espace vectoriel et f un endomorphisme de E .
Soit λ une valeur propre de f et P est un polynôme annulateur de f . Alors λ est une racine de P.
Démonstration. Soit x un vecteur propre de f associé à λ. Alors P(λ) · x = P( f )(x ) = 0(x ) = 0.
Comme x est un vecteur propre, c’est un vecteur non nul : donc P(λ) = 0.

Théorème 2.2 (Théorème de CAYLEY-HAMILTON). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors le polynôme caractéristique de f est un polynôme annulateur de f : χ f ( f ) = 0.

Théorème 2.3 (Polynôme minimal).
Soit E un K-espace vectoriel et f un endomorphisme de E .
Si f admet un polynôme annulateur non nul, alors il existe un unique polynôme à coefficients dans K dont le coefficient de plus haut degré est égal à un, noté π f , tel que
P( f ) = 0 ⇐⇒ P divise π f
Le polynôme π f est appelé polynôme minimal de f .

Démonstration.

ADMIS

Remarque. Donc, à une constante multiplicative près, π f est le polynôme annulateur de plus
faible degré.

Romain Dujol

25

Proposition 2.6 (Caractérisation rapide d’une valeur propre). Soit E un K-espace vectoriel de
dimension finie et f un endomorphisme de E .
Alors Sp f est l’ensemble des racines de π f .
Corollaire (Forme générale du polynôme minimal). Soit E un K-espace vectoriel de dimension
finie et f un endomorphisme de E .
p
Y
Si le polynôme caractéristique de f s’écrit χ f = (−1)n
(X −λi )αi , alors le polynôme minimal
de f est de la forme π f =

p
Y
i =1

i =1

(X − λi )βi avec βi ∈ J1, αi K pour i ∈ J1, p K.

Exemple. Déterminer le polynôme minimal des matrices suivantes :


0 1 2


1. A = 1 0 2
1 2 0


−1 1
1


2. B =  1 −1 1 
1
1 −1

Théorème 2.4.
Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
1. f est trigonalisable sur K si et seulement si π f est scindé sur K.
2. f est diagonalisable sur K si et seulement si π f est scindé sur K et que toutes ses racines
sont simples (i.e. de multiplicité un).

Corollaire. Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
Alors f est diagonalisable sur K si et seulement si il existe un polynôme annulateur scindé sur
K dont toutes les racines sont simples.
Remarque. On dit parfois d’un polynôme qu’il est scindé simple sur K lorsqu’il est scindé et
que toutes ses racines sont simples.

Romain Dujol

26

2.1.2.2

Réduction des projecteurs linéaires

Théorème (Rappels des propriétés d’un projecteur linéaire). Soit E un espace vectoriel et F et
G deux sous-espaces supplémentaires de E . On note p le projecteur sur F parallèlement à G .
Alors :
1. p ◦ p = p ;

2. F = {x ∈ E , p (x ) = x } = Ker(p − idE ) ;

3. G = {x ∈ E , p (x ) = 0} = Ker p .

Corollaire (Réduction d’un projecteur linéaire). Soit E un espace vectoriel de dimension finie.
On note n = dim E et r = dim F = rg p .
1. Sp p = {0, 1} donc p n’est pas bijective (sauf si r = n , c’est-à-dire si F = E ) ;

2. E 1 (p ) = F et E 0 (p ) = G ;

3. πp = X (X − 1), donc p est diagonalisable ;
4. χp = X n−r (X − 1)r .

5. Si BF et BG ‚
sont des
Œbases de F et G respectivement, alors B = BF ∪ BG est une base de E
Ir 0
.
et matB p =
0 0

2.1.2.3

Réduction des symétries linéaires

Théorème (Rappels des propriétés d’une symétrie linéaire). Soit E un espace vectoriel et F et
G deux sous-espaces supplémentaires de E . Soit σ la symétrie par rapport à F parallèlement à G .
Alors :
1. σ ◦ σ = idE ;

2. F = {x ∈ E , σ(x ) = x } = Ker(σ − idE ) ;

3. G = {x ∈ E , σ(x ) = −x } = Ker(σ + idE ).
Remarque. Si p est le projecteur sur F parallèlement à G , alors σ = 2p − idE .
Corollaire (Réduction d’une symétrie linéaire). Soit E un espace vectoriel de dimension finie.
On note r = dim F .
1. Sp σ = {−1, 1} donc σ est bijective ;
2. E 1 (σ) = F et E −1 (σ) = G ;

3. πσ = (X + 1)(X − 1), donc σ est diagonalisable ;
4. χσ = (X + 1)n−r (X − 1)r .

5. Si BF et BG ‚
sont des bases
Œ de F et G respectivement, alors B = BF ∪ BG est une base de E
Ir
0
.
et matB p =
0 −I n−r

Romain Dujol

27

2.2
2.2.1

Sous-espaces caractéristiques. Forme de JORDAN
Sous-espace caractéristique

Définition 2.4 (Sous-espace caractéristique). Soit E un K-espace vectoriel de dimension finie
et f un endomorphisme de E .
Soit f un endomorphisme de E et λ une valeur propre de f d’ordre de multiplicité
algébrique α. On appelle sous-espace caractéristique de f associé à la valeur propre λ, noté
N λ ( f ) ou SEC( f , λ) par
N λ ( f ) = Ker( f − λ idE )α
Lorsqu’il n’y a pas d’ambigüité, on notera N λ au lieu de N λ ( f ).

Théorème 2.5 (Décomposition selon les sous-espaces caractéristiques). Soit E un Kespace vectoriel de dimension finie et f un endomorphisme de E .
Si χ f est scindé sur K, alors E est la somme directe de tous les sous-espaces caractéristiques
de f .

Démonstration. Alors on peut écrire χ f = (−1)n

m
Y
i =1

(X − λi )αi .

Comme les polynômes (X −λi )αi sont deux à deux premiers entre eux, on peut appliquer le théorème
p
L
des noyaux pour en déduire que Ker χ f ( f ) =
Ker( f − λi )αi . Or :
i =1

– d’après le théorème de CAYLEY-HAMILTON, Ker χ f ( f ) = Ker 0L (E ) = E ;
– par définition, Ker( f − λi )αi = N λi ( f ).
p
L
On en conclut donc que E =
N λi ( f ).
i =1

Romain Dujol

28

Corollaire (Diagonlisation par blocs). Soit E un K-espace vectoriel de dimension finie et f un
endomorphisme de E .
m
Y
n
On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1)
(X − λi )αi .
i =1

Pour tout entier i de J1, m K, il existe une base Bi de N λi ( f ) et une matrice A i triangulaire
supérieure telle que la matrice de f dans la base B = (B1 , . . . , Bm ) s’écrive :


A1 0 · · ·
0

.. 
.


. 
 0 A2 ..
matB f =  .

.. ..

 .
.
.
0
.


0 · · · 0 Am
Démonstration. Soit i ∈ J1, m K. Alors N λi ( f ) est stable par f : donc on peut définir l’application
fi :

N λi ( f )
x


7→

N λi ( f )
f (x )

qui est un endomorphisme de N λi ( f ). Son polynôme caractéristique χ f i = (−1)αi (X − λi )αi est scindé sur
K, donc f i est trigonalisable sur K : on note alors Bi une base de trigonalisation de f i .
Soit B = (B1 , . . . , Bm ) : alors B est une base de E et on obtient la décomposition demandée avec
A i = matBi f i .

2.2.2

Forme de JORDAN

Il s’agit alors de réaliser une réduction de chaque bloc qui a un polynôme caractéristique de
la forme (−1)α (X − λ)α .
Définition 2.5 (Bloc de JORDAN). Soit p un entier
et λ ∈ K. On définit un bloc
 naturel non nul 
λ 1 0 ··· 0


.. 
..

.
.
0 λ 1
.

.
.
.

.
.
.
.
de JORDAN de taille p , noté J p (λ), par J p (λ) =  .
.
.
. 0
 où λ est un élément de K.
.

.
.
 ..
. . . . 1


0 ··· ··· 0 λ

Proposition 2.7. Soit p un entier naturel non nul et λ ∈ K.
Alors λ est l’unique valeur propre de J p (λ) et :
1. son ordre de multiplicité géométrique est égal à un, i.e. dim E λ ( J ) = 1 ;
2. son ordre de multiplicité algébrique est égal à p , i.e. χ J = (−1)p (X − λ)p .

Romain Dujol

29

Proposition 2.8. Soit E un K-espace vectoriel de dimension α et f un endomorphisme de E qui
n’admet qu’une seule propre λ. On note γ = dim E λ ( f ) et on écrit :
– le polynôme caractéristique χ f = (−1)n (X − λ)α ;
– le polynôme minimal π f = (X − λ)β .
Alors il existe une base B de E telle que la matrice de f dans B soit une diagonale de γ blocs de
JORDAN de taille inférieure ou égale à β .

Théorème 2.6 (Décomposition sous forme de JORDAN). Soit E un K-espace vectoriel de dimension finie et f un endomorphisme de E .
m
Y
On suppose que χ f est scindé sur K et qu’il s’écrit χ f = (−1)n
(X − λi )αi . On suppose
également que π f s’écrit : π f = (−1)n

m
Y
i =1

i =1

(X − λi )βi .

Pour tout entier i de J1, m K, on note γ = dim E λi ( f ) l’ordre de multiplicité géométrique de
la valeur propre λi . Alors il existe une matrice A i , diagonale de γi blocs de JORDAN de taille
inférieure ou égale à βi , et une base B de E telle que la matrice de f dans la base B s’écrive :


A1 0 · · ·
0

.. 
..


.
. 
 0 A2
matB f =  .

.. ..

 .
.
.
0 
 .
0 · · · 0 Am




1 −1 2 −2


0 0 1 −1
Exemple. Trigonaliser A = 
 sous forme de JORDAN.
1 −1 1 0 
1 −1 1 0

Romain Dujol

30

Réduction des endomorphismes, techniques avancées : Exercices
Exercice 2.1. Soit E un espace vectoriel de dimension trois et B = (e 1 , e 2 , e 3 ) une base de E .
Soit θ un nombre réel et f l’endomorphisme de E tel que sa matrice dans la base B soit


0

A =  −1
− sin θ

1
0
cos θ


− sin θ

cos θ 
0

1. L’endomorphisme f est-il diagonalisable ?

2. Montrer que B ′ = f 2 (e 3 ), f (e 3 ), e 3 est une base de E et déterminer la matrice de f dans B ′ .

3. En déduire une trigonalisation de A.



1 a

Exercice 2.2. Soit a , b et c trois nombres réels quelconques et A = 0 1
0 0


1

b .
c

1. Donner une condition nécessaire et suffisante sur a , b et c pour que A soit diagonalisable
sur R.
2. Diagonaliser ou trigonaliser A lorsque :
(a) a = 0, b = 1 et c = 2 ;
(b) a = b = c = 1.

Exercice 2.3. Diagonaliser ou trigonaliser les matrices suivantes :


1 1
1
1


1 1 −1 −1
1. A 1 = 

1 −1 1 −1
1 −1 −1 1


0 1 0


2. A 2 = 0 0 1
1 −3 3


0
3 2


3. A 3 = −2 5 2
2 −3 0

Romain Dujol

31

Chapitre 3

Réduction des endomorphismes,
applications
3.1
3.1.1

Puissances entières d’une matrice
Méthode par réduction d’endomorphisme

Proposition 3.1 (Puissances d’une matrice carrée trigonalisable). Soit A une matrice carrée à
coefficients dans K et trigonalisable sur K et (P, T ) sa trigonalisation. Alors :
∀k ∈ N, A k = PT k P −1
De plus, si A est inversible, alors
∀k ∈ Z, A k = PT k P −1

Démonstration. Montrons par récurrence que A k = PT k P −1 pour tout entier naturel k .
– Si k = 0, alors PT 0 P −1 = PP −1 = I = A 0 . Donc la propriété est vraie au rang 0.
– Soit k un entier naturel tel que A k = PT k P −1 . Alors :
A k +1 = A k A = (PT k P −1 )(PT P −1 ) = PT k (P −1 P)T P −1 = PT k +1 P −1
Donc la propriété est vraie au rang k + 1.
Si A est inversible, alors A −1 est également trigonalisable et (P, T −1 ) est une trigonalisation de A −1 .
Donc en appliquant le résultat précédent à cette trigonalisation, il vient que
∀k ∈ N, A −k = (A −1 )k = P(T −1 )k P −1 = PT −k P −1
ce qui permet d’obtenir la relation pour les entiers naturels négatifs.

Romain Dujol

32

Pour calculer A k pour tout entier naturel k , on procède de la manière suivante.
Étape no 1 Déterminer une trigonalisation (P, T ) de A.
Étape no 2 Calculer T k pour tout entier naturel n .
Étape no 3 Former et calculer le produit PT k P −1 .
Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire
lorsque A est diagonalisable car le calcul des puissances de D est immédiat :

 k


λ1 0 · · · 0
λ1 0 · · · 0


.. 
.. 
.. ..
.. ..




.
.
.
.
. 
0
0
.




∀k ∈ N, D k =  . .
D = .



 ..
 . ... ...
.. ... 0 
0
.




0 · · · 0 λkp
0 · · · 0 λp

0
−8
6


7 .
Exemple. Calculer les puissances de A = −1 −8
1 −14 11


3.1.2

Méthode par division euclidienne

Proposition 3.2. Soit A une matrice carrée d’ordre n à coefficients dans K et P un polynôme annulateur de A.
Pour tout entier naturel n , on note R n le reste de la division euclidienne du polynôme X n par
P. Alors A n = R n (A).
Démonstration. Soit n un entier naturel. Il existe un unique couple (Q n , R n ) de polynômes à coefficients
dans K tels que deg R n < deg P et X n = PQ n + R n .
Alors A n = (X n )(A) = (PQ n + R n )(A) = (Q n P)(A) + R n (A) = Q n (A) × P(A) + R n (A) = R n (A).

Pour calculer A k pour tout entier naturel k , on procède de la manière suivante.
Étape no 1 Déterminer un polynôme annulateur P de A.
Étape no 2 Calculer le reste R n de la division euclidenne de X n par P pour tout entier naturel n .
Étape no 3 Former et calculer R n (A).
Remarque.
1. On utilisera souvent cette propriété avec P = χ f ou π f .
2. Toute puissance de A est donc une combinaison linéaire des deg P − 1 premières puissances de A. La méthode est alors d’autant plus efficace que deg P est petit : on en déduit
que le choix optimal sera P = π f .


0
−8
6


7 .
Exemple. Calculer les puissances de A = −1 −8
1 −14 11

Romain Dujol

33

3.2
3.2.1

Suites récurrentes linéaires
Suites vectorielles récurrentes d’ordre un

Proposition 3.3 (Suites vectorielles récurrentes d’ordre un). Soit n un entier naturel non nul
et A une matrice carrée d’ordre n à coefficients dans K.
Soit (X k )k ∈N la suite de vecteurs-colonne définie par
(
X 0 ∈ Mn,1 (K)
∀k ∈ N, X k +1 = AX k

Alors
∀k ∈ N, X k = A k X 0
Démonstration. Montrons par récurrence sur k que X k = A k X 0 pour tout entier naturel k .
– Si n = 0, alors A 0 X 0 = I X 0 = X 0 . Donc la propriété est vraie au rang 0.
– Soit k un entier naturel tel que X k = A k X 0 . Alors : X k +1 = AX k = A(A k X 0 ) = A k +1 X 0 .
Donc la propriété est vraie au rang k + 1.

Pour déterminer l’expression de X k en fonction de k , on procède de la manière suivante.
Étape no 1 Calculer A k en fonction de k .
Étape no 2 Former et calculer le produit matrice-vecteur A k X 0 .

Exemple. Soit (u k )k ∈N , (v k )k ∈N et (w k )k ∈N trois suites réelles définies par :


v 0 = 22
w 0 = 22
2u k + v k + w k
u k +1 =


4


u k + vk + w k

∀k ∈ N,
v k +1 =



3






u k + v k + 2w k
w k +1 =
4







u 0 = 22



1. Calculer u k , v k et w k en fonction de k ∈ N.

2. En déduire l’étude de la convergence des suites (u k )k ∈N , (v k )k ∈N et (w k )k ∈N .

Romain Dujol

34

3.2.2

Suites récurrentes linéaires d’ordre supérieur

Proposition 3.4 (Suites récurrentes linéaires d’ordre supérieur). Soit p un entier naturel non
nul et (a i )0≤i ≤p −1 ∈ Kp . On considère la suite numérique (u k )k ∈N définie par


(u i )0≤i ≤p −1 ∈ Kp
p
−1
X
∀k ∈ N, u k +p =
a i u n+i


i =0

Soit (X k )k ∈N la suite de vecteurs-colonne définie par



uk


 u k +1 


∀k ∈ N, X k = (u k +i )0≤i ≤p −1 = 
..

.


u k +p −1


0
 .
 .
 .

Alors pour tout entier naturel k , X k +1 = AX k avec A =  ..
 .

0
a0

1
..
.
···
a1

0
..
.
..
.
···
···

···
..
.
..
.
0
a p −2


0
.. 

. 


0 

1 

a p −1

Pour déterminer l’expression de u k en fonction de k , on procède de la manière suivante.
Étape no 1 Construire la matrice A.
Étape no 2 Calculer A k en fonction de k .

u0


 u1 
k
o

Étape n 3 Former et calculer le produit A X 0 avec X 0 = (u i )0≤i ≤p −1 =  . 
. 
 . 
u p −1


Étape no 4 Le terme u k est la première composante du produit ainsi obtenu.
Exemple. Soit (u k )k ∈N la suite réelle définie par :
(

u0 = 1

u1 = 5

u2 = 1

∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k
Calculer u k en fonction de k .

Romain Dujol

35

3.3

Systèmes différentiels linéaires

3.3.1

Méthode par réduction directe

Proposition 3.5 (Systèmes différentiels linéaires).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
Soit X une application de R dans M p 1 (R) de classe C 1 sur R et (P, T ) une trigonalisation de A.
Alors X est solution du système différentiel X ′ = AX si et seulement si Y : t 7→ P −1 X (t ) est
solution du système différentiel Y ′ = T Y .
Pour résoudre le système X ′ = AX , on procède de la manière suivante.
Étape no 1 Déterminer une trigonalisation (P, T ) de A.
Étape no 2 Poser et résoudre le système Y ′ = T Y en fonction de Y (0) = P −1 X (0).
Étape no 3 Former et calculer PY (t ) pour tout t ∈ R.

x′ = x +y +z

Exemple. Résoudre le système différentiel y ′ = 2y + 2z .

z ′ = x − y + 3z

3.3.2

Méthode par exponentielle

Proposition 3.6.
Soit n un entier naturel non nul‚et A une Œ
matrice carrée d’ordre n à coefficients dans K.
P
Ak
A 7→
Alors la série d’applications
converge normalement localement sur M n (K).
k!
k ∈N

Définition 3.1 (Exponentielle de matrice).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
+∞ k
X
A
.
On définit l’exponentielle de A, notée e A , par e A par e A =
k!
k =0

On note exp l’application définie par exp : M n (K) → M n (K) .
A
7→ e A

Romain Dujol

36

Proposition 3.7. Soit n ∈ N et A et B deux matrices carrées d’ordre n à coefficients dans K.
1. L’application exp est continue sur M n (K).
2. Si A et B commutent, alors e A+B = e A e B .
3. e 0n = I n
4. e A est une matrice inversible et e A

−1

= e −A .

Démonstration.
1. La convergence normale locale de la série d’applications qui définit la fonction exponentielle assure la continuité de cette dernière.
P Bk
P Ak
et
sont absolument conver2. Comme A et B commutent et que les séries matricielles
k ∈N k !
k ∈N k !
gentes, il vient que leur série-produit l’est également et que la somme de cette dernière est égale
au produit des sommes des deux séries, c’est-à-dire e A e B .
Or le terme général de la série produit est :
k
k
k
k
X
X
X
Cik i k −i
A i B k −i
A i B k −i
1 X i i k −i (A + B )k
=
=
A B
=
C A B
=
i ! (k − i )! i =0 i ! (k − i )! i =0 k !
k ! i =0 k
k!
i =0
Par définition, cette série converge e A+B , ce qui permet de conclure.
(
+∞
X
0kn
I n si k = 0
. On en déduit alors que e 0n = I n +
0n = I n .
=
3. Soit k un entier naturel. Alors
k!
0n si k > 0
k =1
4. Comme A et −A commutent, il vient que I n = e 0n = e A+(−A) = e A e −A .
On en déduit que e A est inversible et que e −A est son inverse.

Proposition 3.8 (Changement de base).
Soit n un entier naturel non nul et A une matrice carrée d’ordre n à coefficients dans K.
−1
Pour toute matrice P carrée d’ordre n à coefficients dans K inversible, on a e P AP = P −1 e A P.
Démonstration. e

P −1 AP

=

+∞
X
(P −1 AP)k
k =0

k!

=

+∞ −1 k
X
P A P
k =0

k!

=P

−1

+∞ k
X
A
k =0

k!

!
P = P −1 e A P

Proposition 3.9.
Soit n un entier non nul et A une matrice carrée d’ordre n à coefficients dans K.
Alors la solution du système différentielle X ′ = AX est X : t 7→ e t A X (0).
Pour résoudre le système X ′ = AX , on procède de la manière suivante.
Étape no 1 Calculer l’exponentielle de A :
(a) Déterminer une trigonalisation (P, T ) de A.
(b) Calculer e t T en fonction de t .
(c) Former et calculer le produit P −1 e t T P.
Étape no 2 Former et calculer le produit e t A X (0)

Romain Dujol

37

Remarque. Cette méthode est particulièrement adaptée lorsque T est diagonale, c’est-à-dire
lorsque A est diagonalisable car le calcul de l’exponentielle de D est immédiat :




e λ1 0 · · ·
0
λ1 0 · · · 0


.. 
.. 
.. ..
.. ..




.
.
.
.
0
. 
. 

0

eD =  .
D = .


.. ..
 .
 . ... ...


.
.
0
.
0
.




0 · · · 0 e λp
0 · · · 0 λp

Exemple. Résoudre le système différentiel



x′ = x +y +z



y ′ = 2y + 2z



Romain Dujol

.



z = x − y + 3z

38

Réduction des endomorphismes, applications : Exercices
Calcul des puissances d’une matrice


0

Exercice 3.1. Soit m un réel non nul et A =  1/m
1/m 2
1. A est-elle diagonalisable ?

m
0
1/m


m2

m .
0

2. Calculer A n pour tout entier naturel n .

Suites récurrentes linéaires
Exercice 3.2. Soit a et b deux nombres réels tels que a 6= 1.
Soit (u k )k ∈N et (v k )k ∈N deux suites réelles définies par

u 0 fixé


∀k ∈ N,

v 0 fixé
(

u k +1 = a u k + b v k
v k +1 = v k

1. Calculer u k et v k en fonction de k ∈ N.

2. En déduire l’étude de la convergence des suites (u k )k ∈N et (v k )k ∈N .
Exercice 3.3. Soit (u k )k ∈N une suite réelle définie telle que :
∀k ∈ N, u k +3 = u k +2 + 4u k +1 − 4u k


uk


Pour tout entier naturel k , on note X k = u k +1 .
u k +2
1. Montrer qu’il existe une matrice A (que l’on explicitera) telle que X k +1 = AX k pour tout
entier naturel k 
. 
1
 
2. (a) Calculer A 1
1
(b) En déduire l’expression de u k en fonction de k lorsque u 0 = u 1 = u 2 .
 
1
 
(c) Que dire de 1 pour A ?
1
3. (a) Diagonaliser A.
 
1
 
(b) Décomposer le vecteur 1 dans la base de diagonalisation de A.
1
(c) En déduire l’expression de u k en fonction de k lorsque u 0 = 1, u 1 = 5 et u 2 = 1.
4. Est-il possible de trouver des valeurs de u 0 , u 1 et u 2 telle que u 100 = u 101 = 0 et u 102 = 1012 ?
Si oui, les déterminer.

Romain Dujol

39

Chapitre 4

Formes bilinéaires. Formes
quadratiques
4.1
4.1.1

Forme bilinéaire
Définitions

Définition 4.1 (Forme bilinéaire). Soit E un R-espace vectoriel.
Une forme bilinéaire sur E est une application f de E × E dans R telle que :

1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ )

2. pour tout vecteur y de E , x 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀x ′ ∈ E , ∀y ∈ E , f (x + λx ′ , y ) = f (x , y ) + λ f (x ′ , y )
Exemple.
1. E = R et f 1 : R × R → R
(x , y ) 7→ x y

2. E = R2 et f 2 :

R2 × R2
→ R

(x 1 , x 2 ), (y 1 , y 2 ) 7→ x 1 y 2 − x 2 y 1

3. E = C ([0, 1], R) et f 3 : C ([0, 1], R) × C ([0, 1], R) → R
Z1
(φ, ψ)

Romain Dujol

7→

φ(t )ψ(t ) dt
0

40

Proposition 4.1. Soit E un R-espace vectoriel et f une forme bilinéaire sur E .
1. ∀x ∈ E , f (x , 0E ) = 0

2. ∀y ∈ E , f (0E , y ) = 0

Définition 4.2 (Forme bilinéaire symétrique. Forme bilinéaire anti-symétrique).
Soit E un R-espace vectoriel et f une forme bilinéaire sur E .
f est dite symétrique si et seulement si
∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y )
f est dite antisymétrique si et seulement si
∀x ∈ E , ∀y ∈ E , f (y , x ) = − f (x , y )

Exemple. En reprenant les exemples vus plus haut, les formes f 1 et f 3 sont symétriques et la
forme f 2 est antisymétrique.
Proposition 4.2 (Caractérisation rapide).
Soit E un R-espace vectoriel et f une application de E × E dans R.
Alors f est une forme bilinéaire symétrique si et seulement si les propositions suivantes sont
vérifiées :
1. pour tout vecteur x de E , y 7→ f (x , y ) est une forme linéaire sur E , c’est-à-dire :
∀λ ∈ R, ∀x ∈ E , ∀y ∈ E , ∀y ′ ∈ E , f (x , y + λy ′ ) = f (x , y ) + λ f (x , y ′ )
2. ∀x ∈ E , ∀y ∈ E , f (y , x ) = f (x , y )
Démonstration. Soit alors un vecteur y de E : montrons que x 7→ f (x , y ) est une forme linéaire sur E .
Soit x et x ′ deux vecteurs de E et λ un nombre réel. Alors f (x + λx ′ , y ) = f (y , x + λx ′ ) = f (y , x ) +
λ f (y , x ′ ) = f (x , y ) + λ f (x ′ , y ).

Remarque. La proposition est toujours valable si on remplace l’hypothèse de linéarité f selon y
par l’hypothèse de linéarité de f selon x .

Romain Dujol

41

4.1.2

Orthogonalité

Définition 4.3 (Vecteurs orthogonaux).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Deux vecteurs x et y de E sont dits orthogonaux pour f si et seulement si f (x , y ) = 0.
Remarque. Si f n’est pas symétrique, alors on peut avoir f (x , y ) = 0 et f (y , x ) 6= 0, ce qui complique la définition.

Définition 4.4 (Orthogonal d’une partie).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Pour toute partie A de E , on appelle orthogonal de A (pour f ), noté A ⊥ , le sous-espace
vectoriel de E des vecteurs orthogonaux pour f à tous les vecteurs de A :
A ⊥ = {x ∈ E , ∀y ∈ A, f (x , y ) = 0}
Démonstration. Montrons que A ⊥ est bien un sous-espace vectoriel de E .
Soit x 1 et x 2 deux éléments de A ⊥ et λ un nombre réel. Pour tout y de A, on a f (x 1 +λx 2 , y ) = f (x 1 , y )+
λ f (x 2 , y ) = 0. Donc x 1 + λx 2 est un élément de A ⊥ .

Proposition 4.3. Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
Soit A et B deux parties de E .
1. Si A ⊂ B , alors B ⊥ ⊂ A ⊥ .
2. A ⊥ = (Vect A)⊥

3. (A ∪ B )⊥ = A ⊥ ∩ B ⊥

Démonstration.

1. Soit x ∈ B ⊥ et y ∈ A. Alors y ∈ B et f (x , y ) = 0. Donc pour tout élément y de A, f (x , y ) = 0 : x ∈ A ⊥ .

2. Montrons la double inclusion.
· Soit x ∈ A ⊥ et y ∈ Vect(A). Alors

∃p ∈ N\{0}, ∃(λi )1≤i ≤p ∈ Rp , ∃(y i )1≤i ≤p ∈ A p , y =
On en déduit que f (x , y ) = f

x,

p
X
i =1

p
X

!
λi y i

=

p
X

λi y i

i =1

f (x , y i ) = 0.

i =1

Donc pour tout élément y de Vect A, f (x , y ) = 0 : x ∈ (Vect A)⊥ .
· Comme A ⊂ Vect A, il vient que (Vect A)⊥ ⊂ A ⊥ .

3. Soit x un vecteur de E . Alors


x ∈ (A ∪ B ) ⇐⇒ ∀y ∈ A ∪ B, f (x , y ) = 0 ⇐⇒

Romain Dujol

(

∀y ∈ A, f (x , y ) = 0

∀y ∈ B, f (x , y ) = 0

⇐⇒ x ∈ A ⊥ ∩ B ⊥

42

Définition 4.5 (Noyau).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
On appelle noyau de f, noté N ( f ), le sous-espace vectoriel de E défini par
N ( f ) = E ⊥ = {x ∈ E , ∀y ∈ E , f (x , y ) = 0}

Définition 4.6 (Forme non dégénérée).
Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E .
On dit que f est non dégénérée si et seulement si N ( f ) = {0E }.

Définition 4.7 (Rang).
Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E .
On définit le rang de f , noté rg f , par rg f = dim E − dim N ( f ).

4.1.3

Matrice d’une forme bilinéaire

Proposition 4.4. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
2
La donnée des valeurs f (e i , e j ) pour tout (i , j ) ∈ J1, n K définit de manière unique la forme
bilinéaire f .
Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) :
x=

n
X

xi ei

et

n
X

yj e j

j =1

i =1

Alors

y=




n
n
n
n
n
n
X
X
X
X

 XX


x i y j f (e i , e j )
xi ei ,
yj e j  =
yj e j  =
x i f e i ,
f (x , y ) = f 


i =1

j =1

i =1

i =1 j =1

j =1
2

Donc si les valeurs f (e i , e j ) sont connues pour tout (i , j ) ∈ J1, n K , alors f (x , y ) est calculable de manière
unique pour tous vecteurs x et y de E .

Romain Dujol

43

Définition 4.8 (Matrice d’une forme bilinéaire).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Pour toute forme bilinéaire f sur E , on définit la matrice de f dans B , notée matB f par
matB f = f (e i , e j )


(i ,j )∈J1,n K

2

Corollaire. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour :
n
X

∀x =

i =1

x i e i , ∀y =

n
X

y j e j , f (x , y ) =

j =1

n X
n
X

a i j xi yj

i =1 j =1

alors matB f = (a i j )(i ,j )∈J1,n K2 .
Exemple. Déterminer la matrice de f :

R3 × R3
→ R
.

(x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) 7→ x 1 y 2 + 7x 3 y 1 − 4x 3 y 3

Proposition 4.5 (Écriture matricielle).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Soit f une forme bilinéaire sur E et A la matrice de f dans B . Alors pour tous x et y vecteurs
de E , on a :
f (x , y ) = t X AY
avec
X = matB x
et
Y = matB y
Démonstration. Soit x et y deux vecteurs de E que l’on décompose dans la base B = (e 1 , . . . , e n ) :
x=

n
X

xi ei

et

y=

i =1

n
X

yj e j

j =1




 
!
x1
y1
n
X
 . 
 .
 .
a i j yj
. 
Alors X = matB x = 
, puis
 .  et Y = matB y =  . . Donc AY =
j =1
1≤i ≤n
xn
yn
t

X (AY ) =

n
X

xi

i =1

n
X
j =1

a i j yj =

n
n X
X
i =1 j =1

a i j xi yj =

n
n X
X

x i y j f (e i , e j ) = f (x , y )

i =1 j =1

d’après les calculs précédents.

Romain Dujol

44

Corollaire. Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire sur E .
1. f est symétrique si et seulement si il existe une base B de E telle que matB soit une matrice
symétrique.
2. f est antisymétrique si et seulement si il existe une base B de E telle que matB soit une
matrice antisymétrique.
Proposition 4.6 (Caractérisation matricielle du noyau).
Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Soit f une forme bilinéaire symétrique sur E et A la matrice de f dans B . Alors
x ∈ N ( f ) ⇐⇒ X = matB x ∈ Ker A
Démonstration.
Lemme.

φ:

M n 1 (R)2
(X , Y )


7→

R
est une forme bilinéaire symétrique non dégénérée.
tX Y

Démonstration. En exercice

Soit x un vecteur de E et X = matB x . Alors x ∈ N ( f ) ⇐⇒ ∀y ∈ E , f (x , y ) = 0

⇐⇒ ∀Y ∈ M n 1 (R), t X AY = 0

⇐⇒ ∀Y ∈ M n 1 (R), t ( t X AY ) = 0
⇐⇒ ∀Y ∈ M n 1 (R), t Y t AX = 0

⇐⇒ ∀Y ∈ M n 1 (R), t Y AX = 0

⇐⇒ ∀Y ∈ M n 1 (R), φ(Y, AX ) = 0

D’où le résultat demandé.

⇐⇒ AX ∈ Ker φ = {0} ⇐⇒ X ∈ Ker A

Corollaire.
Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur E .
Alors f est non dégénérée si et seulement si il existe une base B de E telle que matB f soit
inversible.
Démonstration. On a alors Ker A = {0n 1 }. D’après ce qui précède, on en déduit que N ( f ) = {0E }.

Proposition 4.7 (Formule de changement de bases pour les formes bilinéaires).
Soit E un R-espace vectoriel de dimension finie et B et B ′ deux base de E . On note P = PB ,B ′
la matrice de passage de B dans B ′ .
Soit f une forme bilinéaire sur E . On note A la matrice de f dans B et A ′ la matrice de f
dans B ′ . Alors
A ′ = t PAP

Romain Dujol

45

Démonstration. Soit x un vecteur de E . On note X = matB x et X ′ = matB ′ x : alors X = PX ′ . Soit y un
vecteur de E . On note Y = matB y et Y ′ = matB ′ y : alors Y = PY ′ .
On a alors f (x , y ) = t X AY = t (PX ′ )A(PY ′ ) = t X ′ t PAPY ′ . En identifiant avec l’expression
f (x , y ) = t X ′ AY ′ pour toutes matrices-colonne X ′ et Y ′ , on en conclut que A ′ = t PAP.

ATTENTION. Ce n’est donc pas la même formule que pour le changement de bases pour les applications linéaires (A ′ = P −1 AP).

4.2

Forme quadratique

4.2.1

Définitions

Définition 4.9 (Forme quadratique). Soit E un R-espace vectoriel.
Une application q de E dans R est une forme quadratique sur E si et seulement si il existe
une forme bilinéaire f telle que
∀x ∈ E , q (x ) = f (x , x )
Auquel cas, q est appelée forme quadratique associé à f .
Proposition 4.8. Soit E un R-espace vectoriel, f une forme bilinéaire sur E et q la forme quadratique associé à f .
1. q (0E ) = 0
2. ∀λ ∈ K, ∀x ∈ E , ∀y ∈ E , q (x + λy ) = q (x ) + λ f (x , y ) + λ f (y , x ) + λ2q (y )
3. ∀λ ∈ R, ∀x ∈ E , q (λx ) = λ2q (x )

Corollaire. Soit E un R-espace vectoriel, f une forme bilinéaire symétrique sur E et q la forme
quadratique associé à f . Alors
∀x ∈ E , ∀y ∈ E , q (x + y ) = q (x ) + 2 f (x , y ) + q (y )
Proposition 4.9 (Forme polaire).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
Alors il existe une unique forme bilinéaire symétrique f s , appelée forme polaire de q , telle
que q est la forme bilinéaire associée à f . De plus
∀x ∈ E , ∀y ∈ E , f s (x , y ) =

q (x + y ) − q (x ) − q (y )
2

ou encore

q (x + y ) − q (x − y )
4
Ces deux relations sont appelées identités de polarisation.
∀x ∈ E , ∀y ∈ E , f s (x , y ) =

ATTENTION. Si on enlève le terme « symétrique », l’unicité n’est plus vérifiée.

Romain Dujol

46

Démonstration. Comme q est une forme quadratique, il existe une forme bilinéaire f sur E telle que
q (x ) = f (x , x ) pour tout vecteur x de E .
Montrons que f s : E × E → R
est une forme bilinéaire symétrique sur E .
q (x + y ) − q (x ) − q (y )
(x , y ) 7→
2
Soit x et y deux vecteurs de E . Alors q (x + y ) = q (x ) + f (x , y ) + f (y , x ) + q (y ), donc
f s (x , y ) =

q (y + x ) − q (y ) − q (x ) f (x , y ) + f (y , x )
=
2
2

· Soit x et y deux vecteurs de E . Alors f s (y , x ) =

f (y , x ) + f (x , y ) f (x , y ) + f (y , x )
=
= f s (x , y ).
2
2

· Soit x , y et y ′ des vecteurs de E et λ un nombre réel. Alors
f (x , y + λy ′ ) + f (y , x + λy ′ ) f (x , y ) + λ f (x , y ′ ) + f (y , x ) + λ f (y ′ , x ))
=
2
2

f (x , y ) + f (y , x )
f (x , y ) + f (y ′ , x )
=

= f s (x , y ) + λ f s (x , y ′ )
2
2

f s (x , y + λy ′ ) =

Soit x un vecteur de E , alors f s (x , x ) =
quadratique associée à f s .

4.2.2

f (x , x ) + f (x , x )
= f (x , x ) = q (x ) : donc q est bien la forme
2

Orthogonalité

Proposition 4.10 (Théorème de PYTHAGORE). Soit E un R-espace vectoriel et f une forme bilinéaire symétrique sur E . On note q la forme quadratique associée à f .
Alors x et y sont deux vecteurs orthogonaux de E si et seulement si q (x + y ) = q (x ) + q (y ).
Démonstration. On rappelle que q (x + y ) = q (x ) + 2 f (x , y ) + q (y ). Alors
x et y sont orthogonaux ⇐⇒ 2 f (x , y ) = 0 ⇐⇒ q (x + y ) − q (x ) − q (y ) = 0 ⇐⇒ q (x + y ) = q (x ) + q (y )

Définition 4.10 (Noyau. Rang). Soit E un R-espace vectoriel et q une forme quadratique sur E .
On définit le noyau de q , noté N (q ), comme le noyau de la forme polaire de q .
On définit le rang de q , noté rgq , comme le rang de la forme polaire de q .

Définition 4.11 (Vecteur isotrope. Cône isotrope).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
On dit qu’un vecteur x de E est isotrope pour q si et seulement si q (x ) = 0.
On appelle cône isotrope de q , noté I (q ), l’ensemble des vecteurs isotropes de q .

Romain Dujol

47

ATTENTION. La partie I (q ) n’est pas en général un espace vectoriel : ce n’est donc pas la même
chose que N (q ).
Exemple. Étudier N (q ) et I (q ) lorsque q est définie par q :

R2
→ R
.
(x 1 , x 2 ) 7→ x 12 − x 22

Proposition 4.11. Soit E un R-espace vectoriel et q une forme quadratique sur E .
Alors N (q ) ⊂ I (q ).

Démonstration. On note f s la forme polaire de q .
Soit x ∈ N (q ) = N ( f s ). Alors pour tout vecteur y de E , on a f s (x , y ) = 0. En particulier, si y = x , alors
q (x , x ) = f s (x , x ) = 0 et x ∈ I (q ).

Définition 4.12 (Forme quadratique positive, définie positive).
Soit E un R-espace vectoriel et q une forme quadratique sur E .
On dit que q est une forme quadratique positive si et seulement si q (E ) ⊂ R+ , c’est-à-dire
que q (x ) est un réel positif pour tout vecteur x de E , i.e. :
q est positive ⇐⇒ ∀x ∈ E , q (x ) ≥ 0
On dit que q est une forme quadratique définie positive si et seulement si q est positive et
que I (q ) = 0, i.e. :
(
∀x ∈ E , q (x ) ≥ 0
q est définie positive ⇐⇒
q (x ) = 0 ⇐⇒ x = 0
Remarque. On définit de manière analogue une forme quadratique négative ou définie négative.

Théorème 4.1 (Inégalité de CAUCHY-SCHWARTZ). Soit E un R-espace vectoriel et f une forme
bilinéaire symétrique dont la forme quadratique associée est positive. Alors :
∀x ∈ E , ∀y ∈ E , | f (x , y )| ≤

p
q (x )q (y )

Démonstration. On a :
∀x ∈ E , ∀y ∈ E , ∀λ ∈ R, 0 ≤ q (x + λy ) = q (x ) + 2λ f (x , y ) + λ2 q (y )
Soit x et y deux vecteurs de E . Alors le trinôme du second degré λ 7→ q (x ) + 2λ f (x , y ) + λ2q (y ) est positif :
donc il ne peut avoir deux racines réelles distinctes, ce qui implique que son discrimant ∆ = 4 f (x , y )2 −
4q (x )q (y ) est négatif ou nul.
Donc pour tous vecteurs x et y de E , f (x , y )2 ≤ q (x )q (y ). On conclut en passant à la racine carrée
(car q est positive).

Romain Dujol

48

Corollaire (Inégalité de MINKOWSKI). Soit E un R-espace vectoriel et f une forme bilinéaire
symétrique dont la forme quadratique associée est positive. Alors :
∀x ∈ E , ∀y ∈ E ,

p
p
p
q (x + y ) ≤ q (x ) + q (y )

Démonstration. Soit x et y deux vecteurs de E . Alors d’après l’inégalité de CAUCHY-SCHWARTZ :
hp
i2
p
p
q (x + y ) = q (x ) + 2 f (x , y ) + q (y ) ≤ q (x ) + 2 q (x )q (y ) + q (y ) =
q (x ) + q (y )
On conclut en passant à la racine carrée (car q est positive).

4.2.3

Matrice d’une forme quadratique

Définition 4.13 (Matrice d’une forme quadratique). Soit E un R-espace vectoriel de dimension finie et B une base de E .
Pour toute forme quadratique q sur E , on définit la matrice de q dans B , noté matB q par
matB q = matB f s
où f s désigne la forme polaire de q .

Remarque. Comme f s est symétrique, il vient que la matrice d’une forme quadratique est toujours symétrique.
Proposition 4.12. Soit E un R-espace vectoriel de dimension n et B = (e 1 , . . . , e n ) une base de E .
Si il existe des réels (a i j )(i ,j )∈J1,n K2 tels que pour :
n
X

∀x =


a 11


 a 12

alors matB q =  2.
 .
 .
a 1n
2

a 12
2

a 22
..
.
···

Démonstration. Soit f s :

i =1

X

a i j xi x j

1≤i ≤j ≤n
a 1n
2

···
..
.
..
.



..
.

a n −1,n
2

E ×E

x i e i , f (x , y ) =




.
a n −1,n 
2 
a nn

R
la forme polaire de q .
q (x + y ) − q (x ) − q (y )
(x , y ) 7→
2
Soit k et l deux entiers de J1, n K. Alors, d’après la définition de la matrice de q , le coefficient en
q (e k + e l ) − q (e k ) − q (e l )
.
position (k , l ) de matB q est f s (e k , e l ) =
2

Romain Dujol



49


Aperçu du document Alg-bre.pdf - page 1/86
 
Alg-bre.pdf - page 3/86
Alg-bre.pdf - page 4/86
Alg-bre.pdf - page 5/86
Alg-bre.pdf - page 6/86
 




Télécharger le fichier (PDF)


Alg-bre.pdf (PDF, 704 Ko)

Télécharger
Formats alternatifs: ZIP



Documents similaires


alg bre
cours algebre
centrale  maths 1 mp 2019
cours algebre iii chapitre 1 et chapitre 2
algebrelineaire
reduction des endomorphismes

Sur le même sujet..