22eq dif cours .pdf


À propos / Télécharger Aperçu
Nom original: 22eq-dif-cours.pdf

Ce document au format PDF 1.5 a été généré par TeX / pdfTeX-1.40.14, et a été envoyé sur fichier-pdf.fr le 17/07/2016 à 13:58, depuis l'adresse IP 89.3.x.x. La présente page de téléchargement du fichier a été vue 441 fois.
Taille du document: 378 Ko (32 pages).
Confidentialité: fichier public


Aperçu du document


22 Équations différentielles

1

Généralités

1.1

Solution d’une équation différentielle

Soit E et F deux K-espaces vectoriels de dimension finie avec K = R ou C.
Une équation différentielle ordinaire d’ordre n est une équation de la forme


G t, y(t), y 0 (t), y 00 (t), . . . , y (n) (t) = 0,

(∗)

où y est une fonction de la variable t à valeurs dans E dérivable et G est une application d’un
ouvert Ω ⊂ R × E n+1 dans F donnée par l’énoncé.
Exemple 1.1. L’équation suivante est une équation du second ordre (seule les deux premières
dérivées de y interviennent), linéaire (la dépendance en y et ses dérivées est linéaire) :
sin(t) y 00 (t) + 3t2 y 0 (t) + 5y(t) = 3t2 − 5.
Quand on a une équation différentielle, on cherche des solutions...
Définition 1.1. Une solution de (∗) est un couple (I, y), avec I un intervalle de R et y une
application n fois dérivable sur I telle que pour t ∈ I,
(t, y(t), · · · , y (n) (t)) ∈ Ω
vérifiant (∗) pour tout t ∈ I.
Exemple 1.2.
1. L’équation y 0 − y = 0 admet ([0, 1], exp) comme solution, mais aussi (R, exp). La première
est d’ailleurs une restriction de la seconde.
2. L’équation y 0 = 1 + y 2 n’admet pas de solution définie sur R : en effet, on peut écrire
y0
= 1 ; ce sont deux fonctions de t que l’on intègre sur un intervalle de définiton d’une
1 + y2
solution de l’équation différentielle [t; t0 ] :
arctan y(t) − arctan y(t0 ) = t − t0 ,
donc la longueur de l’intervalle est au plus π puisque arctan prend ses valeurs dans ] − π2 ; π2 [.
En particulier, il n’y a pas de solution sur R. Par contre, ] − π2 ; π2 [, tan est bien une solution
de l’équation différentielle.
Remarque 1.1. On trouve des équations différentielles qui ne s’écrivent pas sous la forme (∗).
Par exemple
1. x0 (t) = x(t − 1)
Z sin t
2. x0 (t) =
x2 (s) ds
0

Définition 1.2. Une solution (I, f ) est dite maximale lorsqu’elle n’est restriction d’aucune autre.

1

Exemple 1.3.
1. (]10; 10 + π[, tan(t − 10 − π2 ) est une solution maximale de y 0 = 1 + y 2 .
2. On peut montrer que dans des conditions raisonnables, les solutions maximales sont définies
sur des intervalles ouverts.
Remarque 1.2. A priori, les questions d’existence et d’unicité de solutions maximales ou non ne
sont pas triviales. On verra dans le cours des théorèmes positifs à ce sujet. Une autre question est
de trouver explicitement des ou les solutions.
Exemple 1.4.
1. y 0 = 2y admet une infinité de solutions maximales, définies sur R (prendre y(t) = λe2t ). Mais
il y a unicité de la solution si on impose une condition de la forme y(1012) = 235 qui permet
de fixer la valeur de λ. Sans cette condition toutes les solutions sont proportionnelles : elles
forment une droite vectorielle.
2. L’équation y 0 = ey admet des solutions maximales définies sur des intervalles de la forme
] − ∞; β[ avec β ∈ R, mais il n’existe pas de solution sur R :
l’équation s’écrit y 0 e−y = 1 et donc en intégrant entre t0 et t
−e−y(t) = t − t0 + ey(t0 ) ;
il faut donc que t < t0 + e−y(t0 ) et alors

y(t) = − ln −t + t0 + e−y(t0 ) .
En posant β = t0 + ey(t0 ) , f :] − ∞; β[→ R, t 7→ − ln(β − t) est une solution maximale.

1.2

Équations sous forme normale

Définition 1.3. On dira qu’une équation différentielle ordinaire d’ordre n est sous forme normale
si elle est de la forme
y (n) = ϕ(t, y, y 0 , · · · , y (n−1) )
(∗)
avec ϕ définie ur Ω ⊂ R × E n dans F .
Remarque 1.3. Posons z1 = y, ..., zn = y (n−1) , alors
z10 = z2 , z20 = z3 , · · · , zn0 = ϕ(t, z1 , · · · , zn ).
En écrivant
z = t (z1 , · · · , zn ), f (t, z) = t (z2 , · · · , zn , ϕ(t, z1 , · · · , zn ))
l’équation (∗∗) est équivalente à
0 

z1
z2
 .. 


..




.
z0 =  .  = 
 = f (t, z).
zn−1 


zn
zn
ϕ(t, z1 , · · · , zn )


Ceci nous permet donc d’affirmer que l’on peut ainsi se ramener à une équation différentielle du
premier ordre :
Proposition 1.1. Toute équation différentielle ordinaire d’ordre n sous forme normale est équivalente à une équation différentielle ordinaire du premier ordre sous forme normale.
Remarque 1.4. Parfois on fera aussi la transformation inverse, c’est-à-dire transformer une équation différentielle du premier ordre en équation différentielle d’un ordre plus élevé.

2

Exemple 1.5. Pour résoudre le système d’équations
 0
 0 
x1 = 3x1 − x2
x1
3
⇐⇒
=
x02 = x1 + x2
x2
1

−1
1

 
x1
x2

On calcule
x001 = 3x01 − x02 = 3x01 − (x1 + x2 ) = 3x01 − x1 + (x01 − 3x1 )
qui donne une équation du second degré
x001 − 4x01 + 4x1 = 0
dont on déduit x1 (t) = (at + b)e2t et x2 (t) = −x01 (t) + 3x1 (t) = (a − b + bt)e2t .
Définition 1.4. Une équation différentielle linéaire d’ordre n est une équation différentielle de la
forme
an y (n) + · · · + a1 y 0 + a0 y = b (E)
où les fonctions ak : I → L(E), b : I → E sont des fonctions continues, y à valeurs dans E.
Si an : I → GL(E), on peut multiplier par a−1
n pour obtenir une équation différentielle linéaire
sous forme normale (ou résolue).
On appelle équation différentielle linéaire homogène associée à E l’équation
an y (n) + · · · + a1 y 0 + a0 y = 0

(E0 )

Remarque 1.5. Soit une équation différentielle linéaire d’ordre n sous forme normale
y (n) = an−1 y (n−1) + · · · + a1 y 0 + a0 y + b
Alors une solution y est non seulement n fois dérivable, mais ausi de classe C n puisque les coefficients
le sont.

1.3

Problème de Cauchy

Un problème de Cauchy-Lipschitz est la donnée d’une équation différentielle d’ordre p, et de p
conditions initiales de la forme y(t0 ) = α0 , y 0 (t0 ) = α1 , ...,y (p−1) (t0 ) = αp−1 . Il s’agit de déterminer
s’il existe une solution (maximale) définie sur I, t0 point intérieur de I : ∃η > 0, ]t0 − η, t0 + η[⊂ I.
Exemple 1.6.
 00
 y + 2ty 0 − 3y = t2 + 1
y(0) = 0
Le problème de Cauchy
admet une unique solution (théorème que
 0
y (0) = 1
l’on va bientôt voir)... dont on ne connait pas d’expression simple. Par contre, on peut facilement
trouver une solution sans conditions initiales ( poser y = at2 + bt + c).
Une équation vérifie la condition d’unicité au problème de Cauchy-Lipschitz si tout problème de
Cauchy-Lipschitz de cette équation a une unique solution.
Remarque 1.6. Une erreur classique est de penser que résoudre l’équation différentielle y 00 +y = 0
avec une condition du genre y(0) = y(π) = 0 est un problème de Cauchy !

2

Équations différentielles linéaires du premier ordre

Dans la suite, on suppose que I ⊂ R est un intervalle non réduit à un point et K = R ou C.

3

2.1

Généralités

Nous considèrons ici une équation différentielle linéaire E d’ordre 1
y 0 = A(t)y + b(t)
avec A : I → L(E), b : I → E continues. On notera E0 son équation homogène associée.
Proposition 2.1. L’ensemble S0 des solutions de E0 sur I est un sous-espace vectoriel sur R.
L’ensemble S des solutions sur I de E s’écrit
S = ϕ0 + S0 ,
où ϕ0 : I → R est une solution particulière de E.
Preuve. La fonction nulle est bien solution de E0 et si ϕ1 et ϕ2 sont deux solutions de E0 , alors
pour tous scalaires λ1 et λ2 , on vérifie facilement que λ1 ϕ1 + λ2 ϕ2 est encore dans S0 .
Enfin, si ψ et ϕ0 sont deux solutions de E, on calcule
ψ 0 − ϕ00 = Aψ − Aϕ0 = A(ψ − ϕ0 )
qui montre que ψ − ϕ0 ∈ S0 , ce qui termine la preuve.
Remarque 2.1.
1. La propriété est encore vraie même pour une équation qui n’est pas sous forme normale.
2. Si on fixe une base B de E, l’équation s’écrit
 0

  

y1


b1 (t)
y1
y10

 y20
.  . 
 .. 
 .  = A(t)  ..  +  ..  ⇐⇒
..

.


yn (t)
yn
yn0
 0
yn


=
=

a1,1 y1 + · · · + a1,n yn + b1
a2,1 y1 + · · · + a2,n yn + b2
..
.

=

an,1 y1 + · · · + an,n yn + bn

On obtient ainsi un système d’équations différentielles.

2.2

Équation différentielle linéaire scalaire d’ordre 1

Soit (E0 ) : y 0 + a(t)y = 0, avec a, b ∈ C 0 (I, K).
2.2.1

Résolution de l’équation sans second membre

Proposition 2.2. L’ensemble des solutions sur I de (E0 ) est




f : I→K

S0 =
λ∈R ,
t 7→ λ e−A(t)
où A est une primitive de a.
Preuve. La fonction eA(t) ne s’annule jamais donc (E0 ) est équivalent à

0

y 0 + a(t)y eA(t) = 0 ⇐⇒ y eA(t) = 0,
et l’équation est équivalente à dire que y eA(t) est une fonction constante sur I égal à λ ∈ K. On
en déduit donc que les solutions sont exactement les fonctions t 7→ λ e−A(t) avec λ ∈ K.
Exemple 2.1.

4

1
−1
y = 0. On pose a(t) =
et A(t) = − arctan(t). L’équation est
2
1+
t
1
+ t2

0
équivalente à yeA(t) = 0 et donc les solutions sont

1. Soit I = R et y 0 −

S0 = {λ earctan(t) | λ ∈ R}.
1
1
2. Soit I = R∗+ et y 0 − y = 0. On pose a(t) = − et A(t) = − ln(t). L’équation est équivalente
t
t
0
à yeA(t) = 0 et comme e−A(t) = t les solutions sont donc
S0 = {R∗+ → R, t 7→ λ t | λ ∈ R}.
Ici, l’équation n’est pas définie en 0.
2.2.2

Résolution théorique de (E)

On pose (E) : y 0 + a(t)y = b(t).
Proposition 2.3. L’ensemble des solutions sur I de (E) est donné par
S = {Be−A + λe−A | λ ∈ K},
où A est une primitive de a et B est une primitive de b(t) eA(t) .
Preuve. On a (E) : y 0 + ay = b(t)
0
⇐⇒ y eA(t) = b(t) eA(t) ⇐⇒ yeA(t) = B(t) + λ ⇐⇒ y = B(t)e−A(t) + λe−A(t) ,
ce qui termine la démonstration.
Remarquez que ϕ(t) = B(t) e−A(t) est une solution (particulière) de l’équation complète, et toutes
les solutions sont de la forme une solution particulière plus une solution de l’équation homogène.
Remarque 2.2. On dit que c’est une résolution théorique, car calculer une primitive n’est pas en
général évident et celle b(t) eA(t) sera souvent tout aussi difficile que de résoudre l’équation différentielle elle-même. On dira souvent intégrer l’équation différentielle, au lieu de résoudre l’équation.
2.2.3

Résolution pratique de (E)

On procède toujours en trois étapes :
1. On résout l’équation homogène (E0 ) :
S0 = {t 7→ λe−A(t) | λ ∈ K}.
2. On cherche une solution particulière ϕ de l’équation complète (E).
3. L’ensemble des solutions sur I de (E) est alors


I→R
S=
|λ ∈ R .
t 7→ ϕ(t) + λ e−A(t)
L’étape qui posera problème sera le plus souvent l’étape 2. Pour cela on dispose de trois méthodes :
i) On recherche une solution évidente :
a) La solution est vraiment évidente :
Exemple 2.2. Pour résoudre y 0 + t2 y = t2 , on “devinera” que y = 1 est une solution
particulière sur R, donc

(
)

ϕ: R→R

S=
λ∈R .
t3
t 7→ 1 + λ e− 3

5

b) On devine la forme d’une solution particulière : par exemple, si l’équation est de la forme
y 0 + ay = P (t) eαt , avec a, α ∈ C et P (t) un polynôme, on cherche une solution de la
forme Q(t)eαt avec Q(t) un polynôme de degré :
i. degré de P , si α 6= −a
ii. degré de P plus un, si α = −a.
Exemple 2.3.
- Si y 0 − 2y = tet , on cherche une solution particulière de la forme (at + b)et et alors
on trouve que a = b = −1 convient. La solution générale est t 7→ λ e2t − (t + 1)et .
- Si y 0 − 2y = te2t , on cherche une solution particulière de la forme (at2 + bt)e2t et alors
on trouve que a = 12 , b = 0 et c = 0 convient. La solution générale est t 7→ (λ+ 12 t2 )e2t .
- Pour résoudre y 0 + y = sin t, on résout y 0 + y = eit puis on prend la partie imaginaire.
L’ensemble solutions est




ϕ: R→R

λ

R
.
S=
t
t 7→ sin t−cos
+ λ e−t
2
ii) Principe de superposition des solutions :
Proposition 2.4. Si le second membre b est du type b(t) =

n
X

bk (t), où bk est continue

k=1

sur I, on note ϕk une solution de
(Ek ) : y 0 + ay = bk .
Alors ϕ =

n
X

ϕk est une solution particulière de (E).

k=1

Exemple 2.4. Soit (E) : y 0 + y = sin + cos +Id. On pose b1 (t) = sin t + cos t et b2 (t) = t.
On cherche une solution particulière de (E1 ) : y 0 + y = sin + cos : on trouve ϕ1 = sin ;
on cherche une solution particulière de (E2 ) : y 0 + y = Id : on trouve ϕ2 (x) = x − 1 ;
Donc une solution particulière de (E) est ϕ(x) = ϕ1 (x) + ϕ2 (x) = sin x + x − 1 et




ϕ: R→R

λ∈R .
S=
t 7→ sin t + t − 1 + λ e−x
iii) Méthode de la variation de la constante :
Les solutions de l’équation homogène sont de la forme λeA(t) = λf0 (t) avec λ ∈ R. On
cherche une solution particulière de l’équation complète de la forme ϕ(t) = λ(t)f0 (t) (c’està-dire on considère que la constante devient une fonction, d’où le nom variation de la
constante). Il faut trouver λ(t) ; pour cela on écrit que ϕ est solution de (E) :




0
0
0
ϕ (t) + a(t)ϕ(t) = b(t) ⇐⇒
λ (t)f0 (t) + λ(t)f0 (t) + a(t) λ(t)f0 (t) = c(t)
⇐⇒
⇐⇒

λ0 (t)f0 (t) = b(t)
b(t)
λ0 (t) =
(car f0 ne s’annule pas).
f0 (t)

b(t)
et on en déduit ϕ = λ(t)f0 (t).
f0 (t)
t
1
Exemple 2.5. Soit (E) : y 0 +
y=
. Les solutions homogènes sur R sont
2
1+t
1 + t2

Donc λ(t) est une primitive de

S0 = {λ e−

ln(t2 +1)
2

| λ ∈ R} = { √

6

λ
| λ ∈ R}.
1 + t2

λ(t)
= λ(t)f0 (t) :
On cherche donc une solution de (E) de la forme ϕ = √
1 + t2
λ(t)f00 (t) + λ0 (t)f0 (t) +

t
1
λ(t)f0 (t) =
,
2
1+t
1 + t2

or f0 est solution de l’équation homogène donc l’équation est équivalente à

1 + t2
1
0
λ (t) =
,
=√
1 + t2
1 + t2
argsh(t)
d’où λ(t) = argsh(t) convient et ϕ(t) = √
. Donc
1 + t2




argsh(t)
λ

S= √
λ∈R .
+√
1 + t2
1 + t2
Remarque 2.3.
1. Dans la méthode de la variation de la constante, on ne remplace f0 par sa valeur qu’à la
fin du calcul, ceci pour éviter d’avoir à revérifier que f0 est bien une solution de l’équation
homogène.
2. Cette méthode de la variation de la constante correspond à la méthode de la résolution
b
théorique : la solution particulière est BeA où B est une primitive de beA = −A et e−A
e
est une solution homogène.
2.2.4

Problème de Cauchy

Proposition 2.5. Soit (E) : y 0 + ay = b avec a et b continues sur I. Soit (t0 , y0 ) ∈ I × K, alors il
existe une unique solution f sur I de (E) telle que f (t0 ) = y0 .
Preuve. On a vu que les solutions sur I sont de la forme f : t 7→ ϕ0 + λe−A(t) où λ ∈ R, ϕ0 est une
solution particulière de l’équation complète et A est une primitive de a. La condition f (t0 ) = y0
impose ϕ0 (t0 ) + λ e−A(t0 ) = y0 . Or ϕ0 (t0 ) et A(t0 ) sont fixés, donc il existe une unique valeur de
λ:
λ0 = (y0 − ϕ0 (t0 ))eA(t0 ) ,
et f (t) = ϕ0 (t) + λ0 e−A(t) .
Remarque 2.4. On voit donc que toute solution sur J ⊂ I se prolonge de manière unique en une
solution sur I (maximale). Cela n’est plus vrai si E n’est pas sous forme normale.
Exemple 2.6. Résoudre sur R l’équation (E) : t(1 − t)y 0 − (2t − 1)y = 1.
1/ Résolution de l’équation homogène. On résout d’abord l’équation sur I1 =] − ∞; 0[, I2 =]0; 1[
et I3 =]1; +∞[, intervalles sur lesquels la forme résolue de (E) est
y0 −

2t − 1
1
y=
,
t(1 − t)
t(1 − t)

2t − 1
est A(t) = ln |t(1 − t)|, donc les solutions homogènes sont de
t(1 − t)
la forme λe−A(t) et donc sur chaque intervalle où t(1 − t) ne s’annule pas les solutions de l’équation
λ
homogène sont
.
t(1 − t)
et une primitive de a(t) = −

7

2/ Solution particulière. On pourrait penser que (E) admet une solution polynomiale, mais on
peut vérifier qu’il n’en est rien. On va utiliser la variation de la constante, on cherche une solution
λ(t)
de la forme
et on obtient
t(1 − t)
λ0 (t) =
d’après la formule λ0 =



1
t(1 − t)

−1
×

1
=1
t(1 − t)

b(t)
. Donc λ(t) = t convient et toutes les solutions sont de la forme
f0 (t)
ϕλ =

t+λ
.
t(1 − t)

3/ Problème de raccord. On a résolu l’équation sur les intervalles I1 , I2 et I3 . Pour qu’une
solution f soit définie sur R, il faut qu’elle soit définie et continue en 0 et en 1, mais sur I2 f est
t+λ
de la forme t(1−t)
, donc pour que la limite en 0+ existe, il faut λ = 0 et pour que la limite existe
en 1− , il faudrait λ = −1 donc il n’existe pas de solution sur R.
4/ Représentation graphique des solutions.
3

2

1

0
−3

−2

−1

0

1

2

3

x
−1
y
−2

−3

2.3

La fonction exponentielle matricielle

Nous considérons ici une équation différentielle linéaire homogène d’ordre 1
(E0 ) : y 0 = A(t) y
avec A : I → L(E) continue.
Par analogie avec le cas scalaire, on suppose qu’il existe B : I → L(E), telle que
(exp(B(t))0 = B 0 (t) exp(B(t)) = A(t) exp B(t)
Pour tout V ∈ Mn,1 (R), y(t) = exp(B(t))V est solution de l’équation différentielle. Le vecteur V
dépend des conditions initiales.
Mais en fait, si B(t) et B 0 (t) ne commutent pas, cela ne marche pas.
Nous développons ici les propriétés classiques de l’exponentielle matricielle. Nous reviendrons aux
équations différentielles au paragraphe suivant.

8

2.3.1

Définitions et premières propriétés

Définition 2.1. On appelle exponentielle de A ∈ Mn (K), la somme de la série normalement
convergente
X An
.
exp A =
n!
n≥0

Si E est un espace vectoriel de dimension n, on définit de même pour u ∈ L(E),
X un
.
n!

exp u =

n≥0

Remarque 2.5. L’application Mn (K) → Mn (K), A → exp A est continue.
Exemple 2.7. On a exp(diag (λ1 , · · · , λn )) = diag (eλ1 , · · · , eλn ) ; en particulier, exp 0 = In .
Proposition 2.6. Soit A, B ∈ Mn (K) et P ∈ GLn (K).
1. si AB = BA alors exp A. exp B = exp(A + B)
2. exp A est inversible d’inverse exp(−A) d’où
exp(Mn (K)) ⊂ GLn (K)
3. exp(t A) = t (exp A) d’où exp(Sn (K)) ⊂ Sn (K).
4. exp A = exp A.
5. exp(P −1 AP ) = P −1 exp(A)P i.e. deux matrices semblables ont des exponentielles semblables.
6. Il existe PA ∈ K[X] tel que exp A = PA (A) ; en particulier A et exp A commutent.
Preuve. On pose
∆n =

n
X
Ai

!

i!



=

X

i=0

n
X
Bj

j!

j=0



n
X
(A + B)k

−

k!

k=0

et comme AB = BA on a pour tout k
n
X
(A + B)k
k=0

k!

i+j=k

i
k



k!

Ai B j =

X Ai B j
i! j!

i+j=k

et donc pour n’importe qu’elle norme vérifiant kABk ≤ kAk kBk



! n
X
n
X Bj
X
X Ai B j
n Ai



−
k∆n k =

j!
i! j!
i=0 i!

j=0
k=0 i+j=k






i
j
X

A
B


=

n+1≤i+j≤2n i! j!
0≤i,j≤n

i j
X
A B


=
i! j!
n+1≤i+j≤2n
0≤i,j≤n

=

X
n+1≤i+j≤2n
0≤i,j≤n

=

n
X
kAki
i=0

i!

kAki kBkj
i!
j!

!

n
X
kBkj


j=0

9

j!


−

n
X
(kAk + kBk)k
k=0

k!

et le dernier terme tend vers 0 car exp(kAk + kBk) = exp(kAk) exp(kBk).
On en déduit exp(A) exp(−A) = In .
Les applications A 7→ t A, A 7→ A, A 7→ P −1 AP étant continues, on en déduit les trois points
suivants.
Le sous-espace vectoriel de dimension finie K[A] est fermé, donc exp A ∈ K[A].
Remarque
2.6.
n’est

 Le résultat

 plus nécessairement vrai si on ne suppose plus que AB = BA :
0 0
0 −θ
si A =
et B =
avec θ ∈ R.
θ 0
0 0
On calcule facilement


1 0
exp A = I2 + A =
θ 1
ainsi que

exp B = I2 + B =
et donc


exp A exp B =

1
0

−θ
1

−θ
1 − θ2

1
θ





tandis que
2k
−1
0

k
0
2k −1
= θ
0 −1


2 k
(−θ )
0
=
0
(−θ2 )k

(A + B)2k

et
(A + B)2k+1 =



(−θ2 )k
0

= θ2k

0
(−θ2 )k


0
θ



−θ
0

0
1




=

0
(−1)k θ2k+1


(−1)k+1 θ2k+1
.
0

Il s’en suit
exp(A + B)

=

+∞
X
k=0


=
2.3.2


(−θ2 )k
0

− sin θ
cos θ

1
(2k)!

cos θ
sin θ

0
(−θ2 )k


+

+∞
X
k=0

1
(2k + 1)!



0
(−1)k θ2k+1

(−1)k+1 θ2k+1
0

Dérivation

Proposition 2.7. Soit A : I → Mn (K) une fonction matricielle dérivable.
On pose A = (C1 , · · · , Cn ). Alors t 7→ det A(t) est dérivable et
n

X
d
det A(t) =
det(C1 , · · · , Ck0 , · · · , Cn )
dt
k
k=1

Preuve. Si A = (ai,j ), par définition on a
X
det A =
ε(σ)aσ(1),1 · · · aσ(n),n
σ∈Sn

où Sn est le groupe des permutations de {1, · · · , n} et ε(σ) est la signature de σ.
Il suffit de dériver les différents produits. Vu que det A = det t A, on a aussi le corollaire.

10



Corollaire 1. Si on écrit A en vecteur ligne : t A = (t L1 , · · · , t Ln ), alors on a
 
L1
 .. 
 . 
n
X
 0
d

det A(t) =
det 
Lk 
dt


.
k=1
 .. 
Ln
Proposition 2.8. Soit A : I → Mn,p (K) et B : I → Mp,q (K) deux fonctions matricielles
dérivables sur I. Alors AB : I → Mn,q (K), t 7→ A(t)B(t) est dérivable sur I et pour tout t ∈ I
0
A(t)B(t) = A0 (t)B(t) + A(t)B 0 (t).


Preuve. On é crit A = ai,j 1≤i≤n et B = bi,j 1≤i≤p avec ai,j et bi,j des fonctions dérivables sur
1≤j≤p
1≤j≤q

I. Alors AB = ci,j 1≤i≤n avec
1≤j≤q

ci,j =

p
X

ai,k bk,j ⇒

c0i,j

=

k=1

p
X

a0i,k bk,j

+

k=1

p
X

ai,k b0k,j

k=1

0
qui montre bien que A(t)B(t) = A0 (t)B(t) + A(t)B 0 (t).
Corollaire 2. Si A : I → Mn (K) dérivable sur I et pour tout t ∈ I A0 (t)A(t) = A(t)A0 (t), alors
Ak (t)

0

= kA0 (t)Ak−1 (t)

Preuve. Par récurrence en appliquant la proposition précédente.
Corollaire 3. Si A : I → Mn (K) dérivable sur I et t0 ∈ I tel que A(t0 ) ∈ GLn (K), alors
(A−1 )0 (t0 ) existe et

(A−1 )0 (t0 ) = −A−1 (t0 )A0 (t0 )A−1 (t0 ).
Preuve. A est dérivable sur I donc det A l’est aussi d’après la proposition précédente. De même
t
Com(A) est dérivable car les coefficients sont des déterminants de matrices extraites de A.
1 t
De plus, A inversible en t0 implique que det A(t0 ) 6= 0 et donc t 7→
Com(A) = A−1 est
det A
dérivable en t0 . Enfin, la proposition précédente montre que la dérivée en t0 de
A(t0 )A−1 (t0 ) = In est A0 (t0 )A−1 (t0 ) + A(t0 )(A−1 )0 (t0 ) = 0
d’où le résultat.
Proposition 2.9. Soit A ∈ Mn (K) une matrice à coefficients constants. Alors la fonction
t 7→ exp tA =

+∞ k k
X
t A
k=0

k!

est définie, continue et dérivable sur R et sa dérivée est t 7→ A exp tA.
Preuve. Pour la norme subordonnée, la série est normalement convergente sur tout compact, ce
qui montre qu’elle est bien définie, et la série dérivée est aussi normalement convergente sur tout
compact, donc la fonction est dérivable et on factorise par A.

11

Remarque 2.7. Soit A : I → Mn (K) est une fonction matricielle dérivable. Si A0 (t) et A(t)
commutent, alors d’après le corollaire 2
d
exp A(t) = A0 (t) exp(A(t)).
dt
Si A0 (t) et A(t) ne commutent pas, le résultat n’est plus vrai : Si A(t) =



1
0


t
, alors Ak = A
0

pour tout k > 0 et

X Ak
e
= In + (e − 1)A(t) =
exp A(t) =
0
k!
n≥0

d
et donc
exp(A(t)) =
dt
Par contre,



0
0



e−1
0
0
. Mais A (t) exp A(t) =
0
0

(e − 1)t
1




1
.
0

Remarque 2.8. On peut montrer que

AB = BA ⇐⇒ ∀t ∈ R, exp t(A + B) = exp(tA) exp(tB).
Si AB = BA, l’égalité de droite est claire.

Réciproquement, posons f (t) = exp t(A + B) et g(t) = exp(tA) exp(tB).
On calcule
f 0 (t) = (A + B) exp(t(A + B)) et f 00 (t) = (A + B)2 exp(t(A + B))
et f 00 (0) = (A + B)2 . De même
g 0 (t) = A exp(tA) exp(tB) + exp(tA)B exp(tB)
et
g 00 (t) = A2 exp(tA) exp(tB) + 2A exp(tA)B exp(tB) + exp(tA)B 2 exp(tB)
qui donne g 00 (0) = A2 + 2AB + B 2 .
Par hypothèse, f = g, donc f 00 (0) = g 00 (0) dont on déduit AB = BA.
Remarque 2.9. Pour A fixé, il existe un polynôme PA ∈ K[X] tel que PA (A) = exp(A), mais il
n’existe pas de polynôme P ∈ K[X] tel que pourtoute matrice A, exp(A) = P (A) : la fonction
t 7→ exp Diag (t, 0 · · · , 0) = Diag exp(t), 0, · · · , 0 admet pour dérivée elle-même et donc ne peut
s’écrire P (Diag (t, 0, · · · , 0)) = Diag P (t), 0 · · · , 0
2.3.3

Pour aller plus loin

Proposition 2.10. Soit A ∈ Mn (K).


1. exp Spec (A) = Spec exp(A) .
2. det(exp(A)) = exp(tr A).
3. Si χA est scindé, alors
A diagonalisable ⇐⇒ exp A diagonalisable
Preuve. La matrice A est trigonalisable dans C donc il existe P ∈ ∈ GLn (C) telle que


λ1



..
P −1 AP = 

.
0
λn

12

Donc exp(A) est semblable à
 
 k
exp(λ1 )
λ1

+∞
X
1 
 
−1
.
.
exp(P AP ) =
=

.
k!
k=0
0
0
λkn


On en déduit exp Spec (A) = Spec exp(A) et


..

.





exp(λn )

det(exp(A)) = det(P −1 AP ) = exp(λ1 + · · · + λn ) = exp(tr A).
Il est clair que si A est diagonalisable, alors exp(A) est diagonalisable puisque l’exponentielle d’une
matrice diagonale est encore diagonale.
Supposons χA scindé et exp(A) diagonalisable.
La matrice A est trigonalisable et si u est l’endomorphisme canoniquement associé à A, le théorème
des noyaux nous dit que (on compte les valeurs propres avec leur multiplicité)
E = ker(u − λ1 Id)m1 ⊕ · · · ⊕ ker(u − λk Id)mr .
Posons Fi = ker(u − λi Id)mi pour i ∈ [[1, r]].
Nous avons montré que
Proposition 2.11. Avec les notations précédentes, pour tout i ∈ [[1, r]], Fi est un sous-espace
stable et ui la restriction de u à Fi s’ecrit
ui = λi IdFi + gi
où gi ∈ L(Fi ) tel que g mi = 0.
On a
exp(ui ) = exp(λi IdFi ) exp(gi ) ⇒ exp(gi ) = exp(−λi ) exp(ui )
Comme exp(ui ) = exp(u)|Fi , l’hypothèse nous dit que exp(ui ) est diagonalisable. Donc exp(gi )
l’est aussi.
De plus, le spectre de ui est réduit à {0} car ui est nilpotent. Donc, celui de gi est réduit à {1}.
De gi diagonalisable possédant pour unique valeur propre 1, on en déduit
exp(gi ) = IdFi .
Par ailleurs,
exp(gi ) = IdFi + gi + · · · +

1
g mi −1 ;
(mi − 1)! i

donc le polynôme,
P = X + ··· +

1
X mi −1
(mi − 1)!

annule gi . Or le polynôme annulateur de gi est de la forme X k et divise P , il vient P = X et gi
est nulle donc ui = λi IdFi et u est bien diagonalisable.
Exemple 2.8. Soit A ∈ GL (C), alors
exp(A) = In ⇐⇒ A est diagonalisable et Spec (A) ⊂ 2iπZ.
Le sens ⇐ est immédiat car si A est diagonalisable, alors exp(A) aussi et son spectre est réduit à
{1} donc exp(A) = In .
Réciproquement, si exp(A) = In , alors χA est scindé car K = C et exp(A) est diagonalisable, donc
A est diagonalisable. On sait que

{1} = Spec(exp(A)) = exp Spec (A)
et donc Spec (A) ⊂ 2iπZ.

13

2.3.4

Un petit lemme pour le Wronskien

Lemme 1. Soit E un espace vectoriel de base B = (e1 , · · · , en ) et g ∈ L(E). L’application
Ψ : E n → K, (x1 , · · · , xn ) 7→

n
X

detB (x1 , · · · , g(xk ), · · · , xn )
k

k=1

vérifie
Ψ(x1 , · · · , xn ) = tr g detB (x1 , · · · , xn ).
Preuve. On vérifie que Ψ est n-linéaire (facile) alternée car
Ψ(x1 , · · · , xi , · · · , xi · · · xn ) = detB (x1 , · · · , g(xi ), · · · , xi · · · xn ) + detB (x1 , · · · , xi , · · · , g(xi ) · · · xn )
i

j

j

i

i

j

les autres termes valant 0 car detB est alternée, et cette dernière somme s’annule car detB est
antisymétrique.
On en déduit que Ψ s’écrit λ detB et on trouve λ en calculant Ψ(e1 , · · · , en ) : on suppose que λi
est la coordonnée en ei de g(ei ) et
detB (e1 , · · · , g(ek ), · · · , en ) = λk detB (e1 , · · · , en ) = λk
k

et donc
Ψ(e1 , · · · , en ) =

n
X

λk = tr g,

k=1

ce qui termine la preuve.

2.4
2.4.1

Systèmes d’équations différentielles linéaires d’ordre 1
Théorème de Cauchy-Lipschitz

Nous revenons au cas d’une équation différentielle linéaire d’ordre 1
y 0 = A(t)y + b(t)
avec A : I → L(E), b : I → E continues avec E K-espace vectoriel de dimension finie.
Théorème 2.1. (Théorème de Cauchy-Lipschitz linéaire) Pour tout (t0 , y0 ), il existe unique solution y de E sur I telle que y(t0 ) = y0 .
Preuve. L’espace vectoriel E est de dimension finie, donc x 7→ a(t)x est continue et donc lipschitzienne :
∃Ka(t) > 0, ∀x, y ∈ E, ka(t)(x) − a(t)(y)k ≤ Ka(t) kx − yk.
On veut rendre Ka(t) indépendant de t, pour cela, on se restreint à un segment [a, b] ⊂ I.
Alors l’application Ψ : [a, b] × E → E, (t, x) 7→ ka(t)xk est continue comme produit et composée
de fonctions continues.
Soit S = {x ∈ E, kxk = 1} la sphère unité. La fonction Ψ est bornée sur [a, b] × S car continue
sur un produit de compacts : soit K tel que
∀(t, x) ∈ [a, b] × S, ka(t)xk ≤ K.
dont on déduit que



x

≤ Kkxk.
∀(t, x) ∈ [a, b] × E \ {0}, ka(t)xk = kxk × a(t)
kxk
On construit la suite de fonctions (ϕn )n≥0 par ϕ0 = 0 et
Z t


a(α) ϕn (α) + b(α) dα
∀nN, ∀t ∈ [a, b], ϕn+1 (t) = x0 +
t0

14

On va montrer que la suite (ϕn )n≥0 converge uniformément vers une fonction ϕ. Alors par passage
à la limite avec interversion limite intégrale justifiée par la convergence uniforme et le domaine
d’intégration étant un compact, on obtient
Z t


a(α) ϕ(α) + b(α) dα
∀nN, ∀t ∈ [a, b], ϕ(t) = x0 +
t0

qui est bien solution de l’équation différentielle et qui vérfie la condition initiale ϕ(t0 ) = x0 .
Pour montrer la convergence uniforme, on écrit pour tout n ∈ N et t ∈ [a, b]

Z t




a(α) ϕn (α) − ϕn−1 (α) dα
kϕn+1 (t) − ϕn (t)k =

t0

t

Z
≤ K

kϕn (α) − ϕn−1 (α)k dα
t0

|t − t0 |n
[a,b]
kϕ1 (α) − ϕ0 (α)k∞
n!
|b − a|n
[a,b]
Kn
kϕ1 (α) − ϕ0 (α)k∞
n!

≤ Kn


où l’on a fait une récurrence pour la seconde inégalité.
La série de terme générale ϕn+1 (t)−ϕn (t) est une série normalement convergente et par téléscopage
est en fait la suite (ϕn )n≥0 qui donc converge uniformément vers une fonction ϕ.
Il reste à montrer l’unicité de la solution : supposons qu’il existe une autre solution γ qui vérifie la
condtion initiale γ(t0 ) = x0 , alors
Z t
γ(t) = x0 +
γ 0 (α) dα
t0
t

Z
=



a(α) γ(α) + b(α) dα.

x0 +
t0

[a,b]

Comme précédemment, on obtient avec M = kϕ − γk∞
Z t





kϕ(t) − γ(t)k =
a(α)
ϕ(α)

γ(α)



t0

Z


t

kϕ(α) − γ(α)k dα

K
t0

|t − t0 |n
kϕ(α) − γ(α)k∞
n!
n
|b − a|
≤ Kn
kϕ(α) − γ(α)k∞
n!



Kn

Le dernier terme tend vers 0 avec n et donc γ = ϕ sur tout segment.
On conclut en remarquant que si le résultat est vrai pour tout segment, il est vrai sur I.
Remarque 2.10. Il y a donc unicité au problème De Cauchy-Lipschitz pour les EDL1 sous forme
normale et qui plus est la solution est définie sur I (maximale). La preuve de ce théorème n’est
pas a priori à connaître par cœur.
Théorème 2.2. L’ensemble S0 des solutions de E0 est isomorphe à E et en particulier est de
dimension n.
L’ensemble des solutions de E est un sous-espace affine de C 1 (I, E) de direction S0
Preuve. Cela provient directement du théorème de Cauchy Lipschitz appliqué à l’équation homogène : on fixe t0 et l’appliquation qui à x0 ∈ E associe Ψx0 l’unique solution de E0 sur I telle
que Ψx0 (t0 ) = x0 est une application bien définie, injective et surjective d’après l’existence dans le
théorème. Enfin, elle est clairement linéaire.

15

2.4.2

Le wronskien

Définition 2.2. On appelle système fondamental de solutions de E0 toute base (f1 , · · · , fn ) de S0 .
Proposition 2.12. Une famille (f1 , · · · , fn ) de S0 est un système fondamental de solutions de E0
ssi il existe t0 ∈ I tel que (f1 (t0 ), · · · , fn (t0 )) est une base de E. Et dans ce cas, pour tout t ∈ I,
(f1 (t), · · · , fn (t)) est une base de E
Preuve. En reprenant les notations de la preuve du théorème précédent, l’application x0 7→ Ψx0
est un isomorphisme et donc (f1 , · · · , fn ) est une base de S0 ssi (f1 (t0 ), · · · , fn (t0 )) est une base
de E.
On peut appliquer ce résultat pour n’importe quel t ∈ I.
Définition 2.3. Soit un système (h1 , · · · , hn ) de fonctions de C 1 (I, R) et B une base de E.
Pour tout t ∈ I, W (t) = detB (h1 (t), · · · , hn (t)) s’appelle wronskien du système.
Proposition 2.13. Soit un système (h1 , · · · , hn ) de fonctions E0 et B une base de E. Alors le
wronskien est soit nul en tout t ∈ I soit jamais nul.
Preuve. C’est la traduction qu’un système est soit une base en tout point, soit nulle part.
Proposition 2.14. Soit (f1 , · · · , fn ) un système de solutions de E0 et soit B = (e1 , · · · , en ) une
base de E. Alors
∀t ∈ I, W 0 (t) = tr A(t)W (t).
Preuve. On calcule
W 0 (t)

=
=
=

0
detB (f1 (t), · · · , fn (t))
n
X
detB (f1 (t), · · · , fk0 (t), · · · , fn (t))
k=1
n
X

k

detB (f1 (t), · · · , A(t)fk (t), · · · , fn (t))
k

k=1

=

tr A(t) detB (f1 (t), · · · , fn (t))

=

tr A(t) W (t)

où l’on a utilisé les différents résultats du paragraphe sur la dérivation des fonctions matricielles.
Remarque 2.11. Le wronskien a la propriété remarquable qu’il peut être calculé sans que l’on
connaisse les solutions de E0 . Nous verrons plus particulièrement pour les équations différentielles
d’ordre 2 comment l’appliquer.
2.4.3

Méthode de variation des constantes

Proposition 2.15. Soit (f1 , · · · , fn ) un système fondamental de solutions de E0 et soit k ∈ {0, 1}.
Alors toute fonction ϕ ∈ C k (I, E) peut s’écrire de manière unique de la forme
ϕ = u1 f1 + · · · + un fn
avec les ui ∈ C k (I, K).
Preuve. Soit B une base de E et soit R(t) la matrice formée par les vecteurs coordonnées colonnes
de la famille (f1 (t), · · · , fn (t)) qui est une base pour tout t ∈ I.
On en déduit qu’il existe un unique n-uplet (u1 (t), · · · , un (t)) ∈ Kn tel que


u1 (t)


ϕ(t) = u1 (t)f1 (t) + · · · + un (t)fn (t) = R(t)  ...  .
un (t)

16

Il reste à prouver que les ui définissent des fonctions de classe C k : la matrice R(t) étant inversible
et de classe C k , la matrice R−1 (t) l’est encore et on a


u1 (t)
 .. 
−1
 .  = R (t)ϕ(t)
un (t)
ce qui montre que les fonctions ui sont bien de classe C k sur I.
Remarque 2.12. Comme dans le cas des équations différentielles scalaires d’ordre 1 où si l’on
connaît une solution f0 de l’équation homogène, on cherhce une solution de l’équation particulière
de la forme λ(t)f0 (t), on a le même principe pour les équations différentielles linéaires d’ordre 1
(non scalaires). On garde les notations de la proposition précédente.
Proposition 2.16. (Méthode de variation des constantes) L’application ϕ = u1 f1 + · · · + un fn est
solution de y 0 = A(t)y + b(t) E ssi
u01 f1 + · · · + u0n fn = b.
De plus, pour tout i ∈ [[1, n]], u0i est uniquement déterminée par b.
Preuve. Il suffit d’injecter ϕ dans l’équation de E, et de plus, la proposition précédente appliquée
à b nous montre que les fonctions u0i sont uniques.
Notons qu’une solution de E0 s’écrit λ1 f1 + · · · + λn fn , on remplace λi par la fonction ui , c’est bien
une variation de constante.
Remarque 2.13. La fonction b étant donnée, il faut trouver les coefficients (λ1 , · · · , λn ) ; pour
cela on a vu que
 0 
λ1 (t)
 .. 
−1
 .  = R (t)b(t).
λ0n (t)

et alors il de prendre une primitive de λ0i pour tout i, la constante d’intégration dépendant des
conditions initiales.
2.4.4

Recherche des solutions de l’équation homogène

Nous traitons ici le cas d’une équation différentielle linéaire à coefficients constants : y 0 = Ay + b(t)
avec A ∈ Mn (K) une matrice à coefficients constants et b ∈ C 0 (I, E).
Nous avons vu que l’ensemble des solutions de l’équation homogène est un espace vectoriel de
dimension n.
Théorème 2.3. Soit t0 ∈ I et y0 ∈ Mn,1 (K). L’unique solution de E0 telle que y(t0 ) = y0 est
l’application t 7→ exp((t − t0 )A)y0 .
Preuve. L’application convient et la solution est unique par le théorème de Cauchy Lipschitz.
Remarque 2.14. Calculer l’exponentielle d’une matrice n’est pas évident, mais on a des techniques
efficaces dans certains cas.
Si A est diagonalisable, il est complètement inutile de calculer l’exponentielle de la matrice de
l’équation comme le montre la proposition ci-dessous.
Proposition 2.17. Soit A ∈ Mn (K) est diagonalisable, et soit (V1 , · · · , Vn ) une base de vecteurs
propres, Vi associé à la valeur propre λi . Alors une base des solutions de l’équation homogène
y 0 (t) = Ay(t) est

eλ1 t V1 , · · · , eλn t Vn

17

Preuve. La famille proposée est bien libre car pour t = 0, on obtient la base (V1 , · · · , Vn ) et comme
l’espace des solutions est de dimension n, c’est une base.
Remarque 2.15. Soit P est une matrice inversible. Posons Y = P Z


Y 0 = AY + B(t) ⇐⇒ P Z 0 = AP Z + B(t) ⇐⇒ Z 0 = P −1 AP Z + P −1 B(t)
Si P est la matrice de passage d’une base de diagonalisation de A telle que


λ1


P −1 AP =  0 . . . 0 
λn
alors le système devient en posant C = P −1 B
 0 
λ1
z1
 ..  
 .  =  0 ...
zn0

  
c1
z1
  ..   .. 
0  .  +  . 
cn
λn
zn


et on se ramène à résoudre n équations linéaires scalaires d’ordre 1 :
zi0 = λi zi + ci
et on trouve Y = P Z.
Si le terme B(t) = 0, on notera que calculer P −1 est une perte de temps !
 0
x (t) = y(t) + 2et
Exemple 2.9. Résoudre le système
.
y 0 (t) = x(t) + 1
Le système s’écrit
 0  
    t
x (t)
0 1
x
2e
=
+
y 0 (t)
1 0
y
1
Un sytème fondamental de dolutions de l’équation homogène est
 t

 0

  t


1 e−t e−t
1 2 + e−t
u1
2e
e
e−t
R= t

=
=
1
e −e−t
u02
2 et −et
2 2e2t − et
1
1
D’où la solution particulière avec u1 (t) = t − e−t et u2 (t) = (e2t − et )
2
2
 t
 −t  

e
e
(t + 1/2)et − 1
ϕ(t) = u1 (t) t + u2 (t)
=
e
−e−t
(t − 1/2)et

Les solutions sont donc

x(t) = C1 et + C2 e−t + (t + 1)et − 1
.
y(t) = C1 et − C2 e−t + tet



1 1 0
Exemple 2.10. Résoudre l’équation différentielle y 0 = Ay avec A = −1 2 1. On trouve
1 0 1


1 1
1
Spec A = {2, 1 + i, 1 − i} et P = 1 i −i, d’où la solution générale de la forme
1 −i i
 




1
cos t
sin t
y(t) = λ1 e2t 1 + λ2 et − sin t + λ3 et  cos t 
1
sin t
− cos t

18

Remarque 2.16. Dans le cas général, quitte à passer dans le corps des complexes, on peut
trigonaliser la matrice A et si la matrice obtenue T triangulaire supérieure a pour coefficients (Ti,j )
et P −1 B(t) = (be1 (t), · · · , ben (t)), alors le système est de la forme

0

 z1 = T1,1 z1 + T1,2 z2 + · · · + T1,n zn + be1 (t)


 z0 =
T2,2 z2 + · · · + T2,n zn + be2 (t)
2
.
..
..
..

.

.


 z0 =
Tn,n zn + ben (t)
n

On résout ce système en partant de la dernière ligne et en remontant.


0 2 2
Exemple 2.11. Y 0 = AY avec A =  −1 2 2 .
−1 1 3
Le polynôme caractéristique de A est (X − 2)2 (X − 1). On peut vérifier que (A − 2I3 )(A − I3 ) 6= 0,
et donc la matrice A n’est pas diagonalisable.
 


2
2
Un vecteur propre associé à 1 est U =  0  et donc la fonction t 7→ et  0  est une solution.
1
1
Pour trigonaliser A, on cherche un vecteur V tel que (A − 2I3 )2 V = 0 et (A − 2I3 )V 6= 0 :

2 

−2 2 2
0 −2 2
(A − 2I3 )2 = −1 0 2 = 0 0 0
−1 1 1
0 −1 1
 
 
4
0
et V = 1 convient, on pose W = (A − 2I3 )V = 2.
2
1


2 4 0
On pose P = 0 2 1, Y = P Z. Alors
1 2 1


1 0 0
P −1 AP = A0 = 0 2 1
0 0 2
et

 0
 z1 = z1
z 0 = 2z2 + z3
Z 0 = A0 Z ⇐⇒
 20
z3 = 2z3

qui donne z2 = (γ + βt)e2t .
Finalement

2 4
Y = P Z = 0 2
1 2


 z1 = αet
z 0 = 2z2 + βe2t
⇐⇒
 2
z3 = βe2t



 
 


0
αet
2
2
4t
1 (γ + βt)e2t  = αet 0 + 2γe2t 1 + βe2t 2t + 1
1
βe2t
1
1
2t + 1

Remarque 2.17. Dans le dernier cas, on pouvait éviter des calculs, car on connaissait deux
solutions indépendantes :
 
 
2
2
t 7→ Y1 (t) = et 0 et t 7→ Y2 (t) = e2t 1
1
1
qui correspondent aux deux vecteurs propres. On cherche une troisième solution de la forme


2t + α
t 7→ Y3 (t) = e2t  t + β  .
t+γ

19

Alors Y3 est solution ssi

 


  
4t + 2α + 2
4t + 2(β + γ)
2(−α + β + γ − 1)
0
2t + 2β + 1 = 2t − α + 2β + 2γ  ⇐⇒  −α + 2γ − 1  = 0
2t + 2γ + 1
2t − α + β + 3γ
−α + β + γ − 1
0
et donc
⇐⇒


 −α + β + γ = 1


α = 2γ − 1



2t − 1
dont une solution est α = −1, γ = 0, β = 0, on prend Y3 =  t . Est-ce cohérent avec le
t
résultat précédent ?
Passage des équations d’ordre 1 aux équations d’ordre supérieur.

2.4.5

Soit une équation différentielle linéaire scalaire d’ordre n sous forme résolue
y (n) = an−1 y (n−1) + · · · + a1 y 0 + a0 y + b (E).
On pose t z = (y, y 0 , · · · , y (n−1) ) et
 0  
y
0
1
 y 00   .. . .

 
.
z 0 =  ..  =  .
 .   0 ···
a0
y (n)

on obtient une équation linéaire d’ordre 1 :

  
y
···
0
0
..   y 0   .. 
..

  
.
. 
  ..  +  .  ⇐⇒ z 0 = Az + B


.  0
0
1
(n−1)
· · · an−1
b
y

e
(E)

On reconnaît une matrice compagnon.
Le théorème de Cauchy-Lipschitz nous dit que l’espace des solutions de (Ee0 ) est de dimension n et
un système fondamental de solutions de (Ee0 ) consiste en la donnée d’un système de (f1 , · · · , fn )
de solutions (E0 ) et le système s’écrit


f1
···
fn
.. 
 .
R =  ..
. .
(n−1)

f1

···

(n−1)

fn

Nous allons appliquer ces idées aux équations différentielles linéaires d’ordre 2.

3

Équations différentielles linéaires d’ordre 2

Soit une équation différentielle linéaire scalaire d’ordre 2 sous forme résolue
y 00 = a(t)y 0 + b(t)y + c(t)

(E),

avec a, b, c ∈ C 0 (I, K).

3.1

Théorème de Cauchy-Lipschitz linéaire

Théorème 3.1. (Cauchy-Lipschitz linéaire) Pour tout (t0 , y0 , y00 ) ∈ I × K2 , il existe une unique
solution y de (E) définie sur I telle que y(t0 ) = y0 et y 0 (t0 ) = y00 .
Preuve.
z0 =

y0
y 00






=

0 1
b a

   
y
0
+
⇐⇒ z 0 = Az + C
y0
c

e
(E)

et lethéorème
de Cauchy-Lipschitz
linéaire d’ordre 1 nous dit qu’il existe une unique solution

 
y
y0
z=
telle que z(t0 ) =
.
y0
y00

20

Proposition 3.1. L’ensemble S0 des solutions de (E0 ) est un sous-espace vectoriel de dimension
2 de C 2 (I, K) et S est un sous-espace affine de direction S0 .
Preuve. C’est une conséquence immédiate de la proposition précédente.
Exemple 3.1. Résoudre y 00 = 3y 0 − 2y + 1, y(0) = 23 et y 0 (0) = 2 : on pose
 0 
   
y
0 1
y
0
=
+
.
y 00
−2 3
y0
1
La matrice admet pour vecteur propre (1, 1) et (1, 2) de valeurs propres 1 et 2, les solutions de
1
est solution évidente, on en déduit la
l’équation homogène sont donc λet (1, 1) + µe2t (1, 2) et
2
solution générale


 
  1
y(t)
t 1
2t 1
t 7→
= λe
+ µe
+ 2
y 0 (t)
1
2
0
1
et donc y(t) = λet + µe2t + . Les conditions initiales impliquent λ = 0, µ = 1.
2

3.2
3.2.1

Résolution de l’équation homogène
Équation linéaire à coefficients constants
y 00 = ay 0 + by

(E),

avec a, b ∈ K.
D’après le théorème 2.3 il faut calculer



0 1 
exp (t − t0 )A = exp (t − t0 )
b a
Soit χA le polynôme caractéristique de A.
Rappelons que si P ∈ GL2 (K), alors P −1 exp(A)P = exp(P −1 AP ) et
Théorème 3.2. Soit E un K-espace vectoriel de dimension 2 et u ∈ L(E) dont le polynôme
caractéristique est scindé. Alors, il existe une base B telle que la matrice de u dans cette base soit
de l’une des deux formes suivantes :




λ1 0
λ 1
ou
0 λ2
0 λ
Preuve. Comme χu est scindé, il est trigonalisable et s’il n’est pas diagonalisable, son polynôme
caractéristique est de la forme χu (X) = (X − λ)2 . Comme (u − λId) 6= 0, soit e1= u(x)
 − λx 6=
0 1
2
0. Comme (u − λId) (x) = 0, dans la base (e1 , x), la matrice de u − λId est
, d’où le
0 0
résultat.
Proposition 3.2. Soit n ∈ N, alors

  λt


λ
0
e 1
0
λ
exp t 1
=
et
0 λ2
0
0
eλ2 t

1
λ

n  n
λ
=
0

nλn−1
λn




⇒ exp t

λ
0

1
λ


=

 λt
e
0

teλt
eλt



Remarque 3.1. On peut ainsi résoudre les cas particuliers :


 0
 
λ1 0
y
y
1. Si A et semblable à
, les solutions de
= A 0 sont de la forme αeλ1 t V1 +
0 λ2
y 00
y
βeλ2 t V2 , avec α, β ∈ R et V1 , V2 les vecteurs propres.

21


 0
 
λ 1
y
y
2. Si A est semblable à
, les solutions de
= A 0 sont de la forme (β +
0 λ
y 00
y
αt)eλt V1 + γeλt V2 , avec α, β, γ ∈ R où V1 vecteur propre et V2 complète en une base.


Définition 3.1. L’équation χA (λ) = 0 s’appelle équation caractéristique de l’équation différentielle.
Proposition 3.3. On suppose ici que K = C.
1. Si l’équation caractéristique admet deux racines distinctes r1 et r2 , alors


S0 = λer1 t + µer2 t , λ, µ ∈ C .
2. Si l’équation caractéristique admet une racine double r dans C, alors


S0 = (λ + ϕt)ert , λ, µ ∈ C .
Preuve. Ceci provient immédiatement du théorème et de la remarque ci-dessus vu que l’on peut
faire un changement de variables Y = P Z pour que la matrice soit du type 1 ou 2 suivant le
polynôme caractéristique de A.
Proposition 3.4. On suppose ici que K = R, et donc que a, b, c ∈ R.
1. Si l’équation caractéristique admet deux racines distinctes r1 et r2 , alors


S0 = λer1 t + µer2 t , λ, µ ∈ R .
2. Si l’équation caractéristique admet une racine double r dans R, alors


S0 = (λ + µt)ert , λ, µ ∈ R .
3. Si l’équation caractéristique admet deux racines complexes conjuguées r1 = α + iω et r¯1 ,
alors



S0 = (λ cos ωt + µ sin ωt)eαt , λ, µ ∈ R = λ cos(ωt + µ)eαt , (λ, ϕ) ∈ R+ × [0, 2π] .
Preuve. 1/ et 2/ résulte de la proposition précédente et pour 3/ toujours d’après la proposition
précédente, on sait que les solutions à valeurs complexes sont de la forme λer1 t +µer¯1 t . Les solutions
à valeurs réelles sont les parties réelles et complexes des solutions à valeurs complexes :
λ cos ωteαt + µ sin ωteαt .
Enfin, rappelons que si (a, b) 6= (0, 0)

 p
p
a
b
2
2
a cos ωt + b sin ωt = a + b √
cos ωt + √
sin ωt = a2 + b2 cos(ωt + ϕ)
a 2 + b2
a2 + b2
avec ϕ tel que cos ϕ = √
3.2.2

a
b
et sin ϕ = − √
.
2
2
+b
a + b2

a2

Équations d’Euler

Les équations d’Euler ne sont pas au programme, mais illustre bien une technique parfois très
efficace pour résoudre une équation différentielle : le changement de variables.
t2 y 00 (t) + aty 0 (t) + by(t) = 0 (E),
avec a, b ∈ K.
On étudie cette équation sur ]0, +∞[ : la fonction exp : R →]0, +∞[ est un C ∞ -difféomorphisme,
on pose t = es et
z(s) = y(t) = y(es ) ⇒ y(t) = z(ln t)

22

On calcule
z 0 (s) = es y 0 (es ) = ty 0 (t), et z 00 (s) = e2s y 00 (es ) + es y 0 (es ),
et donc une fonction y est solution de (E) ssi
∀s ∈ R, z 00 (s) + (a − 1)z 0 (s) + bz(s) = 0
Exemple 3.2. Résoudre l’équation x2 y 00 + y = 0 sur ]0, +∞[.
On pose x = et et z(t) = y(et ) et il vient
z 0 (t) = et y 0 (et ) et z 00 (t) = e2t y 00 (et ) + et y 0 (et )
et donc
y 0 (x) = e−t z 0 (t) et y 00 (x) = e−2t z 00 (t) − e−2 z 0 (t).
Résoudre l’équation initiale sur R∗+ est équivalent à résoudre sur R
z 00 − z 0 + z = 0.


L’équation caractéristique r2 − r + 1 = 0 admet pour racines 1±i2 3 . La solution générale de
l’équation vérifiée par z est donc donnée par
√ !
√ !
3
3
t/2
t/2
t + µe sin
t .
z(t) = λe cos
2
2
En revenant à y, on trouve que les solutions sur ]0, +∞[ sont les fonctions de la forme
!
!




3
3
ln x + µ x sin
ln x .
y(x) = z(ln x) = λ x cos
2
2

3.3
3.3.1

Résolution de l’équation complète
Variation des constantes

On applique la méthode de la variation de la constante à
 0 
   
y
0 1
y
0
0
z =
=
+
⇐⇒ z 0 = Az + C
y 00
b a
y0
c

e
(E)

e :
Soit un système fondamental de solutions de (E)
   
f1
f 
, 20
f10
f2
alors pour tout f ∈ C 2 (I, R) il existe un unique (u1 , u2 ) ∈ C1(I, K)2 tel que
 
   

f1
f2
f
f = u1 f1 + u2 f2
u1
+ u2
=
⇐⇒
f10
f20
f0
f 0 = u1 f10 + u2 f20
dont on déduit alors u01 f1 + u02 f2 = 0.
Proposition 3.5. Une fonction f ∈ C 2 (I, K), f = u1 f1 + u2 f2 et f 0 = u1 f10 + u2 f20 est solution
de (E) ssi
u01 f1 + u02 f2 = 0 et u01 f10 + u02 f20 = c.
On a
u01 = −

cf1
cf2
, u0 =
W (t) 2
W (t)

où W (t) est le wronskien du sytème

f
W (t) = 10
f1

23


f2
.
f20

Preuve. La variaton de la constante des EDL1 : on cherche u01 et u02 tels que
 
   

 0 
 0
 0
1
f1
f2
0
f1 f2
u1
u1
f2
0
0
=
u
+
u
=
=
⇐⇒
1 f0
2 f0
u02
c
u02
f10 f20
W (t) −f10
1
2

−f2
f1

 
0
c

d’où le résultat.
Exemple 3.3. Résoudre l’équation différentielle y 00 + 4y = tan t.
On résoutd’abord l’équation homogène y 00 +4y = 0 : les fonctions f1 : t 7→ sin(2t) et f2 : t 7→ cos(2t)
sont solutions évidentes.
Puis, on applique la méthode de variation des constantes en cherchant une solution de la forme
f (t) = u1 (t)f1 (t) + u2 (t)f2 (t) qui vérifie le système



 0  


 0
−1 −2sin2t − cos 2t
sin2t
cos 2t
0
u1
0
u1
=
⇐⇒
=
sin 2t
2 cos 2t −2 sin 2t
tan t
u02
tan t
u02
2 −2 cos 2t

1
1
1
0


 u1 = 2 cos 2t tan t = 2 sin 2t − 2 tan t

. On pose :



 u0 = − 1 sin 2t tan t = − sin2 t
2
2
On trouve ainsi toutes les solutions.
3.3.2


1
1


 u1 = − 4 cos 2t + 2 ln cos t

.



 u = − t + 1 sin 2t
2
2 4

Méthode d’abaissement du degré

Soit une équation différentielle linéaire scalaire d’ordre 2
y 00 = a(t)y 0 + b(t)y + c(t)

(E),

avec a, b, c ∈ C 0 (I, K).
On suppose que l’on connaît une solution de l’équation homogène ϕ. Alors on cherche une solution
de la forme y(t) = λ(t)ϕ(t).
On calcule
y 0 (t) = λ0 (t)ϕ(t) + λ(t)ϕ0 (t), y 00 (t) = λ00 (t)ϕ(t) + 2λ0 (t)ϕ0 (t) + λ(t)ϕ00 (t),
et l’équation (E) devient

ϕ(t)λ00 (t) + 2ϕ0 (t) − a(t)ϕ(t) λ0 (t) = c(t)
qui s’intègre en λ0 puis en λ.
Si ϕ ne s’annule pas, alors il y a équivalence entre les deux équations, c’est-à-dire que toute solution
s’écrit sous la forme λ(t)ϕ(t).
Exemple 3.4. Résoudre l’équation différentielle x2 y 00 −2y = x4 sur R∗+ . Une solution de l’équation
homogène est ϕ : x 7→ x2 et on pose y = λϕ et l’équation devient (on a équivalence sur R∗+ ) :
x2 λ00 (x) + 4xλ0 (x) = x2
qui donne λ0 =

C1
x
C2
x2
+
et
λ
=
+
+ C3 et la solution générale sur R+ est
x4
5
x3
10
y(t) =

c2
x4
+ C3 x2 +
x
10

1
Remarquons que l’on trouve facilement x 7→ x2 et x 7→ comme base de solutions de l’équation
x
homogène et la variation des constantes nous donne
 2
 0   
 0

 


1
−1 − x12 − x1
1
x
u1
0
u1
0
x
x
=
=
⇐⇒
=
u02
x2
u02
x2
2x −1
3 −2x x2
3 −x4
x2

24

d’où le résultat à nouveau.
Mais il faut avoir conscience qu’avec la méthode d’abaissement de degré on doit faire deux intégrations successives, tandis qu’avec la méthode de la variation des constantes, on fait deux intégrations
distinctes, ce qui est dans bien des cas, beaucoup plus simple.
Remarque 3.2. On sait que que le wronskien vérifie
W (t) = f1 f20 − f10 f2

et W 0 (t) = a(t)W (t).

Si f1 est une fonction qui ne s’annule pas sur I, alors
f1 f20 − f10 f2
W (t)
=
=
f12
f12



f2
f1

0

Ceci nous ramène encore à deux intégrations successives pour calculer f2 , mais la première donnée
par le wronskien peut être élémentaire.
3.3.3

Résolution de (E) lorsque le second membre est du type t 7→ P (t)eαt

Proposition 3.6. Soit α, b, c ∈ C et P ∈ C[X] un polynôme de degré n. L’équation
(E) : y 00 + by 0 + cy = P (t)eαt
possède une solution particulière de la forme ϕ(t) = Q(t)eαt , où Q ∈ C[X] est un polynôme tel que
- deg Q = n si α n’est pas une racine de l’équation caractéristique ;
- deg Q = n + 1 si α est une racine simple de l’équation caractéristique ;
- deg Q = n + 2 si α est une racine double de l’équation caractéristique ;
Preuve. Ceci provient du fait que P (x) exp αx admet une primitive de la forme Q(x)eαx avec
deg P = deg Q pour α 6= 0 et deg Q = deg P + 1 sinon.
Supposons que l’équation carcatéristique a deux racines distinctes r1 et r2 , alors la variation des
constantes donne

 rt

 0  


 0
e−(r1 +r2 )x r2 er2 t −er2 t
e1
er2 t
0
u1
0
u1
=
⇐⇒
=
P eαt
u02
−r1 er1 t er1 t
r1 er1 t r2 er2 t
P eαt
u02
r2 − r1
et donc


P e(α−r1 )t


 u01 = −
r2 − r1
(α−r2 )t
P
e

 u0 =

2
r2 − r1

On pose u1 = Q1 e(α−r1 )t et u2 = Q2 e(α−r2 )t avec deg Qi = deg P + εi avec εi = 1 ou 0 suivant que
α = ri ou pas. On en déduit le résultat puisque (Q1 + Q2 )eαt est solution.
Dans le cas où l’équation caractéristique a une racine double r, on pose y = ert z(t), on calcule
b
y 0 (t) = (z 0 + rz)ert et y 00 = (z 00 + 2rz 0 + r2 z)ert et l’équation s’écrit avec r = −
2
z 00 + 2rz 0 + r2 z + b(z 0 + rz) + az = z 00 = P (t)e(α−r)t
On en déduit immédiatement le résultat.
Remarque 3.3. Le cas où α est racine double a mauvaise presse car d’après la règle ci-dessus, il
faut augmenter le degré de P de 2, mais en fait il suffit de trouver Q tel que Q00 = P .
Exemple 3.5.

25

1. Chercher les solutions de (E) : y 00 + y = t2 + 1 sur R.
L’équation caractéristique x2 + 1 = 0 a deux racines complexes conjuguées i et −i, donc les
solutions de l’équation homogène sont de la forme (λ cos t + µ sin t)e0t = λ cos t + µ sin t.
De plus, t2 + 1 = (t2 + 1)e0t et 0 n’est pas racine du polynôme caractéristique, donc on
cherche une solution particulière de la forme ϕ(t) = at2 + bt + c et on calcule ϕ0 (t) = 2at + b,
ϕ00 (t) = 2a. Donc ϕ est solution de (E) si et seulement si

 a=1
b=0
2a + at2 + bt + c = t2 + 1 ⇐⇒
.

c = −1
La solution générale de (E) est donc de la forme
t 7→ t2 − 1 + λ sin t + µ cos t,

λ, µ ∈ R.

2. Résoudre y 00 − 4y 0 + 4y = (t2 + t)e2t . La solution générale est

 4
t3
t
+ + λt + µ e2t
t 7→
12
6
3.3.4

Utilisation des séries entières

Proposition 3.7. (Solutions développables en séries entières) Soit l’équation linéaire homogène
du second ordre
y 00 + a(t)y 0 + b(t)y = 0
où a et b sont des fonctions développables en série entière en t0 :
∀|t − t0 | < R, a(t) =

+∞
X

an (t − t0 )n , et b(t) =

n=0

+∞
X

bn (t − t0 )n ,

n=0

avec an et bn des réels. Alors toute solution y réelle définie dans ]t0 − R, t0 + R[ est développable
en série entière :
+∞
X
∀|t − t0 | < R, y(t) =
cn (t − t0 )n ,
n=0

avec cn des réels.
Remarque 3.4. Ce théorème est totalement hors programme, mais justifie l’utilisation des séries
entières pour résoudre une équation.
On suppose que y s’écrit sous la forme d’une série entière
y(t) =

+∞
X

cn (t − t0 )n ,

n=0

et on l’injecte dans l’équation, qui nous donne une relation entre les cn et les an et bn qui permet
de calculer cn .
La proposition ci-dessus nous assure que le rayon de convergence est non nul, mais il faudra le
vérifier.
Si l’équation n’est pas homogène, alors même si le second membre est développable en série entière, l’existence de solutions développables en série entière n’est plus assurée. La vérification est
absolument indispensable.
Exemple 3.6. On considère l’équation différentielle
xy 00 − y 0 + 4x3 y = 0

26

(E)

dont on se propose
X de déterminer les solutions sur R.
Soit y(x) =
an xn une série entière solution de (E) de rayon de convergence R > 0. On
n≥0

introduit ce développement en série entière dans (E). Après dérivation terme à terme de la série,
et réindexation des séries, on obtient :
xy 00 − y 0 + 4x3 y = −a1 + 3a3 x2 +

+∞
X


an+1 (n − 1)(n + 1) + 4an−3 xn = 0

n=3

pour tout x ∈] − R, R[. L’unicité du développement en série entière entraîne que a1 = a3 = 0,
tandis que, pour tout n ≥ 3,
4
an−3 .
an+1 = −
(n − 1)(n + 1)
En réindexant, on trouve, pour tout n ≥ 0,
an+4 = −

4
an .
(n + 2)(n + 4)

Puisque a1 et a3 sont nuls, on trouve que a4p+1 = 0 et a4p+3 = 0 pour tout p ≥ 0.
La relation de récurrence nous dit que
a4p = −

−1
4
a4(p−1) =
a4(p−1) .
(4p)(4p − 2)
2p(2p − 1)

On prouve alors aisément par récurrence que
a4p =

(−1)p
a0 .
(2p)!

De même, on obtient
a4p+2 =

(−1)p
a2 .
(2p + 1)!

p

R
En remarquant que (2p)!
tend vers 0 lorsque p tend vers l’infini, pour tout R ∈ R, on obtient que
la série entière obtenue a pour rayon de convergence +∞. De plus, on a

y(x)

= a0

X (−1)p
p≥0

(2p)!

x4p + a2

X (−1)p
x4p+2
(2p + 1)!
p≥0

2

2

= a0 cos(x ) + a2 sin(x ).
Puisque la série entière obtenue a pour rayon de convergence +∞, sa somme est solution de (E)
sur R. De plus, sur chaque intervalle ne contenant pas 0, on sait que l’ensemble des solutions de
(E) est un espace vectoriel de dimension 2. Il est donc nécessairement engendré par cos(x2 ) et
sin(x2 ). Considérons maintenant une solution y de (E) sur R. Elle est solution sur ]0, +∞[, et donc
il existe deux constantes a et b telles que
y(x) = a cos(x2 ) + b sin(x2 ) pour x > 0.
Elle est solution sur ] − ∞, 0[ et donc il existe deux constantes c et d telles que
y(x) = c cos(x2 ) + d sin(x2 ) pour x < 0.
La continuité de y en 0 entraîne que a = c puisque
a = lim+ y(x) et c = lim− y(x).
x→0

x→0

De plus, on a
y 0 (x) = −2ax sin(x2 ) + 2bx cos(x2 ) si x > 0.

27

y 00 (x) = −2a sin(x2 ) − 4ax2 cos(x2 ) + 2b cos(x2 ) − 4bx2 sin(x2 ) si x > 0.
De même, on a
y 00 (x) = −2a sin(x2 ) − 4ax2 cos(x2 ) + 2d cos(x2 ) − 4dx2 sin(x2 ) si x < 0.
Remarquons que
2b = lim+ y 00 (x) et 2d = lim− y 00 (x).
x→0

x→0

00

Pour que y soit continue en 0, il est nécessaire que b = d. Réciproquement la fonction x 7→
a cos(x2 ) + b sin(x2 ) définit bien une fonction de classe C 2 sur R.
On a donc montré que l’ensemble des solutions sur R étaient l’espace vectoriel engendré par cos x2
et sin x2 .

4

Compléments sur les EDL2

4.1

Équations et solutions périodiques

Dans ce paragraphe nous nous intéressons aux équations de la forme
y 00 + q(t)y = 0

(E)

où q est une fonction réelle continue sur R et T -périodique avec T > 0.
On se demande à quelle condition il existe une solution non nulle de (E) T -périodique.
L’étude du cas élémentaire y 00 + ay = 0 avec a ∈ R montre que la réponse n’est pas simple :
1. Si a = 0, l’ensemble des solutions de l’équation différentielle est R1 [X] et seules les fonctions
constantes conviennent.


2. Si a < 0, les solutions de l’équation sont de la forme t 7→ λe
fonction nulle convient (pourquoi ?)

−at

3. Si a > 0 , les solutions de l’équation sont de la forme t 7→ λei

√ -périodiques.
a

4.2



+ µe−



at

−at


+ µe−i

et seule la
at

qui sont

Un cas particulier

Soit q une application continue, paire et périodique de période π de R dans lui-même.
On considère l’équation différentielle sur R (E) : y”(t) + q(t)y(t) = 0.
1. Une base de l’ensemble S(E) des solutions de (E).

y1 (0) = 1
(a) Montrer qu’il existe une unique solution y1 de (E) telle que
.
y10 (0) = 0

y2 (0) = 0
On a aussi une unique solution y2 de (E) telle que
.
y20 (0) = 1
(b) Montrer que (y1 , y2 ) est une base de S(E).
(c) Montrer que y1 est paire et y2 est impaire.
(d) Montrer que y1 y20 − y10 y2 est constante.
2. Soit f l’application qui à toute solution y de (E) associe l’application :
f (y) : t → y(t + π)
(a) Montrer que f est un endomorphisme de S(E)
(b) Préciser la matrice A de f dans la base (y1 , y2 ).
On précisera ses coefficients en fonction des valeurs prises par (y1 , y2 ) et leur dérivée en
π.

28

(c) Montrer qu’il existe un réel a tel que le polynôme caractéristique de f est de la forme :
P (λ) = λ2 − 2aλ + 1
3. On suppose que a = 1.
Montrer que (E) possède une solution non nulle et périodique de période π.
4. On suppose que a = −1.
Montrer que (E) possède une solution non nulle et périodique de période 2π.
5. On suppose que |a| > 1.
Montrer que f admet deux vecteurs propres linéairement indépendants et que ce sont deux
solutions non bornées de (E).
En déduire les solutions bornées de (E).

4.3

Un résultat général

Proposition 4.1. Soit l’équation
y 00 + q(t)y = 0

(E)

où q est une fonction réelle continue sur R et T -périodique avec T > 0. Alors (E) admet toujours
une solution de la forme ϕ(t) = eµt f (t) où f est une fonction T -périodique complexe et µ ∈ C.
Preuve. Soit (f1 , f2 ) une base des solutions réelles de (E), alors pour toute solution ψ, il existe α,
β ∈ R tels que
ψ = αf1 + βf2
En particulier (f1 (t + T ), f2 (t + T )) est encore un système fondamental de solution et donc il existe
une matrice A ∈ M2 (R)

 




f1 (t + T )
a1,1 a1,2
f1 (t)
f (t)
=
=A 1
.
f2 (t + T )
a2,1 a2,2
f2 (t)
f2 (t)
On en déduit que
ψ(t + T ) = α



 f1 (t + T )
β
= α
f2 (t + T )



f1 (t)
β A
.
f2 (t)


Donc ψ est une fonction T -périodique, ssi
α

   

α
α
β A ⇐⇒ t A
=
.
β
β


β = α

Donc l’équation admet une solution T -périodique ssi A admet 1 pour valeur
  propre.
α
La matrice t A admet dans tous les cas une valeur propre λ ∈ C et soit
un vecteur propre :
β
λ α


β = α


β A ⇒ ψ(t + T ) = λψ(t).

Soit µ tel que λ = eT µ et soit
ϕ(t) = e−tµ ψ(t)
On calcule alors
ϕ(t + T ) = e−(t+T )µ ψ(t + T ) = e−(t+T )µ λψ(t) = e−(t+T )µ eT µ ψ(t) = ϕ(t)

29

Remarque 4.1. Si on a un système fondamental de solution, on peut calculer A et on sait s’il
existe une fonctions T -périodique ou pas.
Sinon, nous venons de montrer que l’on a toujours une solution de la forme ϕ(t) = eµt f (t) avec f
T -périodique. De même que l’on recherché des solutions développables en série entière, on va alors
chercher des solutions
!
+∞
X
µt
(2π/T )nit
ϕ(t) = e
c0 +
cn e
,
n=1

et on doit trouver µ et les coefficients cn : c’est ce que vous appelerez un jour le développement en
série de Fourier de f (t).

4.4

Étude des zéros d’une solution

On étudie une équation différentielle linéaire de degré 2 du type :
y 00 + ay 0 + by = 0 (E)
avec a et b des fonctions continues de I dans R.
Définition 4.1. On dit qu’une fonction de I dans K admet un zéro isolé en x0 ∈ I si f (x0 ) = 0
et s’il existe un voisinage épointé de x0 tel que f ne s’annule pas : il existe η > 0 tel que
∀x ∈]η − x0 , η + x0 [∩ (I \ {x0 }) , f (x) 6= 0.
1
1
pour
Remarque 4.2. La fonction x 7→ x2 sin si x 6= 0 et 0 sinon admet des zéros isolés en
x
2kπ
z ∈ Z∗ , mais 0 n’est pas un zéro isolé.
Proposition 4.2. Soit f ∈ C 1 (I, R) et x0 ∈ I, tel que f (x0 ) = 0 et f 0 (x0 ) 6= 0, alors x0 est un
zéro isolé de f .
Preuve. Comme f 0 (x0 ) 6= 0 et est continue elle ne s’annule pas sur un voisinage de x0 et alors f
est strictement monotone sur ce voisinage donc induit une bijection de ce voisinage sur son image,
ce qui montre le résultat.
Proposition 4.3. Si f est une solution de E sur I non identiquement nulle, alors les zéros de f
sont isolés, en particulier, f n’admet qu’un nombre fini de zéros sur tout segment.
Preuve. C’est une conséquence immédiate de la proposition précédente vu que si f est solution de
(E) et x0 ∈ I tels que f (x0 ) = f 0 (x0 ) = 0, alors f est la fonction identiquement nulle d’après le
théorème de Cauchy-Lipschitz linéaire et qu’une solution est deux fois dérivable donc de classe C 1
sur I (et même C 2 !).
Proposition 4.4. Soit (f1 , f2 ) un système fondamental de solutions de (E). Entre deux zéros
consécutifs de f1 (s’il en existe), il existe un unique zéro de f2 .
Preuve. On suppose que f1 a au moins deux zéros dans I et on note x1 < x2 deux zéros consécutifs,
c’est-à-dire, f1 ne s’annule pas ]x1 , x2 [.


f1 (x) f2 (x)
Notons W (x) = f1 (x)f20 (x) − f10 (x)f2 (x) le déterminant de
.
f10 (x) f20 (x)
Si le théorème de Cauchy linéaire nous dit que W (x) n’est jamais nul.
On en déduit que f2 (x1 )f2 (x2 ) 6= 0.
Supposons que f2 ne s’annule pas sur [x1 , x2 ], alors
 0
f1
W (x)
=− 2 .
f2
f2
f1
est donc strictement monotone et vaut 0 en x1 et x2 , ce qui est impossible.
f2
Enfin, si f2 avait deux zéros consécutifs entre x1 et x2 , alors en appliquant la proposition au système
(f2 , f1 ), on en déduirait que f1 s’annule entre x1 et x2 , ce qui est exclu.
Le quotient

30

Théorème 4.1. Soit a, b et c trois fonctions continues de I dans R telles que ∀x ∈ I, b(x) ≤ c(x).
Soit f une solution non identiquement nulle de l’équation différentielle
y 00 + ay 0 + by = 0 (E)
et soit g une solution non identiquement nulle de l’équation différentielle
e
y 00 + ay 0 + cy = 0 (E).
On suppose que f a au moins deux zéros dans I. Si x1 < x2 sont deux zéros consécutifs de f dans
I et si les fonctions f et g ne sont pas proportionnelles sur ]x1 , x2 [, alors g a au moins un zéro
dans ]x1 , x2 [.
Preuve. On peut supposer que f (x) > 0 sur ]x1 , x2 [ et alors f 0 (x1 ) > 0 et f 0 (x2 ) < 0.
Supposons que g ne s’annule pas sur ]x1 , x2 [. Quitte à changer g en −g, on peut supposer que g > 0
sur ]x1 , x2 [.
On définit la fonction ω par ω = f g 0 − f 0 g et on a

ω(x1 ) = −f 0 (x1 )g(x1 ) ≤ 0,
ω(x2 ) = −f 0 (x2 )g(x2 ) ≥ 0
En utilisant les équations différentielles vérifiées par f et g, on obtient
ω 0 = f g 00 − f 00 g = −aω + (b − c)f g.
En définisant la fonction d par
Z

x

d(x) = exp


a(t) dt ,

x0
0

avec x0 ∈ I, on a d = ad et
dω 0 + adω = d(b − c)f g ⇐⇒ (dω)0 = d(b − c)f g.
Avec d(x) > 0, f (x) > 0, g(x) > 0 et b(x) ≤ c(x) pour tout x ∈]x1 , x2 [, on en déduit que la fonction
dω est continue décroissante sur ]x1 , x2 [ avec ω(x1 ) ≤ 0 et ω(x2 ) ≥ 0, ce qui entraîne
∀x ∈]x1 , x2 [, 0 ≤ d(x2 )ω(x2 ) ≤ d(x)ω(x) ≤ d(x1 )ω(x1 ) ≤ 0
et donc ω(x) = 0 pour tout x ∈ [x1 , x2 ].
On termine en écrivant que
 0
ω(x)
f
(x) = − 2
= 0,
∀x ∈]x1 , x2 [,
g
g (x)
qui impliquerait que f et g sont proportionnelles, ce qui est exclu par hypothèse.
Corollaire 4. Soit q une fonction continue de I dans R majorée par une constante M > 0 et f
une solution non identiquement nulle sur I de l’équation
y 00 + qy = 0.
Si f admet au moins deux zéros distincts dans I, alors deux tels zéros sont distants d’au moins
π
√ .
M
Preuve. Soit x1 < x2 deux zéros consécutifs de f dans I. En désignant par g la fonction définie
sur I par

∀x ∈ I, g(x) = sin( M (x − x1 )),
on est dans la situation suivante

31

1. f est solution sur I de y 00 + qy = 0
2. g est solution sur I de y 00 + M y = 0
3. pour tout x ∈ I, q(x) ≤ M .
4. x1 < x2 sont deux zéros consécutifs de f .
La proposition précédente nous dit que si f et g ne sont pas proportionnelles, alors g s’annule sur
π
π
]x1 , x2 [. Mais les zéros de g sont les x1 + k √
avec k ∈ Z, on en déduit que x2 − x1 > k √ .
M
M

32


Aperçu du document 22eq-dif-cours.pdf - page 1/32

 
22eq-dif-cours.pdf - page 2/32
22eq-dif-cours.pdf - page 3/32
22eq-dif-cours.pdf - page 4/32
22eq-dif-cours.pdf - page 5/32
22eq-dif-cours.pdf - page 6/32
 




Télécharger le fichier (PDF)




Sur le même sujet..





Ce fichier a été mis en ligne par un utilisateur du site. Identifiant unique du document: 00438937.
⚠️  Signaler un contenu illicite
Pour plus d'informations sur notre politique de lutte contre la diffusion illicite de contenus protégés par droit d'auteur, consultez notre page dédiée.