Fichier PDF

Partage, hébergement, conversion et archivage facile de documents au format PDF

Partager un fichier Mes fichiers Convertir un fichier Boite à outils Recherche Aide Contact



CoursMonique .pdf



Nom original: CoursMonique.pdf
Titre: CoursMonique.dvi
Auteur: prigent

Ce document au format PDF 1.3 a été généré par ADOBEPS4.DRV Version 4.50 / Acrobat Distiller 5.0 (Windows), et a été envoyé sur fichier-pdf.fr le 28/06/2013 à 23:59, depuis l'adresse IP 41.224.x.x. La présente page de téléchargement du fichier a été vue 2095 fois.
Taille du document: 1.2 Mo (163 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)









Aperçu du document


Cours de CALCUL STOCHASTIQUE
Monique Jeanblanc
Septembre 2001

Contents
1 G´
en´
eralit´
es
1.1 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 D´efinition d’une tribu . . . . . . . . . . . . . . . . . .
1.1.2 Mesurabilit´e . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Tribu engendr´ee . . . . . . . . . . . . . . . . . . . . .
1.2 Probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Ensembles n´egligeables . . . . . . . . . . . . . . . . . .
1.3 Loi de probabilit´e . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Existence d’une v.a. . . . . . . . . . . . . . . . . . . .
1.3.2 Esp´erance . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.3 Int´egrabilit´e uniforme . . . . . . . . . . . . . . . . . .
1.3.4 Ind´ependance . . . . . . . . . . . . . . . . . . . . . . .
1.3.5 Probabilit´es ´equivalentes . . . . . . . . . . . . . . . . .
1.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . .
1.5 Convergence de v.a. . . . . . . . . . . . . . . . . . . . . . . .
1.5.1 Convergence presque sˆ
ure . . . . . . . . . . . . . . . .
1.5.2 Convergence quadratique, ou convergence dans L 2 (Ω)
1.5.3 Convergence en probabilit´e . . . . . . . . . . . . . . .
1.5.4 Convergence en loi . . . . . . . . . . . . . . . . . . . .
1.6 Processus stochastiques . . . . . . . . . . . . . . . . . . . . .
1.6.1 Filtration . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.2 Processus . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.3 Processus croissant . . . . . . . . . . . . . . . . . . . .
1.6.4 Processus Gaussiens . . . . . . . . . . . . . . . . . . .
1.6.5 Convergence de processus . . . . . . . . . . . . . . . .
1.7 Esp´erance conditionnelle . . . . . . . . . . . . . . . . . . . . .
1.7.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . .
1.7.2 Esp´erance conditionnelle par rapport a` une tribu . . .
1.7.3 Esp´erance conditionnelle par rapport a` une variable .
1.7.4 Propri´et´es de l’esp´erance conditionnelle . . . . . . . .
1.7.5 Variance conditionnelle . . . . . . . . . . . . . . . . .
1.7.6 Formule de Bayes . . . . . . . . . . . . . . . . . . . . .
1.8 Loi conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . . . .
1.8.2 Cas Gaussien . . . . . . . . . . . . . . . . . . . . . . .
1.9 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . .
1.9.2 Cas continu. . . . . . . . . . . . . . . . . . . . . . . .
1

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

9
9
9
10
10
11
11
11
11
11
12
12
13
13
14
14
15
15
16
16
16
17
17
17
18
18
18
18
18
19
20
20
21
21
21
21
21
22
22
22

2

CONTENTS
1.10 Temps d’arrˆet . . . . . . . . . . . . . .
1.10.1 D´efinitions . . . . . . . . . . .
1.10.2 Th´eor`eme d’arrˆet . . . . . . .
1.10.3 Processus de Markov . . . . . .
1.11 Rappels d’analyse . . . . . . . . . . . .
1.11.1 D´erivation sous le signe somme
1.11.2 Espace complet . . . . . . . . .
1.11.3 Th´eor`eme de Lebesgue domin´e

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

22
23
23
23
24
24
24
24

2 Le mouvement Brownien
2.1 Le mouvement Brownien . . . . . . . . . . . .
2.1.1 D´efinition. . . . . . . . . . . . . . . . .
2.1.2 G´en´eralisation. . . . . . . . . . . . . .
2.2 Promenade al´eatoire . . . . . . . . . . . . . .
2.3 Propri´et´es . . . . . . . . . . . . . . . . . . . .
2.3.1 Processus gaussien . . . . . . . . . . .
2.3.2 Une notation . . . . . . . . . . . . . .
2.3.3 Scaling . . . . . . . . . . . . . . . . .
2.3.4 Propri´et´e de Markov . . . . . . . . . .
2.3.5 Equation de la chaleur . . . . . . . . .
2.3.6 Trajectoires . . . . . . . . . . . . . . .
2.3.7 Propri´et´es de martingale . . . . . . . .
2.3.8 Temps d’atteinte . . . . . . . . . . . .
2.3.9 Brownien multidimensionnel . . . . . .
2.4 Int´egrale de Wiener . . . . . . . . . . . . . .
2.4.1 D´efinition . . . . . . . . . . . . . . . .
2.4.2 Propri´et´es . . . . . . . . . . . . . . . .
2.4.3 Processus li´e a` l’int´egrale stochastique
2.4.4 Int´egration par parties . . . . . . . . .
2.5 Exemples . . . . . . . . . . . . . . . . . . . .
2.5.1 Processus d’Ornstein-Uhlenbeck . . .
2.5.2 Mod`ele de Vasicek . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

25
25
25
26
26
28
28
28
28
29
29
31
32
33
34
35
35
36
36
37
37
37
39

´
3 INTEGRALE
STOCHASTIQUE
3.1 D´efinition . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Cas de processus ´etag´es . . . . . . . . . . .
3.1.2 Cas g´en´eral . . . . . . . . . . . . . . . . . .
3.2 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Lin´earit´e. . . . . . . . . . . . . . . . . . . .
3.2.2 Propri´et´es de martingale . . . . . . . . . . .
3.2.3 Un exemple . . . . . . . . . . . . . . . . . .
3.2.4 Martingale locale . . . . . . . . . . . . . . .
3.2.5 In´egalit´e maximale . . . . . . . . . . . . . .
3.3 Processus d’Itˆ
o . . . . . . . . . . . . . . . . . . . .
3.3.1 D´efinition . . . . . . . . . . . . . . . . . . .
3.3.2 Propri´et´es . . . . . . . . . . . . . . . . . . .
3.3.3 Int´egrale par rapport `a un processus d’Itˆo.
3.3.4 Crochet d’un processus d’Itˆo . . . . . . . .
3.4 Lemme d’Itˆ
o . . . . . . . . . . . . . . . . . . . . .
3.4.1 Premi`ere forme . . . . . . . . . . . . . . . .
3.4.2 Fonction d´ependant du temps . . . . . . . .
3.4.3 Cas multidimensionnel . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

41
41
41
41
42
42
42
43
43
43
44
44
44
44
44
45
45
47
47

CONTENTS
3.4.4
3.4.5
3.4.6

3
Cas du Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . .
Application a` la formule de Black et Scholes . . . . . . . . . . . . . . . . . .
APT ´evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 Equations diff´
erentielles stochastiques
4.1 Equations diff´erentielles stochastiques . . .
4.1.1 D´efinition . . . . . . . . . . . . . . .
4.1.2 Th´eor`eme d’existence . . . . . . . .
4.1.3 Propri´et´e de Markov . . . . . . . . .
4.1.4 Th´eor`eme de comparaison . . . . . .
4.1.5 Exemple : Martingale exponentielle
4.2 Equations aux d´eriv´ees partielles . . . . . .
4.2.1 Probl`eme parabolique . . . . . . . .
4.2.2 G´en´eralisation . . . . . . . . . . . .
4.2.3 Formule de Black et Scholes . . . . .
4.2.4 Formule de Feynman-Kac . . . . . .

48
49
49

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

51
51
51
51
52
52
53
53
53
54
55
55

5 Exemples de processus d’Itˆ
o
5.1 Le brownien g´eom´etrique . . . . . . . . . . . . .
5.1.1 Forme explicite du Brownien g´eom´etrique
5.1.2 Moments . . . . . . . . . . . . . . . . . .
5.1.3 Unicit´e de la solution . . . . . . . . . . .
5.2 Mod`ele de Cox-Ingersoll-Ross . . . . . . . . . . .
5.3 Processus de Bessel et carr´e de Bessel . . . . . .
5.4 Definitions . . . . . . . . . . . . . . . . . . . . . .
5.4.1 Norm of Brownian motion . . . . . . . . .
5.4.2 General definition . . . . . . . . . . . . .
5.4.3 Scaling properties . . . . . . . . . . . . .
5.4.4 Absolute continuity . . . . . . . . . . . .
5.5 Properties . . . . . . . . . . . . . . . . . . . . . .
5.5.1 Additivity of BESQ . . . . . . . . . . . .
5.5.2 Transition densities . . . . . . . . . . . . .
5.5.3 Bessel processes . . . . . . . . . . . . . . .
5.5.4 Lamperti theorem . . . . . . . . . . . . .
5.5.5 Laplace transforms . . . . . . . . . . . . .
5.6 CIR and CEV processes . . . . . . . . . . . . . .
5.6.1 CIR processes and BESQ . . . . . . . . .
5.6.2 Transition probabilities for a CIR process
5.6.3 CIR model . . . . . . . . . . . . . . . . .
5.6.4 Extended CIR process . . . . . . . . . . .
5.6.5 CEV process . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

59
59
59
60
60
60
63
63
63
63
65
65
66
66
66
67
68
69
71
71
72
72
73
73

. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
march´e complet

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

75
75
75
76
77
77
78
79
79
79

6

´
CHANGEMENT DE PROBABILITE
6.1 Th´eor`eme de Girsanov . . . . . . . . . .
6.1.1 Changement de probabilit´e . . .
6.1.2 Th´eor`eme de Girsanov . . . . . .
6.1.3 Remarques . . . . . . . . . . . .
6.1.4 Exercices . . . . . . . . . . . . .
6.1.5 Cas vectoriel . . . . . . . . . . .
6.2 Processus de Bessel . . . . . . . . . . . .
6.3 Application aux mod`eles financiers . . .
6.3.1 Application a` la valorisation d’un

.
.
.
.
.
.
.
.
.
.
.

. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
actif

.
.
.
.
.
.
.
.
.
.
.

. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
contingent en

4

CONTENTS
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

80
80
81
82
84
84

7 Hitting Times
7.1 Hitting times of a level and law of the maximum for Brownian motion
7.1.1 Law of the pair of the random variables (Wt ; M t ) . . . . . . . .
7.1.2 Law of the supremum . . . . . . . . . . . . . . . . . . . . . . .
7.1.3 Law of the hitting time . . . . . . . . . . . . . . . . . . . . . .
7.1.4 Law of the infimum . . . . . . . . . . . . . . . . . . . . . . . .
7.1.5 Laplace transform of the hitting time . . . . . . . . . . . . . .
7.2 Hitting times for a Drifted Brownian motion . . . . . . . . . . . . . .
7.2.1 Laws of the pairs M ; X and m; X at time t . . . . . . . . . . .
7.2.2 Laws of maximum, minimum and hitting times . . . . . . . . .
7.2.3 Laplace transforms . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.4 Computation of E (11T y (X )< t e−¸ T y (X ) ) . . . . . . . . . . . . . .
7.2.5 Normal Inverse Gaussian law . . . . . . . . . . . . . . . . . . .
7.3 Hitting Times for Geometric Brownian Motion . . . . . . . . . . . . .
7.3.1 Laplace transforms . . . . . . . . . . . . . . . . . . . . . . . . .
7.3.2 Computation of E (e−¸ T a (S ) 11T a (S )< t ) . . . . . . . . . . . . . . .
7.4 Other processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.1 OU Process . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Non-constant Barrier . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6 Hitting time of a two-sided barrier. . . . . . . . . . . . . . . . . . . . .
7.6.1 Brownian case . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6.2 Drifted Brownian motion . . . . . . . . . . . . . . . . . . . . .
7.7 Bessel Processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

87
87
87
88
88
89
89
90
90
91
91
92
92
92
93
93
94
94
94
95
95
96
96

8 Compl´
ements sur le mouvement Brownien
8.1 Th´eor`eme de repr´esentation pr´evisible . . . . . . . . . . .
8.1.1 Repr´esentation pr´evisible . . . . . . . . . . . . . .
8.1.2 Repr´esentation pr´evisible et th´eor`eme de Girsanov
8.1.3 Calcul de Malliavin . . . . . . . . . . . . . . . . . .
8.2 Equations diff´erentielles stochastiques r´etrogrades . . . . .
8.3 Changement de temps . . . . . . . . . . . . . . . . . . . .
8.3.1 Inverse d’un changement de temps . . . . . . . . .
8.3.2 Brownien et changement de temps . . . . . . . . .
8.3.3 Application aux Processus de Bessel . . . . . . . .
8.3.4 Application aux processus d’Ornstein-Uhlenbeck .
8.3.5 Application aux processus de Cox-Ingersoll-Ross .
8.3.6 Pont de Bessel et processus de CIR . . . . . . . . .
8.4 Temps local . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Temps d’occupation . . . . . . . . . . . . . . . . .
8.4.2 Formule de Tanaka . . . . . . . . . . . . . . . . . .
8.4.3 Le lemme de r´eflexion de Skohorod . . . . . . . . .
8.4.4 Temps local d’une semi-martingale . . . . . . . . .
8.5 Ponts, excursions et m´eandres . . . . . . . . . . . . . . . .
8.5.1 Les z´eros du Brownien . . . . . . . . . . . . . . . .
8.5.2 Excursions . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

99
99
99
100
100
101
102
102
102
103
104
104
105
105
105
107
107
108
110
110
110

6.4

6.3.2 Cas g´en´eral . . . . . . . . . .
Probabilit´e forward-neutre . . . . . .
6.4.1 D´efinitions . . . . . . . . . .
6.4.2 Changement de num´eraire .
6.4.3 Changement de num´eraire . .
6.4.4 Valorisation d’une option sur

. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
obligation

.
.
.
.
.
a`

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
coupons

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

CONTENTS

8.6

5

8.5.3 Pont Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.5.4 M´eandre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
Le Brownien Fractionnaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

9 Processus `
a sauts
9.1 Processus de Poisson . . . . . . . . . . . . . . . . . .
9.1.1 Processus de comptage . . . . . . . . . . . . .
9.1.2 Le Processus de Poisson standard . . . . . . .
9.1.3 Processus de Poisson d’intensit´e d´eterministe
9.1.4 Processus a` un seul saut . . . . . . . . . . . .
9.2 Itˆ
o formula . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Processus a` variation finie . . . . . . . . . . .
9.2.2 Integration by part formula . . . . . . . . . .
9.2.3 Itˆ
o’s formula . . . . . . . . . . . . . . . . . .
9.2.4 Predictable representation theorem . . . . . .
9.3 Exponential Martingales . . . . . . . . . . . . . . . .
9.3.1 A particular case . . . . . . . . . . . . . . . .
9.3.2 General case . . . . . . . . . . . . . . . . . .
9.3.3 Change of probability . . . . . . . . . . . . .
9.3.4 Example . . . . . . . . . . . . . . . . . . . . .
9.4 Mixed processes . . . . . . . . . . . . . . . . . . . . .
9.4.1 Definition . . . . . . . . . . . . . . . . . . . .
9.4.2 Tribu pr´evisible . . . . . . . . . . . . . . . . .
9.4.3 Covariation . . . . . . . . . . . . . . . . . . .
9.4.4 Itˆ
o formula . . . . . . . . . . . . . . . . . . .
9.4.5 Feynman-Kac formula . . . . . . . . . . . . .
9.4.6 Exponential martingales . . . . . . . . . . . .
9.4.7 Predictable representation theorem . . . . . .
9.5 Example of price modelling . . . . . . . . . . . . . .
9.5.1 The model . . . . . . . . . . . . . . . . . . .
9.5.2 Computation of the moments . . . . . . . . .
9.5.3 Hitting times . . . . . . . . . . . . . . . . . .
9.5.4 PDE for option’s prices . . . . . . . . . . . .
9.6 Incompletion . . . . . . . . . . . . . . . . . . . . . .
9.6.1 Risk-neutral probability measures set . . . .
9.6.2 Range of prices . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

115
115
115
116
117
120
121
121
121
121
122
122
122
123
123
124
124
124
124
124
125
127
127
128
128
128
128
129
130
130
131
132

10 THEORIE DES PROCESSUS
10.1 Definitions . . . . . . . . . . . . . . . . . . .
10.1.1 Encore des tribus . . . . . . . . . . .
10.1.2 Temps d’arrˆet . . . . . . . . . . . . .
10.1.3 Crochet de martingales continues . .
10.1.4 Processus `a variation finie . . . . . .
10.2 Semimartingales . . . . . . . . . . . . . . .
10.2.1 Crochet oblique de semi-martingales
10.2.2 Variation quadratique, crochet droit
10.2.3 Orthogonalit´e . . . . . . . . . . . . .
10.3 Formule d’Itˆ
o . . . . . . . . . . . . . . . . .
10.3.1 Processus `a valeur dans IR . . . . . .
10.3.2 Cas multidimensionnel . . . . . . . .
10.4 Th´eor`eme de Girsanov . . . . . . . . . . . .
10.4.1 Exponentielle de martingale . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

137
137
137
137
138
138
138
139
139
139
140
140
140
140
140

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

6

CONTENTS
10.4.2 Changement de probabilit´e
10.5 Mod`eles de prix . . . . . . . . . . .
10.5.1 Equation de structure . . .
10.5.2 Mod`ele de Protter . . . . .
10.5.3 Mod`ele de Privault . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

141
142
142
142
142

11 Processus `
a sauts
11.1 Processus d’intensit´e stochastique . . . . . . . . . . . . . .
11.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . .
11.1.2 Construction de processus d’intensit´e stochastique
11.2 Changement de probabilit´e . . . . . . . . . . . . . . . . .
11.3 Le mod`ele de Merton . . . . . . . . . . . . . . . . . . . . .
11.3.1 Le mod`ele . . . . . . . . . . . . . . . . . . . . . . .
11.3.2 The valuation of the European option . . . . . . .
11.4 Processus marqu´es . . . . . . . . . . . . . . . . . . . . . .
11.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.5.1 Mesure de Poisson . . . . . . . . . . . . . . . . . .
11.5.2 Processus ponctuel . . . . . . . . . . . . . . . . . .
11.6 Mesures al´eatoires . . . . . . . . . . . . . . . . . . . . . .
11.7 L´evy Process . . . . . . . . . . . . . . . . . . . . . . . . .
11.7.1 Stable and infinitely divisible random variables . .
11.7.2 Definition and main properties of a L´evy Process .
11.7.3 Girsanov theorem . . . . . . . . . . . . . . . . . .
11.7.4 Pecherskii-Rogozin identity . . . . . . . . . . . . .
11.7.5 Subordinator . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

147
147
147
147
148
148
148
148
150
150
150
150
150
151
151
152
155
155
155

CONTENTS

Begin at the beginning, and go on till you come to the end. Then, stop.
L. Caroll, Alice’s Adventures in Wonderland

7

8

CONTENTS

Chapter 1


en´
eralit´
es
Dans ce chapitre aride sont rassembl´ees les notions de base de th´eorie des probabilit´es qui seront
utilis´ees dans toute la suite du cours1 . L’espace de probabilit´e sur lequel on travaille est not´e Ω.
Pour les d´emonstrations et de plus amples informations, consulter les ouvrages de Breiman [14].

1.1

Tribu

L’espace Ω est un espace abstrait dont les ´el´ements sont not´es ! . Un sous-ensemble de Ω est
un ´ev´enement. Dans certaines parties de cours, on pr´ecisera la structure de Ω en construisant
explicitement cet espace. Dans la plupart des cas, la structure de Ω n’a pas de rˆole a` jouer. Par
contre, lorsque l’on veut construire une variable al´eatoire de loi donn´ee, un choix judicieux de Ω
s’impose : il est impossible de construire une v.a. sur un espace quelconque donn´e a` l’avance.
Cette difficult´e s’accroit quand il s’agit de construire plusieurs v.a. (ou une suite) ind´ependantes.
Nous n’aborderons pas ces probl`emes ici (Voir Breiman [14]). On pourra regarder le paragraphe
concernant l’existence d’une v.a. (voir ci-dessous) pour une approche du probl`eme.

1.1.1


efinition d’une tribu


efinition 1.1.1 Une tribu (¾-algebra en Anglais) sur Ω est une famille de parties de Ω, contenant l’ensemble vide, stable par passage au compl´ementaire, union d´enombrable et intersection
d´enombrable.
Une tribu contient donc l’espace Ω.
Un espace mesurable est un espace muni d’une tribu.
Proposition 1.1.1 Une intersection de tribus est une tribu.
Attention : ce n’est pas vrai pour la r´eunion : une r´eunion de tribus n’est pas une tribu.
Soit F une tribu. Une sous-tribu de F est une tribu G telle que G ⊂ F, soit A ∈ G implique
A ∈ F.
La plus petite tribu contenant une famille d’ensembles est l’intersection de toutes les tribus qui
contiennent cette famille. Elle est en g´en´eral difficile (voire impossible) a` d´ecrire plus pr´ecisement.
Exemple 1.1.1 la tribu des bor´eliens de IR. C’est la plus petite tribu contenant tous les intervalles ouverts (ou ferm´es, ou ouverts `a droite ferm´es a` gauche...). On la note BIR . On peut
trouver des sous ensembles de IR qui ne sont pas des bor´eliens, mais ils sont difficiles a` exhiber.
Voir Neveu [44].
1 Give

us the tools, and we will finish the work. Winston Churchill, February 9, 1941.

9

10

G´en´eralit´es

1.1.2

Mesurabilit´
e


efinition 1.1.2 Soit (Ω; F) et (E ; E) deux espaces mesurables. Une application f de Ω dans E
est dite (F; E) mesurable si f −1 (A) ∈ F; ∀A ∈ E, o`
u
def

f −1 (A) = {! ∈ Ω |f (! ) ∈ A }:
Lorsqu’il n’y a pas d’ambigu¨ıt´e sur les tribus employ´ees, on dit simplement que f est mesurable.
Une fonction f de IR dans IR est bor´elienne si elle est (BIR ; BIR )-mesurable, soit f −1 (A) ∈
BIR ; ∀A ∈ BIR . Il suffit que cette propri´et´e soit v´erifi´ee pour les intervalles A.
Les fonctions continues sont bor´eliennes.


efinition 1.1.3 Soit (Ω; F) un espace mesurable. Une variable al´eatoire r´eelle (v.a.r.) X est
une application mesurable de (Ω; F) dans IR ( donc telle que X −1 (A) ∈ F; ∀A ∈ BIR ).
Une constante est une v.a. de mˆeme qu’une fonction indicatrice d’ensemble de la tribu F.
Proposition 1.1.2 Si X est une v.a.r. G-mesurable et f une fonction bor´elienne, f (X ) est
G-mesurable.
Une v.a. G mesurable est limite croissante de v.a. du type
bor´elienne est limite croissante de fonctions du type

n
X

n
X
i =1

a i 11A i avec Ai ∈ G. Une fonction

a i 11A i o`
u Ai est un intervalle.

i =1

1.1.3

Tribu engendr´
ee


efinition 1.1.4 La tribu engendr´ee par une famille d’ensembles A est la plus petite tribu contenant cette famille, on la note ¾(A). Elle est l’intersection de toutes les tribus contenant A.
Si F1 et F2 sont deux tribus, on note F1 ∨ F2 la tribu engendr´ee par F1 ∪ F2 . C’est la plus petite
tribu contenant les deux tribus F1 et F2 .

efinition 1.1.5 La tribu engendr´ee par une variable al´eatoire X d´efinie sur (Ω; F) est l’ensemble
des parties de Ω qui s’´ecrivent X −1 (A) o`
u A ∈ BIR . On note cette tribu ¾(X ).
La tribu ¾(X ) est contenue dans F. C’est la plus petite tribu sur Ω rendant X mesurable.
Une v.a.r. X est G-mesurable si ¾(X ) ⊂ G.
Propri´et´e: si Y est une application de Ω dans IR, ¾(X ) mesurable (c’est-`
a-dire telle que Y −1 (A) ∈
¾(X ); ∀A ∈ BIR ou encore ¾(Y) ⊂ ¾(X )), il existe une fonction bor´elienne f , de IR dans IR telle
que Y = f (X ), et r´eciproquement.

efinition 1.1.6 La tribu engendr´ee par une famille de variables al´eatoires (X t ; t ∈ [0; T ]) est
la plus petite tribu contenant les ensembles {X t−1 (A)} pour tout t ∈ [0; T ] et A ∈ BIR . On la note
¾(X t ; t ≤ T ).

January 11, 2002

1.2
1.2.1

11

Probabilit´
e

efinition

Une probabilit´e sur (Ω; F) est une application P de F dans [0; 1] telle que
a) P (Ω) = 1;
P∞
b) P (∪∞
a F deux `a deux disjoints.
n =0 An ) =
n =0 P (A n ) pour des An appartenant `

R
R
Notation: P (A) = A dP = Ω 11A dP o`
u 11A (fonction indicatrice) est la fonction d´efinie sur Ω
par 11A (! ) = 1 si ! ∈ A et 11A (! ) = 0 si ! ∈
= A.

1.2.2

Propri´
et´
es

On a P (A) + P (Ac ) = 1 pour tout A appartenant `a F.
Si A ⊂ B , alors P (A) ≤ P (B ) et P (B ) = P (A) + P (B − A), o`
u B − A = B ∩ Ac .
Si les An forment une suite croissante (resp. d´ecroissante) d’´el´ements de F, c’est-`
a-dire si An ⊂
An +1 (resp. An ⊃ An +1 ), et si A = ∪n An (resp. A = ∩n An ) alors A appartient `a F et
P (A) = lim P (An ).
Th´eor`eme de classe monotone: Soit P et Q deux probabilit´es sur (Ω; F; P ) telles que P (A) = Q(A)
pour tout A ∈ C, o`
u C est une famille stable par intersection finie et engendrant F. Alors P = Q
sur F.
Remarque: on prendra soin, pour appliquer ce th´eor`eme, de v´erifier la stabilit´e par intersection
de C (c’est-`
a-dire de montrer que si C 1 ∈ C; C 2 ∈ C, l’intersection C 1 ∩ C 2 appartient `a C).

1.2.3

Ensembles n´
egligeables

Un ensemble est dit n´egligeable s’il est de probabilit´e nulle.
Une union d´enombrable d’ensembles n´egligeables est n´egligeable.
Une propri´et´e est vraie presque surement (p.s.) si elle est vraie en dehors d’un ensemble n´egligeable.
On dit aussi que la propri´et´e est vraie pour presque tout ! .
Un espace (Ω; F; P ) est dit complet s’il contient tous les ensembles G tels que inf{P (F ) : F ∈
F; G ⊂ F } = 0.

1.3

Loi de probabilit´
e


efinition 1.3.1 Soit X une variable al´eatoire d´efinie sur (Ω; F; P ). La loi de X est la probabilit´e
P X sur (IR; BIR ) d´efinie par P X (A) = P {! ; X (! ) ∈ A} = P (X ∈ A); ∀A ∈ BIR .
On d´efinit aussi la fonction de r´epartition de la variable X . C’est la fonction croissante d´efinie
sur IR par F (x) = P (X ≤ x).
Certains auteurs utilisent P (X < x) comme fonction de r´epartition. Les deux expressions ne
diff´erent qu’en un nombre au plus d´enombrable de valeurs de x, et les modifications sont minimes.
La fonction de r´epartition que nous utilisons ici est continue `a droite, l’autre d´efinition conduit `a
une fonction continue `a gauche, les deux fonctions ´etant ´egales en tout point de continuit´e.
La densit´e f (x) d’une variable al´eatoire est la d´eriv´ee de la fonction de r´epartition (si cette d´eriv´ee
R
Rb
existe). On peut alors ´ecrire P (X ∈ A) = A f (x)dx. En particulier P (X ∈ [a; b] ) = a f (x)dx.
Il nous arrivera alors d’utiliser la notation diff´erentielle P (X ∈ dx) pour d´esigner f (x)dx.
Lorsque deux v.a. ont mˆeme loi (ou mˆeme fonction de r´epartition, ou mˆeme densit´e) on dit
qu’elles sont ´egales en loi. On utilisera tr`es souvent la remarque ´el´ementaire suivante : si X et Y
sont deux v.a. telles que P (X ≤ a) = P (Y ≤ a); ∀a ∈ IR, alors X et Y ont mˆeme loi, ce que l’on
loi
notera X = Y.

12

1.3.1

G´en´eralit´es

Existence d’une v.a.

To construct a random variable with a given law, say a Gaussian variable, the canonical way
is to choose Ω = IR. Then, define the r.v. X : ! → ! as the identity map and construct
the lax P on Ω = IR with the Gaussian density with respect to the Lebesgue measure, i.e.
!2
1
P (d! ) = √ exp − d! (Do not forget that here ! is a real number). Then the repartition
2

function of X is
Z
Z x
!2
1
√ exp − d!
F X (x) = P (X < x) = 11! < x P (d! ) =
2

−∞
For two independent gaussian variables, choose Ω = Ω1 × Ω2 , then on each Ωi , construct a gaussian variable as above, and define P = P 1 ⊗ P 2 . If you need to construct a r.v. with exponential
law, just choose Ω = IR + .

1.3.2

Esp´
erance

R
L’esp´erance d’une variable al´eatoire X est par d´efinition la quantit´e Ω X dP que l’on note E (X )
ou E P (X ) si l’on d´esire pr´eciser quelle est la probabilit´e utilis´ee sur Ω. Cette quantit´e peut ne
pas exister.
Pour calculer cette
int´egrale,
R
R on passe dans “l’espace image” et on obtient, par d´efinition de la loi
de probabilit´e Ω X dP = IR xdP X (x).
Il
a-dire pour lesquelles l’int´egrale
R existe des variables al´eatoires qui n’ont pas d’esp´erance, c’est-`
X dP n’a pas de sens. On dit que X est int´egrable si |X | a une esp´erance finie. On note L 1 (Ω)

l’ensemble des v.a. int´egrables.( ou L 1 (Ω; P ) si l’on veut pr´eciser la probabilit´e utilis´ee). L’espace
L 1 (Ω) contient le v.a. born´ees (et les constantes)
De la mˆeme fa¸con, on d´efinit pour toute fonction bor´elienne Φ telle que Φ(X ) soit int´egrable (ce
qui a lieu par exemple si Φ est born´ee)
Z
Z
E (Φ(X )) =
Φ(X )dP =
Φ(x)dP X (x):
IR



R
Si X admet une densit´e f , on a E (X ) = IR xf (x)dx et E (Φ(X )) = IR Φ(x)f (x)dx. Dans ce cas,
on notera souvent P (X ∈ dx) = f (x)dx.
Si l’on connait E (Φ(X )) pour toute fonction Φ bor´elienne born´ee, on connait la loi de X : l’´egalit´e
E (Φ(X )) = E (Φ(Y)) pour toute fonction bor´elienne born´ee Φ implique l’´egalit´e en loi de X et Y.
Attention : l’´egalit´e en loi n’est pas l’´egalit´e presque sure. Par exemple, si X est une gaussienne
loi
centr´ee, on a X = −X et ces deux variables ne sont pas ´egales presque surement.
En fait, il suffit que l’´egalit´e E (Φ(X )) = E (Φ(Y)) soit v´erifi´ee pour une classe suffisamment riche
de fonctions, par exemple pour les fonctions indicatrices de bor´eliens, ou d’intervalles, ou pour les
loi
fonctions de la forme e¸ x ; ¸ ∈ IR pour avoir X = Y.
La fonction caract´eristique d’une v.a.r. est la transform´ee de Fourier de la loi de X , c’est-`
a-dire
la fonction
Z
Ã(t) = E (ei t X ) =
ei t x P X (dx):
R

IR

R
Si X admet une densit´e f (x), la fonction caract´eristique de X est IR ei t x f (x) dx. La fonction
caract´eristique caract´erise la loi de X au sens o`
u la connaissance de cette fonction d´etermine la
loi de la variable. Si la transform´ee de Fourier à appartient `a L 1 (dx), c’est-`
a-dire si son module
est int´egrable par rapport a` la mesure de Lebesgue dx, la densit´e associ´ee (unique) est donn´ee par
la formule d’inversion
Z ∞
1
f (x) =
e−i t x Á(t)dt
2¼ −∞

January 11, 2002

13

def

La fonction Ψ(¸ ) = E (e¸ X ) que l’on appelle transform´ee de Laplace caract´erise aussi la loi d’une
variable. Mais dans ce cas il n’y a pas de formule d’inversion simple. Pour connaˆıtre la loi d’un
couple (X ; Y), il suffit de connaˆıtre E (exp(¸ X + ¹ Y)) pour tout couple (¸ ; ¹ ). Lorsque la v.a. X
est positive, on utilise de pr´ef´erence E (e−¸ X ) comme transform´ee de Laplace, d´efinie alors pour
tout ¸ ≥ 0.
Exemple 1.3.1 Exemple fondamental Si X est une variable gaussienne de loi N (m; ¾2 ), on
2 2
a E (e¸ X ) = exp(¸ m + ¸ 2¾ ) et r´eciproquement.
Proposition 1.3.1 Propri´
et´
es de l’esp´
erance a. L’esp´erance est lin´eaire par rapport a
` la
variable, c’est `
a dire
E (aX + bY) = aE (X ) + bE (Y);
a et b ´etant des r´eels.
b. L’esp´erance est croissante: si X ≤ Y (p.s), on a E (X ) ≤ E (Y).
c. In´egalit´e de Jensen : si Φ est une fonction convexe, telle que Φ(X ) est int´egrable, E (Φ(X )) ≥
Φ(E (X )).

1.3.3

Int´
egrabilit´
e uniforme

R
Une famille de v.a. (X i ; i ∈ I ) est dite uniform´ement int´egrable si supi |X i |≥a |X i |dP → 0 quand
a → ∞.
S’il existe Y ∈ L 1 (P ) telle que |X i | ≤ Y; ∀i, la famille (X i ; i ∈ I ) est uniform´ement int´egrable.

1.3.4

Ind´
ependance


efinition 1.3.2 Deux sous-tribus F1 et F2 sont ind´ependantes si
P (A ∩ B ) = P (A)P (B ); ∀A ∈ F1 ; ∀B ∈ F2 :
Pour que deux tribus F1 et F2 soient ind´ependantes, il faut et il suffit que P (A ∩B ) = P (A)P (B ),
u Ci est une famille stable par intersection telle que ¾(Ci ) = Fi .
∀A ∈ C1 ; ∀B ∈ C2 o`

efinition 1.3.3 Une variable al´eatoire X est ind´ependante d’une sous-tribu G si les tribus ¾(X )
et G sont ind´ependantes.
Proposition 1.3.2 La v.a. X est ind´ependante de la sous-tribu G si et seulement si
P {A ∩ (X ≤ x)} = P (A)P (X ≤ x); ∀x ∈ IR; ∀A ∈ G:
Deux variables (X ; Y) sont ind´ependantes si les tribus ¾(X ) et ¾(Y) sont ind´ependantes.
Proposition 1.3.3 Les v.a. X et Y sont ind´ependantes si et seulement si
P {(X ≤ x) ∩ (Y ≤ y)} = P (X ≤ x)P (Y ≤ y); ∀x ∈ IR; ∀y ∈ IR :
Si X et Y sont ind´ependantes, E (X Y) = E (X )E (Y). (La r´eciproque n’est pas vraie)
Si X et Y sont ind´ependantes, f (X ) et g(Y) aussi.
Si X et Y sont ind´ependantes, on peut calculer E (' (X ; Y)) de deux fa¸cons :
E (' (X ; Y)) = E (f (X )) = E (g(Y)); avec f (x) = E (' (x; Y)); g(y) = E (' (X ; y))

14

G´en´eralit´es

Proposition 1.3.4 Les v.a. X et Y sont ind´ependantes si et seulement si
E (f (X ) g(Y)) = E (f (X )) E (g(Y)) pour toutes fonctions f et g bor´eliennes born´ees:
Il suffit que cette ´egalit´e ait lieu pour une classe suffisamment riche de fonctions f et g, par
exemple pour les fonctions indicatrices. Si X et Y sont `a valeurs positives, il suffit que l’´egalit´e
soit v´erifi´ee pour f (x) = exp(−¸ x) et g(x) = exp(−¹ x) pour tous ¸ ; ¹ positifs.
Une famille de sous-tribus (FiQ
; i ∈ IN ) est ind´ependante si toutes les sous familles finies le sont,
c’est-`
a-dire si P (∩1≤i ≤n Ai ) = 1≤i ≤n P (Ai ); ∀Ai ∈ Fi ; ∀n. Mˆeme d´efinition pour une famille non
d´enombrable.
Mˆeme d´efinition pour une famille de variables al´eatoires.

1.3.5

Probabilit´
es ´
equivalentes


efinition 1.3.4 Deux probabilit´es P et Q d´efinies sur le mˆeme espace (Ω; F) sont dites ´equivalentes
si elles ont mˆemes ensembles n´egligeables, c’est `
a dire si
P (A) = 0 ⇐⇒ Q(A) = 0:

Une propri´et´e vraie P p.s. est alors vraie Q p.s.
Si P et Q sont ´equivalentes, il existe une variable Y, strictement positive, F-mesurable, d’esp´
R erance 1 sous P appel´ee densit´e de Radon-Nikodym telle que dQ = YdP ou encore Q(A) = A YdP .
dQ
= Y. R´eciproquement, si Y est une v.a.
On ´ecrit ´egalement cette relation sous la forme
dP
strictement positive, F-mesurable, d’esp´erance 1 sous P , la relation E Q (Z ) = E P (Z Y) d´efinit
une probabilit´e Q ´equivalente a` P . Elle est facile a` m´emoriser par la r`egle de calcul formel
suivante:
Z
Z
Z
dQ
E Q (Z ) = Z dQ = Z
dP = Z YdP = E P (Z Y)
dP
dP
1
= .
dQ
Y
Si Y est seulement positive, on a P (A) = 0 =⇒ Q(A) = 0 et on dit que Q est absolument continue
par rapport `a P .

On a aussi

Exemple 1.3.2 1. Soit U une variable de Bernoulli sous P d´efinie par
P (U = 0) = 1 − p;

P (U = 1) = p:

Soit Y la variable d´efinie par Y = ¸ U + ¹ (1 − U). Elle est d’esp´erance 1 pour ¸ p + ¹ (1 − p) =
1; ¸ ; ¹ > 0. Soit dQ = YdP , on a Q(U = 1) = ¸ p. Sous Q , U est une variable de Bernoulli de
param`etre ¸ p.
2. Si X est une v.a. de loi N (m; ¾2 ) sous P et soit Y = exp{h(X − m) − 12 h 2 ¾2 }. Soit
dQ = YdP . Sous Q, X est une v.a. de loi N (m + h¾2 ; ¾2 ).
D´emonstration : Il suffit de calculer E Q {exp(¸ X )}) = E P {Y exp(¸ X )} et de v´erifier que E Q (exp ¸ X ) =
2 2
exp[¸ (m + h¾2 ) + ¸ 2¾ ] 2.
3. Soit X est un vecteur gaussien sous P et U une variable telle
1
que le vesteur (X ; U) soit gaussien. On pose dQ = YdP avec Y = exp(U − E P (U) − VarP U),
2
le vecteur X est gaussien sous Q, de mˆeme covariance que sous P .

1.4

Variables gaussiennes

Une variable X est gaussienne de loi N (m; ¾2 ) si elle a pour densit´e
1
(x − m)2
:
N (m; ¾2 )(x) = √ exp −
2¾2
¾ 2¼

January 11, 2002

15

On consid`ere qu’une v.a. constante suit une loi gaussienne de variance nulle, ce qui correspond
a une masse de Dirac. La mesure de Dirac ±a au point a est une probabilit´e sur IR telle que
`
Z
f (x)±a (dx) = f (a) et correspond `a une v.a. constante ´egale a` a.
IR

2
T

Penfinition 1.4.1 Un vecteur X = (X 1 ; X 2 ; : : : ; X n ) est gaussien si toute combinaison lin´eaire
a valeurs r´eelles.
i =1 a i X i est une variable gaussienne `

On caract´erise la loi de X par son vecteur esp´erance et sa matrice de covariance
Γ = [¾i ;j ]i =1;n ; j =1;n

o`
u ¾i ;j = E (X i X j ) − E (X i )E (X j ). La loi de X admet une densit´e si la matrice Γ est inversible.
Si deux variables forment un couple gaussien de covariance nulle, elles sont ind´ependantes.
Si (X ; Y) est un vecteur Gaussien, il existe ® tel que X − ®Y est ind´ependant de X .
Si X et Y sont des gaussiennes ind´ependantes, aX + bY est une gaussienne et le couple (X ; Y)
est gaussien. Ce n’est en g´en´eral pas vrai si les variables ne sont pas ind´ependantes.
Enfin, nous rappelons une nouvelle fois le r´esultat important suivant
Proposition 1.4.1 Si X est une variable gaussienne de loi N (m; ¾2 ), on a, pour tout ¸ r´eel,
2 2
2 2
E (e¸ X ) = exp(¸ m + ¸ 2¾ ) . R´eciproquement si pour tout ¸ ∈ IR, E (e¸ X ) = exp(¸ m + ¸ 2¾ ), la
2
variable X est de loi N (m; ¾ ).

1.5

Convergence de v.a.

L’espace (Ω; F; P ) est fix´e. Toutes les variables al´eatoires sont d´efinies sur cet espace.
On distingue plusieurs types de convergence:

1.5.1

Convergence presque sˆ
ure

Une suite de variables al´eatoires X n converge p.s. vers X si pour presque tout ! ,
X n (! ) → X (! ) quand n → ∞:
p:s :

On note X n → X
P :p:s :
Cette notion de convergence d´epend du choix de P . Si Q est ´equivalente a` P et si X n → X ,
Q :p:s :
on a X n → X .
Th´eor`eme de convergence monotone: Si X n est une suite de variables al´eatoires monotone (soit
X n ≤ X n +1 ) et si X = limp:s : X n , on a E (X ) = lim E (X n ) .
Th´eor`eme de Lebesgue domin´e: Si X n est une suite de variables al´eatoires convergeant p.s. vers
X et s’il existe une variable al´eatoire Y int´egrable telle que |X n | ≤ Y, alors E (X n ) converge vers
E (X ).

Th´
eor`
eme 1.5.1 Loi des grandsPnombresSi (X i ; i ≥ 1) est une suite de v.a. ´equidistribu´ees,
ind´ependantes d’esp´erance finie, n1 ni=1 X i converge p.s. vers E (X 1 ).
2 L’exposant T


esigne la transposition

16

1.5.2

G´en´eralit´es

Convergence quadratique, ou convergence dans L 2 (Ω)
def

On note kX k2 =

sZ



X 2 dP =

p
E (X 2 ). On identifie deux v.a. ´egales p.s., ainsi on d´efinit ainsi

la norme || · || sur l’espace des v.a. de carr´e int´egrable. On dit que X ∈ L 2 (Ω) (ou L 2 (Ω; P )) si
kX k2 < ∞. Soit X n ∈ L 2 et X ∈ L 2 . La suite de variables al´eatoires (X n ) converge en moyenne
quadratique (dans L 2 (Ω)) vers X si
(kX n − X k2 )2 = E (X n − X )2 → 0 quand n → ∞:
Cette notion de convergence d´epend du choix de P .
Si X n → X dans L 2 (Ω), on a E (X n2 ) → E (X 2 ). La r´eciproque est fausse.

R
L’espace L 2 (Ω) est un espace de Hilbert muni du produit scalaire hX ; Yi = Ω X YdP . En
particulier, il est complet.
Si une suite converge dans L 2 , il existe une sous-suite qui converge p.s.
Si une suite uniform´ement int´egrable (par exemple born´ee) converge p.s., elle converge dans L 2 .
Th´eor`eme : (Loi des grands nombres)
Pn Si (X i ; i ≥ 1) est une suite de v.a. ´equidistribu´ees,
ind´ependantes de variance finie , n1 i =1 X i converge en moyenne quadratique vers E (X 1 ).
Si une suite de v.a. gaussiennes converge en moyenne quadratique, la limite est une variable
gaussienne.
R
Soit p > 1. On note kX kp la quantit´e positive d´efinie par (kX kp )p := Ω |X |p dP = E (|X |p ). On
d´efinit ainsi une norme sur l’espace L p (Ω) des v.a. X telles que kX kp < ∞. Une suite de v.a.
X n dans L p converge s’il existe X tel que E (X n − X )p → 0. La convergence dans L p pour p > 1
implique la convergence dans L q pour tout q; 1 < q < p.

1.5.3

Convergence en probabilit´
e

Une suite de variables al´eatoires X n converge en probabilit´e vers X si
∀² > 0 P (|X n − X | ≥ ² ) → 0 quand n → ∞:
On note X n
La convergence
La convergence
La convergence

1.5.4

P

→ X.
p.s. implique la convergence en probabilit´e.
en probabilit´e implique qu’une sous-suite converge p.s.
quadratique implique la convergence en probabilit´e.

Convergence en loi

Une suite de variables al´eatoires X n converge en loi vers X si E (Φ(X n )) → E (Φ(X )) quand
n → ∞ pour toute fonction Φ continue born´ee.
L
On note X n → X . La convergence en loi est ´egalement d´efinie par la convergence simple des foncu Ψn d´esigne la fonction caract´eristique de
tions caract´eristiques, soit Ψn (t) → Ψ(t) pour tout t, o`
X n et Ψ celle de X .
Si X est une v.a. de fonction de r´epartition F continue, et si X n est une suite de v.a. de fonction
de r´epartition F n telles que F n (x) converge vers F (x) pour tout x, alors X n converge en loi vers
X et r´eciproquement.
La convergence en probabilit´e implique la convergence en loi.

January 11, 2002

17

Th´
eor`
eme 1.5.2 Th´
eor`
eme Central limite Si (X i ; i ≥ 1) est une suite de v.a. ´equidistribu´ees,
ind´ependantes, de variance finie ¾2
Pn
i =1 X i − nE (X 1 ) L

→ N (0; 1) :
¾ n

1.6
1.6.1

Processus stochastiques
Filtration

On va s’int´eresser a` des ph´enom`enes d´ependant du temps. Ce qui est connu `a la date t est
rassembl´e dans une tribu Ft , c’est l’information `a la date t.

efinition 1.6.1 Une filtration est une famille croissante de sous tribus de F, c’est-`
a-dire telle
que Ft ⊂ Fs pour tout t ≤ s.
On demande souvent que les ensembles n´egligeables soient contenus dans F0 .
On parle d’hypoth`eses habituelles si
- les ensembles n´egligeables sont contenus dans F0 ,
- La filtration est continue `a droite au sens o`
u Ft = ∩s > t Fs .
Une filtration G est dite plus grosse que F si Ft ⊂ Gt ; ∀t.

1.6.2

Processus

Un processus stochastique (ou fonction al´eatoire) est une famille de variables al´eatoires (X t ; t ∈
[0; ∞[) d´efinies sur le mˆeme espace de probabilit´e .
a une

efinition 1.6.2 Un processus stochastique X = (X t ; t ≥ 0) est dit adapt´e (par rapport `
filtration Ft ) si X t est Ft -mesurable pour tout t.
On dit que le processus est `
a trajectoires continues (ou est continu) si les applications t → X t (! )
sont continues pour presque tout ! .
Un processus est dit c`
adl`
ag (continu a
` droite, pourvu de limites `
a gauche) si ses trajectoires sont
continues `
a droite, pourvues de limites a
` gauche. Mˆeme d´efinition pour c`
agl`
ad.
A un processus stochastique X on associe sa filtration naturelle FtX , c’est a` dire la famille
croissante de tribus FtX = ¾{X s ; s ≤ t}.
On utilise souvent des processus dit pr´evisibles. La d´efinition pr´ecise est la suivante: Soit (Ω; F; P )
un espace muni d’une filtration (Ft ). On appelle tribu des pr´evisibles3 la tribu sur (0; ∞) × Ω
engendr´ee par les rectangles de la forme
]s; t] × A; 0 ≤ s ≤ t; A ∈ Fs :
Un processus est pr´evisible si et seulement si l’application (t; ! ) → X t (! ) est mesurable par rapport `a la tribu des pr´evisibles. Pas d’affolement: il suffit de savoir que les processus c`
ag sont
pr´evisibles.
On dit que deux processus X et Y sont ´egaux a` une modification pr`es si X t = Yt p.s. ∀t.
loi
Deux processus sont ´egaux en loi X = Y si pour tout (t 1 ; t 2 ; : : : ; t n ) et pour tout n on a
loi
(X t 1 ; X t 2 ; : : : ; X t n ) = (Yt 1 ; Yt 2 ; : : : ; Yt n ).
On trouvera chapitre 8 d’autres d´efinitions concernant des propri´et´es de mesurabilit´e.
3 L’exp´
erience

est une lanterne accroch´
ee dans le dos, qui n’´
eclaire que le chemin parcouru. Confucius / Clifton

18

1.6.3

G´en´eralit´es

Processus croissant

Un processus A = (At ; t ≥ 0) est un processus croissant si A0 = 0 et t → At est une fonction
croissante, c’est-`a-dire
At (! ) ≤ As (! ); ∀t ≤ s; p:s:
Sauf mention du contraire, les processus croissants sont pris continus a` droite.
Un processus V = (Vt ; t ≥ 0) est dit `a variation born´ee sur [0; t] si
sup
ti

X
i

|Vt i +1 − Vt i | ≤ K ;

le sup ´etant pris sur les subdivisions 0 ≤ t 0 ≤ : : : ≤ t i ≤ t i +1 ≤ t.
Un processus V = (Vt ; t ≥ 0) est dit `a variation finie sur [0; t] si
sup
ti

X
i

|Vt i +1 − Vt i | < ∞ ;

le sup ´etant pris sur les subdivisions 0 ≤ t 0 ≤ : : : ≤ t i ≤ t i +1 ≤ t : Un processus V = (Vt ; t ≥ 0)
est dit a` variation finie s’il est a` variation finie sur [0; t] pour tout t. Il est alors la diff´erence de
deux processus croissants (et r´eciproquement).

1.6.4

Processus Gaussiens

Un processus X est gaussien si toute combinaison lin´eaire finie de (X t ; t ≥ 0) est une variable
al´eatoire gaussienne, c’est-`
a-dire si
∀n; ∀t i ; 1 ≤ i ≤ n; ∀a i ;

n
X

a i X t i est une v.a.r. gaussienne:

i =1

Un processus gaussien est caract´eris´e par son esp´erance et sa covariance.
Un espace gaussien est un sous-espace (vectoriel ferm´e) de L 2 (Ω) form´e de v.a.r. gaussiennes
centr´ees. L’espace gaussien engendr´e par un processus gaussien est le sous espace de L 2 (Ω)
engendr´e par les v.a.r. centr´ees (X t − E (X t ); t ≥ 0), c’est-`a-dire le sous-espace form´e par les
combinaisons lin´eaires de ces variables centr´ees et leurs limites en moyenne quadratique.

1.6.5

Convergence de processus

A ECRIRE.

1.7

Esp´
erance conditionnelle

L’espace (Ω; F; P ) est fix´e.

1.7.1

Cas discret

Rappel: Soit A et B deux ´ev`enements (sous-ensembles de Ω). On d´efinit la probabilit´e conditionnelle de A quand B par P (A |B ) = P P(A(B∩B) ) , pour tout B tel que P (B ) 6= 0.
Propri´et´e: P (: |B ) est une probabilit´e sur Ω.

January 11, 2002

19

On peut d´efinir l’esp´erance d’une variable par rapport a` cette loi. Consid´erons le cas d’une
variable X `a valeurs dans (x 1 ; x 2 ; : : : ; x n ). Soit B fix´e et Q(A) := P (A |B ). On a alors en
d´esignant par E Q l’esp´erance par rapport a` Q:
E Q (X ) =

X

x j Q(X = x j ) =

j

X
j

R

xj

P (X = x j ∩ B )
:
P (B )

uP
11X =x j est la fonction qui vaut 1 si ! ∈ (X = x j )
On peut ´ecrire P (X = x j ∩B ) = B 11X =x j dP (o`
c’est-`
a-dire si X (! ) = x j ) et en remarquant que j x j 11X =x j = X on a :
1
P (X = x j ∩ B )
=
P (B )
P (B )

Z

E Q (X )dP = E Q (X )P (B ) =

Z

X
j

ce que l’on peut lire

Z

B

xj

X dP ;

B

X dP :

B

On note E (X |B ) = E Q (X ) . Soit alors B la tribu engendr´ee par B et E (X |B ) la variable
al´eatoire d´efinie par E (X |B ) = E (X |B )1B + E (X |B c )1B c . On a
Z
Z
E (X |B )dP =
X dP
D

D

pour tout ´el´ement D ∈ B. On appelle esp´erance conditionnelle de X quand B cette variable
al´eatoire B-mesurable.
Un cas particulier int´eressant est celui o`
u l’´ev`enement B est li´e a` une v.a.:
Soient X et Y deux v.a. `a valeurs dans (x 1 ; x 2 ; : : : ; x n ) (resp (y1 ; : : : ; yd )), telles que ∀i; P (Y =
yi ) 6= 0. On peut alors d´efinir P (X = x j |Y = yi ) = ¹ (x j ; yi ). On remarque que pour tout yi ,
¹ (:; yi ) d´efinit une probabilit´e sur (x 1 ; x 2 ; : : : ; x n ). On peut donc d´efinir l’esp´erance de X par
rapport a` cette loi par
Z
X
X
1
x j P (X = x j |Y = yi ) =
x j ¹ (x j ; yi ) =
X dP :
E (X |Y = yi ) =
P (Y = yi ) Y =y i
j
j
On d´efinit ainsi une fonction Ψ telle que Ψ(yi ) = E (X |Y = yi ) .
IL est facile de v´erifier que
X
X
P (Y = yi )E (X |Y = yi ) =
P (Y = yi )Ψ(yi ) = E (Ψ(Y)) = E (E (X |Y)) = E (X )
i

i

On note Ψ(Y) = E (X |Y) . C’est l’esp´erance conditionnelle de X quand Y ou encore l’esp´erance
conditionnelle de X par rapport `a Y. Cette fonction est caract´eris´ee par
a) Ψ(Y) est Y-mesurable,
b) E (Φ(Y)X ) = E (Φ(Y)Ψ(Y)) pour toute fonction Φ.
(Il suffit par lin´earit´e de v´erifier b) pour Φ = 11y i :)

1.7.2

Esp´
erance conditionnelle par rapport `
a une tribu

Soit X une v.a.r. (int´egrable) d´efinie sur (Ω; F; P ) et G une sous-tribu de F.

efinition 1.7.1 ef L’esp´erance conditionnelle E (X |G ) de X quand G est l’unique variable
al´eatoire
a. G-mesurable

20

G´en´eralit´es

R
R
b. telle que A E (X |G )dP = A X dP ; ∀A ∈ G.
C’est aussi l’unique (`
a une ´egalit´e p.s. pr`es) variable G-mesurable telle que
E [E (X |G )Y] = E (X Y)
pour toute variable Y, G-mesurable born´ee.
Il en r´esulte que si X est de carr´e int´egrable, E (X |G) est la projection de X sur l’espace des
variables al´eatoires G mesurables, de carr´e int´egrable, c’est-`
a-dire la variable al´eatoire G mesurable
qui minimise E [(X − Y)2 ] parmi les v.a. Y, G mesurables.

1.7.3

Esp´
erance conditionnelle par rapport `
a une variable

On d´efinit l’esp´erance conditionnelle d’une variable X (int´egrable) par rapport `a Y comme ´etant
l’esp´erance conditionnelle de X par rapport `a la tribu ¾(Y). On la note E (X |Y ). C’est une
variable mesurable par rapport `a la tribu engendr´ee par Y, donc c’est une fonction de Y: il existe
à de IR dans IR bor´elienne telle que E (X |Y ) = Ã(Y).
L’esp´erance conditionnelle E (X |Y ) est caract´eris´ee par
a) c’est
une variable R¾(Y) mesurable
R
b) A E (X |Y )dP = A X dP ∀A ∈ ¾(Y):

La propri´et´
Re b) est ´equivalente a`RE (E (X |Y )Á(Y)) = E (X Á(Y)) pour toute fonction Ábor´elienne
born´ee , ou a` Y ∈B E (X |Y )dP = Y ∈B X dP pour tout B ∈ B.
On utilise souvent la notation E (X |Y = y ) pour d´esigner la valeur de à en y. On a alors
a’) E
R (X |Y = y ) est une fonction
R bor´elienne
b’) B E (X |Y = y )dP Y (y) = IR ×B xdP X ;Y (x; y) ∀B ∈ BIR :

1.7.4

Propri´
et´
es de l’esp´
erance conditionnelle

a) Lin´earit´e. Soit a et b deux constantes. E (aX + bY |G ) = aE (X |G ) + bE (Y |G ).
b) Croissance. Soit X et Y deux v. a. telles que X ≤ Y. Alors E (X |G ) ≤ E (Y |G ):
c) E [E (X |G )] = E (X ):
d) Si X est G-mesurable, E (X |G ) = X .
e) Si Y est G-mesurable, E (X Y |G ) = YE (X |G ).
f) Si X est ind´ependante de G, E (X |G ) = E (X ).
g) Si G est la tribu grossi`ere (compos´ee de l’ensemble vide et de Ω), E (X |G) = E (X ).
h) Si G et H sont deux tribus telles que H ⊂ G alors E (X |H ) = E (E (X |H) |G ) = E (E (X |G ) |H ).
On note souvent E (E (X |H) |G ) = E (X |H |G )
i) Si (X ; Y) sont ind´ependantes, et Áune fonction bor´elienne born´ee, E (Á(X ; Y)|Y) = [E (Á(X ; y))]y =Y .
Cette derni`ere ´egalit´e signifie que, pour calculer E (Á(X ; Y)|Y) lorsque les variables X et Y sont
ind´ependantes, on explicite la fonction Ψ telle que Ψ(y) = E (Á(X ; y)), puis on remplace y par Y
pour obtenir la v.a. Ψ(Y).
On verra d’autres propri´et´es de l’esp´erance conditionnelle dans le polycopi´e d’exercices. On
Z b
Z
¢
¡ b
¢
¡
utilisera sans mod´eration la formule E
X s ds|G =
E X s |G ds d´es que l’un des deux
a

a

membres existe.
Remarque tr`es importante: les ´egalit´es pr´ec´edentes ne sont vraies que p.s. et a` condition que les
v.a. soient int´egrables.

January 11, 2002

1.7.5

21

Variance conditionnelle

On d´efinit Var (X |G) = E (X 2 |G) − E 2 (X |G). C’est une v.a. positive, en vertu de l’in´egalit´e de
Jensen:
Soit Á une fonction convexe. On a E (Á(X )|F) ≥ Á(E (X |F)).

1.7.6

Formule de Bayes

Soit P une probabilit´e et Q une probabilit´e ´equivalente a` P d´efinie par dQ = LdP . On peut
exprimer l’esp´erance conditionnelle d’une variable sous Q en fonction de l’esp´erance conditionnelle
sous P :
E P (LX |G)
E Q (X |G) =
:
E P (L |G)

emonstration: Il s’agit de trouver Z v.a. G-mesurable telle que
E Q (Z Y) = E Q (X Y)

pour toute v.a. Y G-mesurable. On ´ecrit E Q (Z Y) = E P (LZ Y) = E P (Z YE P (L|G)) et E Q (X Y) =
E P (LX Y) = E P (YE P (LX |G)) en utilisant la G-mesurabilit´e de Z; Y. L’´egalit´e devant ˆetre
v´erifi´ee pour tout Y, il vient Z E P (L|G) = E P (LX |G), d’o`
u l’expression de Z . 2

1.8

Loi conditionnelle

1.8.1


efinition

Soit (X ; Y) deux v.a.r. La loi conditionnelle de X quand Y est la famille de lois sur IR not´ee
¹ (y; dx) index´ees par y (qui d´ecrit l’ensemble des valeurs prises par Y) telle que
Z ∞
E [Φ(X )|Y = y] =
Φ(x)¹ (y; dx)
−∞

pour toute fonction Φ bor´elienne born´ee. La propri´et´e s’´etend aux fonctions Φ int´egrables par
rapport a` ¹ . Lorsque l’on connait cette loi conditionnelle, les calculs d’esp´erance et de variance
conditionnelle se r´eduisent `a des calculs d’esp´erance et de variance. En effet E [X |Y = y] =
Z


x¹ (y; dx) est, pour tout y, l’esp´erance d’une v.a. de loi ¹ (y; dx).

−∞

Si le couple (X ; Y) a une densit´e f (x; y), on peut montrer que
¹ (y; dx) = Z

f (x; y)dx
f (u; y)du

IR

1.8.2

Cas Gaussien

Si le couple de v.a.r. (X ; Y) est gaussien (avec une densit´e ou non), la densit´e conditionnelle de
X `
a Y est une loi gaussienne d’esp´erance lin´eaire en Y et de variance c ind´ependante de Y. Il est
alors facile de retrouver la valeur de l’esp´erance: E (X |Y) = aY + b implique E (X ) = aE (Y) + b
et E (X Y) = E (YE (X |Y)) = E (aY 2 ) + bE (Y), d’o`
u

C ov(X ; Y)
; b = E (X ) − aE (Y) ; c = E (X 2 |Y) − E 2 (X |Y) = E (X 2 ) − E [(aY + b)2 ]
Var Y
Ceci se g´en´eralise a` un vecteur multidimensionnel : si (X ; Y) est un vecteur gaussien, la densit´e conditionnelle de X `a Y est une loi gaussienne d’esp´erance lin´eaire en Y et de variance c
ind´ependante de Y.
a=

22

1.9
1.9.1

G´en´eralit´es

Martingales
Cas discret

On se donne une filtration, c’est-`
a-dire une famille de sous-tribus Fn croissante (telle que Fn ⊂
Fn +1 ). La tribu F0 contient les n´egligeables.

efinition 1.9.1 ef Une suite de v.a.r. (X n ; n ∈ IN ) est une Fn -martingale si
X n est int´egrable, ∀n ∈ IN
X n est Fn -mesurable, ∀n ∈ IN
E (X n +1 |Fn ) = X n , ∀n ∈ IN .
Propri´et´e: E (X n +p |Fn ) = X n , ∀n ∈ IN ; ∀p ∈ IN .
Exemple: Si X n = Y1 + : : : + Yn o`
u les Yi sont ind´ependantes ´equidistribu´ees centr´ees, X n est une
martingale.
Cas multidimensionnel: Une famille de vecteurs (S n ; n ≥ 0) telle que S n est a` valeurs dans IR d
est une martingale, si les familles (S ni ; n ∈ IN ) sont des martingales ∀i; 1 ≤ i ≤ d.

1.9.2

Cas continu.

On se donne une filtration, c’est-`a-dire une famille de sous-tribus Ft croissante (telle que Fs ⊂
Ft ; ∀s ≤ t.)

efinition 1.9.2 Une famille de variables al´eatoires (X t ; t ∈ [0; ∞[) est une martingale par
rapport `
a la filtration (Ft ) si
X t est Ft -mesurable et int´egrable pour tout t.
E (X t |Fs ) = X s , ∀s ≤ t.
Propri´et´es:
Si X est une martingale E (X t ) = E (X 0 ), ∀t.
Si (X t ; t ≤ T ) est une martingale, le processus est compl`etement d´etermin´e par sa valeur terminale: X t = E (X T |Ft ). Cette derni`ere propri´et´e est d’un usage tr`es fr´equent en finance.

efinition 1.9.3 Une famille de variables al´eatoires (X t ; t ∈ [0; ∞[) est une surmartingale (resp.
sousmartingale) par rapport `
a la filtration (Ft ) si
X t est Ft -mesurable et int´egrable pour tout t
E (X t |Fs ) ≤ X s , ∀s ≤ t (resp. E (X t |Fs ) ≥ X s ).
Exemple 1.9.1 Si X est une martingale, alors, X 2 est une sous martingale. Si X est une
martingale et A un processus croissant, X + A est une sous-martingale.
On dira que X est une martingale si la filtration de r´ef´erence est la filtration naturelle de X . On
fera attention: la propri´et´e de martingale d´epend de la filtration et une F-martingale n’est en
g´en´eral pas une G martingale si G est plus grosse que F.
Proposition 1.9.1 In´
egalit´
e de Doob Si X est une martingale,
E (sup X s2 ) ≤ 4E (X T2 )
s ≤T

1.10

Temps d’arrˆ
et

On travaille sur un espace muni d’une filtration (Ft ). On note F∞ = ¾(∪t Ft ).

January 11, 2002

1.10.1

23


efinitions


efinition 1.10.1 Un temps d’arrˆet est une variable al´eatoire ¿ `
a valeur dans IR ∪ {+∞} telle
que {¿ ≤ t} ∈ Ft ; ∀t ∈ IR.
Une constante positive est un temps d’arrˆet.
On associe `a un temps d’arrˆet ¿ la tribu F¿ dite des ´ev´enements ant´erieurs `a ¿ , d´efinie4 par
F¿ = {A ∈ F∞ |A ∩ {¿ ≤ t} ∈ Ft ; ∀t ∈ IR} :
Propri´et´es: Si T est un temps d’arrˆet, T est FT mesurable.
Si S et T sont des temps d’arrˆet, S ∧ T est un temps d’arrˆet. En particulier T ∧ t est un temps
d’arrˆet.
Si S et T sont des temps d’arrˆet tels que S ≤ T , on a FS ⊂ FT .
Soit (X t ; t ≥ 0) un processus et T un temps d’arrˆet fini. On d´efinit X T par X T (! ) = X T (! ) (! ) :
Si un processus X est continu et adapt´e, X T est FT -mesurable.

1.10.2

Th´
eor`
eme d’arrˆ
et
def

Si T est un temps d’arrˆet et M une (Ft )-martingale, le processus Z d´efini par Z t = M t ∧T est
une (Ft ) martingale. En particulier, E (M t ∧T ) = E (M 0 ).
Th´
eor`
eme 1.10.1 Th´
eor`
eme d’arrˆ
et de Doob: (Optional Sampling Theorem)
Si M est une (Ft )-martingale continue et si S et T sont deux temps d’arrˆet tels que S ≤ T ≤ K ,
K ´etant une constante finie, M T est int´egrable et
E (M T |FS ) = M S :
Ce r´esultat s’´etend `
a tous les temps d’arrˆet si la martingale est uniform´ement int´egrable.
Si M est uniform´ement int´egrable, on peut montrer que M t converge p.s. et dans L 1 vers M ∞
quand t → ∞ et que M S = E (M ∞ |FS )
Proposition 1.10.1 Si pour tout temps d’arrˆet born´e E (X T ) = E (X 0 ), le processus X est une
martingale.

efinition 1.10.2 Un processus M adapt´e c`
agl`
ad est une martingale locale s’il existe une suite
croissante de temps d’arrˆets ¿n telle que ¿n → ∞ et (M t ∧¿ n ; t ≥ 0) est une martingale pour tout
n.
Une martingale locale positive est une surmartingale. Une martingale locale uniform´ement int´egrable
est une martingale.

1.10.3

Processus de Markov

Cette notion est assez difficile, mais d’un usage constant. En langage vernaculaire, un processus
est de Markov si son comportement dans le futur ne d´epend du pass´e qu`
a travers le pr´esent.5
Soyons plus pr´ecis. Soit X un processus et (Ft ) sa filtration canonique. On dit que le processus
est de Markov si, pour tout t, pour toute variable born´ee Y ∈ F∞ l’´egalit´e
E (Y ◦ µt |Ft ) = E (Y ◦ µt |X t )
4 “L’essentiel
5 “L’avenir

est de comprendre” Scipion, dans Caligula, Camus
est la projection du pass´
e, conditionn´
ee par le pr´
esent”. Braque.

24

G´en´eralit´es

o`
u µ est l’op´erateur de translation d´efini sur les applications coordonn´ees par X u ◦ µs = X u +s .
Essayons une autre d´efinition. Pour tout n, pour toute fonction born´ee F d´efinie sur IR n , pour
tous t 1 < t 2 < · · · < t n
E (F (X s +t 1 ; X s +t 2 ; · · · ; X s +t n )|Fs ) = E (F (X s +t 1 ; X s +t 2 ; · · · ; X s +t n )|X s ) :
Ceci implique en particulier que pour toute fonction f bor´elienne born´ee
E (f (X t )|Fs ) = E (f (X t )|X s ) ; ∀t > s :
Le processus est dit de Markov fort si la propri´et´e pr´ec´edente est vraie pour tout couple de
temps d’arrˆet finis T; S avec T > S .

1.11

Rappels d’analyse

1.11.1


erivation sous le signe somme

Soit F (x) =

Z



f (x; y)dy. Si f est continue et admet une d´eriv´ee partielle par rapport `a x

−∞

@x f (x; y) continue born´eeZ en valeur absolue par g(y), |@x f (x; y)| ≤ g(y) o`
u g est une fonction

@x f (x; y)dy.
int´egrable, alors F 0 (x) =
−∞

1.11.2

Espace complet

Un espace norm´e est dit complet si toute suite de Cauchy converge, i.e. si ||x n − x m || → 0 quand
n; m → ∞ implique l’existence de x tel que x n → x. q
L’ espace IR muni de la norme habituelle,
R
f 2 (x)dx, l’espace des v.a. L 2 (Ω) muni
l’espace des fonctions L 2 (IR) muni de la norme ||f || =
IR
p
de la norme ||X || = E (X 2 ) sont des espaces complet.

1.11.3

Th´
eor`
eme de Lebesgue domin´
e

Soit f n une suite de fonctions int´egrables qui converge (simplement) versZ une fonction f (f n (x) →

f n (x)dx converge vers
f (x); ∀x). S’il existe g int´egrable telle que |f n (x)| ≤ g(x); ∀x, alors
IR
Z
f (x)dx. La fonction f est une fonction en escalier s’il existe une subdivision (t i ; t i ≤ t i +1 ; i =
IR

0; : : : ; n) telle
P que f est constante, ´egale a` f i sur ]t i ; t i +1 ] et nulle hors de [t 0 ; t n +1 ]. On peut alors
´ecrire f = ni=1 f i −1 11]t i −1 ;t i ] .

Chapter 2

Le mouvement Brownien
Le botaniste Robert Brown observe en 1828 le mouvement irr´egulier de particules de pollen en
suspension dans l’eau. En 1877, Delsaux explique les changements incessants de direction de
trajectoire par les chocs entre les particules de pollen et les mol´ecules d’eau. Un mouvement de
ce type est qualifi´e de “mouvement au hasard”.
En 1900, Bachelier, en vue d’´etudier les cours de la Bourse met en ´evidence le caract`ere
“markovien” du mouvement Brownien : la position d’une particule `a l’instant t + s d´epend de
sa position en t, et ne d´epend pas de sa position avant t. Il convient d’insister sur le caract`ere
pr´ecurseur de Bachelier et le fait que la th´eorie du mouvement Brownien a ´et´e d´evelopp´ee pour
la Bourse, avant de l’ˆetre pour la Physique.
En 1905, Einstein d´etermine la densit´e de transition du mouvement Brownien par l’interm´ediaire de l’´equation de la chaleur et relie ainsi le mouvement Brownien et les ´equations aux
d´eriv´ees partielles de type parabolique. La mˆeme ann´ee, Smoluchowski d´ecrit le mouvement
Brownien comme une limite de promenades al´eatoires.
La premi`ere ´etude math´ematique rigoureuse est faite par N. Wiener (1923) qui exhibe ´egalement
une d´emonstration de l’existence du Brownien. P. L´evy (1948) s’int´eresse aux propri´et´es fines des
trajectoires du Brownien, sans connaˆıtre les concepts de filtration, temps d’arrˆet...
Depuis, le mouvement Brownien continue de passionner les probabilistes, aussi bien pour l’´etude
de ses trajectoires que pour la th´eorie de l’int´egration stochastique (Wiener, Itˆo, Watanabe, Meyer,
Yor, LeGall).

2.1

Le mouvement Brownien

On se donne un espace (Ω; F; P ) et un processus (B t ; t ≥ 0) sur cet espace.

2.1.1


efinition.

Le processus (B t ; t ≥ 0) est un mouvement Brownien (standard) si
a) P (B 0 = 0) = 1 (le mouvement Brownien est issu de l’origine).
b) ∀s ≤ t; B t − B s est une variable r´eelle de loi gaussienne, centr´ee de variance (t − s).
c) ∀n; ∀t i ; 0 ≤ t 0 ≤ t 1 : : : ≤ t n , les variables (B t n − B t n −1 ; : : : ; B t 1 − B t 0 ; B t 0 ) sont
ind´ependantes.
La propri´et´e b) est la stationarit´e des accroissements du mouvement Brownien, la propri´et´e c)
traduit que le mouvement Brownien est `a accroissements ind´ependants. On peut aussi ´ecrire c)
sous la forme ´equivalente suivante:
25

26

Le mouvement Brownien

c’) Soit s ≤ t. La variable B t − B s est ind´ependante de la tribu du pass´e avant s, soit
¾(B u ; u ≤ s).
Nous ne d´emontrons pas l’existence du mouvement Brownien (MB dans la suite). On pourra
consulter l’ouvrage de Karatzas et Shreve (1988). On le construit sur “l’espace canonique ”
Ω = C(IR + ; IR) des fonctions continues de IR + dans IR par B t (! ) = ! (t) et on munit cet espace
d’une mesure (mesure de Wiener) telle que B soit un MB.
La filtration naturelle est Ft = ¾{B s ; s ≤ t}. On lui ajoute de fa¸con implicite les n´egligeables.
On peut montrer qu’elle v´erifie alors les conditions habituelles.
On s’autorisera `a noter B (t i ) au lieu de B t i la valeur de la trajectoire en t i pour des raisons de
lisibilit´e.

2.1.2


en´
eralisation.

Le processus X t = a + B t est un Brownien issu de a. On dit que X est un Brownien g´en´eralis´e
ou un MB de drift ¹ si X t = x + ¹ t + ¾B t o`
u B est un mouvement Brownien. La variable X t est
une variable gaussienne d’esp´erance x + ¹ t et de variance ¾2 t.
Les v.a. (X t i +1 − X t i ; t 0 ≤ t 1 : : : ≤ t n ) sont ind´ependantes.

2.2

Promenade al´
eatoire

On peut montrer que le mouvement Brownien s’obtient comme limite de promenades al´eatoires
renormalis´ees. Cette propri´et´e est exploit´ee pour des simulations.
Soit, sur un espace de probabilit´e (Ω; F; P) une famille de variables al´eatoires de Bernoulli
ind´ependantes ´equidistribu´ees

P (X i = 1) = P (X i = −1) =

1
2

;

i ∈ IN ∗ :

On associe `a cette famille la suite (S n ; n ≥ 0) d´efinie par
S 0 = 0; S n =

n
X

Xi

i =1

On dit que la suite S n est une promenade1 al´eatoire. (Jeu de pile ou face).
On a E (S n ) = 0, Var (S n ) = n.

1 “Charmante

promenade, n’est-ce-pas?” Le professeur Tournesol. Tintin et les Picaros. 1964.

January 11, 2002

27

6
Sn
S2
S1
O

¡@
¡
@
¡
@
¡
¡@
@
¡
¡
@
¡
¡
¡@
@
¡
¡
¡
@
@

¡
¡
@
n
1
2
¡
@


Promenade al´eatoire

Remarquons que la suite (S m −S n , m ≥ n) est ind´ependante de (S 0 ; S 1 ; : : : ; S n ) et que S m −S n
a mˆeme loi que S m −n .
On proc`ede alors `a une double renormalisation. Soit N fix´e
* on ram`ene l’intervalle de temps [0; N ] a` [0; 1]
* on change l’´echelle des valeurs prises par S n .
Plus pr´ecis´ement, on d´efinit une famille de variables al´eatoires index´ees par les r´eels de la
forme Nk , k ∈ IN , par
1
U k = √ Sk :
N
N
On a
¢
¡
¢
¡
k
E U k = 0 et Var U k =
:
N
N
N
Les propri´et´es d’ind´ependance et de stationarit´e de la promenade al´eatoire restent v´erifi´ees,
soit
• si k ≥ k 0 , U k − U k 0 est ind´ependante de (U Np ; p ≤ k 0 )
N
N
• si k ≥ k 0 , U k − U k 0 a mˆeme loi que U k −k 0 .
N

N

N

On d´efinit un processus `a temps continu (Ut ; t ≥ 0) `a partir de U k en imposant a` la fonction
N
t → Ut d’ˆetre affine entre Nk et kN+1 . Pour cela, N ´etant fix´e, on remarque que pour tout t ∈ IR +

28

Le mouvement Brownien

il existe k(t) ∈ IN unique tel que

o`
u k = k(t).

k (t )
N

≤t <

k (t )+1
N

et on pose

¡
k ¢¡
U k +1 − U k )
UtN = U k + N t −
N
N
N
N

Pour t = 1 on a U1N = √1N S N . Le th´eor`eme central-limite implique alors que U1N converge en
loi vers une variable al´eatoire gaussienne centr´ee r´eduite.
On montre alors que le processus U N converge (au sens de la convergence en loi) vers un
mouvement Brownien B .
L
L
En particulier UtN → B t et (UtN1 ; : : : ; UtNk ) → (B t 1 ; : : : ; B t k ) pour tout k-uple (t 1 ; : : : ; t k ).

2.3

Propri´
et´
es

Dans ce qui suit, B = (B t ; t ≥ 0) est un mouvement Brownien et Ft = ¾{B s ; s ≤ t} est sa
filtration naturelle.

2.3.1

Processus gaussien

Proposition 2.3.1 Le processus B est un processus gaussien, sa loi est caract´eris´ee par son
esp´erance nulle et sa covariance Cov(B t ; B s ) = s ∧ t.
P
P
´monstration: Le caract`ere gaussien r´esulte de ni=0 a i B t i = ni=0 bi (B t i +1 − B t i ) avec a i =
De
bi − bi +1 ; i ≤ n − 1 ; a n = bn . La covariance est ´egale a` E (B t B s ) car le processus est centr´e. Si
s ≤ t,
E (B t B s ) = E ((B t − B s )B s + B s2 ) = E (B t − B s )E (B s ) + E (B s2 ) = s

2

On peut g´en´eraliser: Le processus (X t = x +¹ t +¾B t ; t ≥ 0) est un processus gaussien d’esp´erance
x + ¹ t et de covariance E [(X t − E (X t )) (X s − E (X s ))] = ¾2 (s ∧ t).

2.3.2

Une notation

Il nous arrivera de noter E x (f (B s )) l’esp´erance de f (B s ) quand B est un Brownien issu de x,
sans toujours faire cette pr´ecision. Cette quantit´e est ´egale a` E (f (x + B s )) o`
u B est un Brownien
issu de 0 . De la mˆeme fa¸con, nous utiliserons la notation P x (B s ∈ A) pour P (x + B s ∈ A) et
u B est un Brownien partant de x.
P x (B s ∈ da) pour la densit´e de la v.a. B s o`

2.3.3

Scaling

Proposition 2.3.2 Si (B t ; t ≥ 0) est un mouvement Brownien, alors
i) le processus Bˆ d´efini par Bˆt = −B t est un mouvement Brownien.
ii) le processus B˜ d´efini par B˜t = 1c B c 2 t est un mouvement Brownien. (Propri´et´e de scaling)
iii) le processus B¯ d´efini par B¯t = tB 1t ; ∀t > 0 ; B¯0 = 0 est un mouvement Brownien.

emonstration: Il suffir de v´erifier le caract`ere Gaussien de ces processus et d’en calculer
esp´erance et covariance.
2

January 11, 2002

2.3.4

29

Propri´
et´
e de Markov

La propri´et´e de Markov du mouvement Brownien est utilis´ee sous la forme (un peu plus forte que
def

la propri´et´e de Markov) : pour tout s, le processus (Wt ; t ≥ 0) d´efini par Wt = B t +s − B s est un
mouvement Brownien ind´ependant de Fs .
Th´
eor`
eme 2.3.1 Pour f bor´elienne born´ee, E (f (B u ) |Ft ) = E (f (B u ) |¾(B t ) ) pour u > t.

emonstration: On fait apparaitre les accroissements et on utilise les propri´et´es de l’esp´erance
conditionnelle :
E (f (B u ) |Ft ) = E (f (B u − B t + B t ) |Ft ) = Φ(B t )

u Y a mˆeme loi que B u − B t , soit une loi
avec Φ(x) = E (f (B u − B t + x)) = E (f (Y + x)) o`
N (0; u − t). Par les mˆemes arguments, E (f (B u ) |¾(B t ) ) = Φ(B t ). On a tr`es pr´ecisement
Z
(y − x)2
1
f (y) exp −
Φ(x) = p
dy
2(u − t)
2¼(u − t) IR

2
Une autre fa¸con de d´ecrire cette propri´et´e est de dire que, pour u > t, conditionnellement `a
B t , la v.a. B u est de loi gaussienne d’esp´erance B t et de variance u − t. Alors
E (11B u ≤x |Ft ) = E (11B u ≤x |¾(B t ) ) = E (11B u ≤x |B t )
pour t ≤ u.
Proposition 2.3.3 Propri´
et´
e de Markov forte:
Soit T un temps d’arrˆet a
` valeurs finies. On a alors E (f (B T +s ) |FT ) = E (f (B T +s ) |¾(B T ) ). En
def

particulier, pour tout temps d’arrˆet fini T , le processus (Wt ; t ≥ 0) d´efini par Wt = B t +T − B T
est un mouvement Brownien ind´ependant de FT .

2.3.5

Equation de la chaleur

Soit g(t; x) la densit´e gaussienne centr´ee de variance t. On note
1
(y − x)2
q(t; x; y) = √
exp −
= g(t; x − y)
2t
2¼t
la densit´e de transition du mouvement Brownien. C’est de fa¸con heuristique, la probabilit´e pour
que le mouvement Brownien soit en y sachant que t instants auparavant, il se trouvait en x, c’est
aussi la densit´e conditionnelle
P (B t +s ∈ dy|B s = x) = q(t; x; y) dy
La densit´e de transition q v´erifie l’´equation “forward”
@q
1 @2 q
(t; x; y)
(t; x; y) =
@t
2 @y2
et l’´equation “backward”

@q
1 @2 q
(t; x; y) :
(t; x; y) =
@t
2 @x 2
En utilisant cette notation et la stationarit´e des accroissements du MB, on obtient que pour toute
fonction f bor´elienne born´ee
Z ∞
f (y) q(T − t; x; y) dy :
E (f (B T )|B t = x) =
−∞

30

Le mouvement Brownien

Si l’on note u(t; x; f ) la fonction
u(t; x; f ) =

Z



f (y)q(t; x; y) dy = E (f (B t + x))
Z ∞
= E (f (B t +s )|B s = x) =
f (x + y)g(t; y)dy

(2.1)

−∞

(2.2)

−∞

cette fonction v´erifie (utiliser (2.1), l’´equation backward et le th´eor`eme de d´erivation sous le signe
int´egral)


u(0; x; f ) = f (x)
(2.3)
@u
1 @2 u
 −
= 0
+
2
@t
2 @x
Pour calculer E (f (B T )), il suffit de r´esoudre l’´equation aux d´eriv´ees partielles (2.3) et de remarquer que E (f (B T )) = u(T; 0; f ). On obtient aussi E (f (B T + x)) = u(T; x; f ) De plus (utiliser
(2.2) et le th´eor`eme de d´erivation sous le signe int´egral)
Z ∞
@2 u
(t;
x;
f
)
=
f 00 (x + y)g(t; y)dy = u(t; x; f 00 ) = E (f 00 (B t + x)) :
(2.4)
@x 2
−∞
On peut ainsi ´ecrire
Z

E (f (B T + x)) − f (x) = u(T; x; f ) − u(0; x; f ) =
soit
1
E (f (B T + x)) = f (x) +
2

0

Z

T

1
@u
(s; x; f ) ds =
@t
2

Z

0

T

@2 u
(s; x; f ) ds
@x 2

T

E (f 00 (B s + x)) ds :

0

Cette m´ethode sera g´en´eralis´ee dans les prochains chapitres du cours de calcul stochastique.
La fonction v(t; x; f ) = u(T − t; x; f ) est solution de


v(T; x) = f (x)
(2.5)
@v 1 @2 v

= 0
+
@t
2 @x 2
et v´erifie v(0; x; f ) = E (f (B T + x)).

Proposition 2.3.4 Si f est une fonction de classe C b1 en temps et C b2 en espace,
Z t
1
E [ f x00x (s; x + B s ) + f t0 (s; x + B s )] ds
E (f (t; x + B t )) = f (0; x) +
2
0

emonstration: Soit u(t; x; f ) = E (f (t; x + B t )). Il est facile de v´erifier, en utilisant (2.3) et
(2.4) que
1
du
(t; x; f ) = u(t; x; @t f ) + u(t; x; @x x f )
dt
2
En effet, on ´ecrit u(t; x; f ) = F (t; t; x; f ) avec F (s; t; x; f ) = E (f (s; x + B t )). Il reste a` utiliser le
th´eor`eme de d´erivation des fonctions compos´ees:
du
1
@F
@F
@f
(t; x; f ) =
(t; t; x; f ) +
(t; t; x; f ) = E ( (t; x + B t )) + u(t; x; @x x f )
dt
@s
@t
@t
2
En int´egrant par rapport `a t
u(t; x; f ) − u(0; x; f ) =

Z

0

t

1
E [f t (s; x + B s ) + @x x f (s; x + B s )] ds
2

January 11, 2002

31

2
On peut g´en´eraliser ce r´esultat au processus X d´efini par X t = x + ¹ t + ¾B t . La fonction
u(t; x; f ) = E (f (t; x + ¹ t + ¾B t )) v´erifie
du
1
(t; x; f ) = ¾2 u(t; x; @x x f ) + ¹ u(t; x; @x f ) + u(t; x; @t f )
dt
2
et u(0; x; f ) = f (x). On d´efinit L le g´en´erateur du processus par l’op´erateur
L(f ) =

1 2
¾ @x x f + ¹ @x f
2

Proposition 2.3.5 Si f est une fonction de classe C b1 en temps et C b2 en espace,
E (f (t; x + ¹ t + ¾B t )) = f (0; x) +

Z

t

E [Lf (s; x + ¹ s + ¾B s ) + @t f (s; x + ¹ s + ¾B s )] ds
0

On g´en´eralisera ce type de calcul dans les chapitres suivants.

2.3.6

Trajectoires

Nous admettons les r´esultats suivants:
Les trajectoires du mouvement Brownien sont continues.
Les trajectoires du mouvement Brownien sont p.s. “nulle part diff´erentiables”.
P2n
Th´
eor`
eme 2.3.2 Soit n fix´e et t j = 2jn t pour j variant de 0 `
a 2n . Alors j =1 [B (t j )−B (t j −1 )]2 →
t quand n → ∞, la convergence ayant lieu en moyenne quadratique et p.s..
Pn
´monstration: Soit Z tn = 2j =1 [B (t j ) − B (t j −1 )]2 . On a E (Z tn ) = t. On doit montrer que
De
E ((Z tn − t)2 ) → 0, soit Var(Z tn ) → 0 ce qui se d´eduit de
µ ¶2
2n
X
t2
t
=
Var[B (t j ) − B (t j −1 )] =
2
= 2n +1 2n
n
2
2
j =1
j =1
n

Var(Z tn )

2
X

2

2
(Nous
e que
si X est de loi N (0;
de X 2 est 2¾4 ). On en d´eduit que
P∞avonsn utilis´
P∞
P¾∞), la nvariance
t
2
2
E ( n =1 (Z t − t) ) = n =1 2n < ∞. D’o`
u n =1 (Z t − t) < ∞ et le terme g´en´eral converge p.s.
vers 0.
2

Proposition 2.3.6 Soit ¾ une subdivision de l’intervalle [0; t] caract´eris´ee par 0 = t 0 ≤P
t1 : : : ≤
t n = t. Soit Vt la variation de la trajectoire du Brownien sur [0; t] d´efinie par Vt (! ) = sup¾ i |B t i +1 (! )−
B t i (! )|. Alors Vt (! ) = ∞ p.s.
P
Pn
u les points

emonstration: sup¾ i |B t i +1 − B t i | ≥ supn 2k =0 |Yk | avec Yk = B t ∗k +1 − B t ∗k o`
sont choisis comme pr´ec´edemment: t ∗k = 2kn t. On peut majorer Z tn :
n

Z tn

≤ (sup |B t ∗k +1 − B t ∗k |)
k

2
X

k =0

|Yk | :

Quand n → ∞, le terme sup |B t k +1 −B t k | tend p.s. vers 0, par continuit´e uniforme des trajectoires
P2n
sur [0; t]. Le terme k =0 |Yk | est croissant en n et ne peut avoir de limite finie sans que Z tn ne
converge vers 0, ce qui n’est pas le cas.
2

32

2.3.7

Le mouvement Brownien

Propri´
et´
es de martingale

a. Cas du Brownien
Proposition 2.3.7 Le processus B est une martingale. Le processus (B t2 − t; t ≥ 0) est une
martingale.
R´eciproquement, si X est un processus continu tel que X et (X t2 − t; t ≥ 0) sont des martingales,
X est un mouvement Brownien.

emonstration: Nous ne d´emontrons que la partie directe. La r´eciproque est plus difficile a`
´etablir (Voir Revuz-Yor) mais tr`es utile.
L’id´ee est d’utiliser l’ind´ependance des accroissements pour calculer les esp´erances conditionnelles,
et d’utiliser la propri´et´e E (X |G) = E (X ) quand X et G sont ind´ependantes. Soit s ≤ t.
E (B t |Fs ) = E (B t − B s |Fs ) + E (B s |Fs ) = 0 + B s
De mˆeme E ((B t − B s )2 |Fs ) = t − s et
E ((B t − B s )2 |Fs ) = E (B t2 + B s2 − 2B t B s |Fs ) = E (B t2 |Fs ) + B s2 − 2B s E (B t |Fs ) = E (B t2 |Fs ) − B s2
On obtient alors
E (B t2 − t|Fs ) = B s2 − s :
2
Application: Soit B 1 et B 2 deux MB ind´ependants. Le produit B 1 B 2 est une martingale. On
peut le faire en utilisant le lemme suivant : Soit F et G deux tribus, X et Y deux v.a. telles que
X ∨ F et G sont ind´ependantes ainsi que Y ∨ G et F. Alors E (X Y|F ∨ G) = E (X |F)E (Y|G).
1
Une autre m´ethode est d’utiliser que √ (B 1 + B 2 ) est un processus gaussien de covariance t ∧ s,
2
1
donc un mouvement Brownien et par suite (B 1 (t) + B 2 (t))2 − t est une martingale. Comme
2
1
1
1
(B 1 (t) + B 2 (t))2 − t = (B 12 (t) − t) + (B 22 (t) − t) + B 1 (t)B 2 (t) ;
2
2
2
le r´esultat suit.
Plus g´en´eralement, on dit que B est un (Gt )-mouvement Brownien si B et (B t2 − t; t ≥ 0) sont
des (Gt )-martingales. Les propri´et´es donn´ees dans la d´efinition 2.1.1. sont v´erifi´ees. Si B est un
(Gt )-mouvement Brownien, c’est bien sˆ
ur un MB pour sa propre filtration.
Proposition 2.3.8 Pour tout ¸ r´eel, le processus (exp(¸ B t − 12 ¸ 2 t); t ≥ 0) est une martingale.
R´eciproquement, si X est un processus continu tel que (exp(¸ X t − 12 ¸ 2 t); t ≥ 0) est une martingale,
pour tout ¸ r´eel, le processus X est un brownien.

emonstration: Par ind´ependance
1
1
E (exp{¸ (B t − B s ) − ¸ 2 (t − s)}|Fs ) = E (exp{¸ (B t − B s ) − ¸ 2 (t − s)})
2
2
L’esp´erance du second membre se calcule comme une transform´ee de Laplace d’une variable gaussienne. On trouve
1
E (exp{¸ (B t − B s ) − ¸ 2 (t − s)}) = 1
2
et
1
1
E (exp{¸ B t − ¸ 2 t}|Fs ) = exp{¸ B s − ¸ 2 s}
2
2
La r´eciproque, facile, utilise la caract´erisation des v.a. gaussiennes au moyen de leur transform´ee
de Laplace.
2

January 11, 2002

33

b. G´
en´
eralisation
Proposition 2.3.9 Soit (Ω; F; Ft ; P ) et B un (Ft )-brownien sur cet espace. Si X t = ¹ t + ¾B t ,
alors, pour tout ¯ r´eel, (exp(¯ X t − (¹ ¯ + 12 ¾2 ¯ 2 ) t); t ≥ 0) est une (Ft )-martingale.
R´eciproquement, si X est un processus continu tel que (exp (¯ X t − (¹ ¯ + 12 ¾2 ¯ 2 ) t); t ≥ 0) est une
Ft -martingale, il existe un Ft -brownien B tel que X t = ¹ t + ¾B t .

emonstration: Nous savons que (exp(¸ B t − 12 ¸ 2 t); t ≥ 0) est une martingale. il reste `a
1
utiliser que B t = (X t − ¹ t) et de poser ¸ = ¯ ¾.
2
¾

2.3.8

Temps d’atteinte

a. Cas du Brownien
Proposition 2.3.10 Soit (B t ; t ≥ 0) un mouvement Brownien et a un nombre r´eel. Soit
Ta = inf{t ≥ 0; B t = a} :
Alors Ta est un temps d’arrˆet fini p.s. tel que E (Ta ) = ∞ et pour ¸ ≥ 0

E (exp −¸ Ta ) = exp(−|a| 2¸ ) :

(2.6)


emonstration: La v.a. Ta est un temps d’arrˆet. En effet, pour a > 0, on a
Ta = inf{t ≥ 0; B t ≥ a}
On en d´eduit
{Ta ≤ t} = {sup B s ≥ a} = {∀² ∃s ∈ Q
I : Bs > a − ²}
s ≤t

¡

=

¢
∩² ∈IQ + ∪s ≤t ; s ∈IQ {B s > a − ² } :

La pr´esence de Q
I est indispensable pour garder la d´enombrabilit´e. L’´egalit´e pr´ec´edente montre
que {Ta ≤ t} est obtenu a` partir d’op´erations d´enombrables d’union et d’intersection d’´el´ements
de Ft , donc appartient `a cette tribu.
Pour calculer la transform´ee de Laplace de la loi de Ta , soit E (e−¸ T a ), on utilise que t ∧ Ta est
un temps d’arrˆet born´e (par t) et
∀t ; E [exp(¸ B t ∧T a −

¸2
(t ∧ Ta ))] = 1
2

Lorsque t → ∞, sur l’ensemble o`
u Ta est fini on a B t ∧T a → B T a = a et
exp(¸ B t ∧T a −

¸2
¸2
(t ∧ Ta )) → exp(¸ a − Ta )
2
2

Sur l’ensemble o`
u Ta est infini, B t ∧T a ≤ a et (t ∧ Ta ) = t → ∞, par suite
exp(¸ B t ∧T a −

¸2
(t ∧ Ta ) → 0 :
2

On obtient, apr`es passage a` la limite, en utilisant le th´eor`eme de Lebesgue domin´e,
E (11T a < ∞ exp −

¸2
Ta ) = exp(−a¸ ) ;
2

34

Le mouvement Brownien

on en d´eduit que Ta est fini (faire ¸ = 0) et la transform´ee de Laplace de Ta . Pour obtenir E (Ta ),
on d´erive par rapport `a ¸ et on fait ¸ = 0.
On pourrait aussi dire que pour a > 0 et ¸ > 0, la martingale
exp(¸ B t ∧T a −

¸2
(t ∧ Ta ))
2

est born´ee (par exp(¸ a)) donc est uniform´ement int´egrable et on applique le th´eor`eme d’arrˆet
avec t = ∞.
a} = inf{t ≥ 0; Wt = −a}, avec
Pour a < 0, on peut remarquer que Ta = inf{t ≥ 0; B t = √
W = −B . Il serait faux de conclure que E (exp −¸ Ta ) = exp(−a 2¸ ) pour tout a car, pour a < 0
et ¸ > 0, le membre de gauche est plus petit que 1 et celui de droite serait plus grand que 1. Il
convient donc d’ˆetre vigilant en appliquant le th´eor`eme de Doob.
2
Par inversion de la transform´ee de Laplace, on obtient la densit´e de Ta qui est, pour a > 0
¡ a2 ¢
a

exp −
2t
2¼t 3

On verra, plus loin, une autre m´ethode pour obtenir ce r´esultat.
Avec des m´ethodes analogues, on ´etablit les r´esultats suivants. Soit Tba = inf{t ≥ 0; |B t | = a}
avec a > 0
h
√ i−1
:
(2.7)
E (exp −¸ Tba ) = cosh (a 2¸ )
b
Si a ≤ 0 ≤ b on a P (Ta < Tb ) = b−a
.
Si c et d sont des r´eels positifs et T = Tc ∧ T−d on a

E [exp(−

sinh (¸ d)
¸2
T )11T =T c ] =
2
sinh (¸ (c + d))

E [exp(−

¸2
cosh (¸ (c − d)=2)
T )] =
:
2
cosh(s(c + d)=2)

b. G´
en´
eralisation
Si X t = ¹ t + B t et Ta¹ = inf{t ≥ 0; X t = a} on peut montrer, en utilisant la martingale
(exp(¯ X t − (¹ ¯ + 12 ¾2 ¯ 2 ) t); t ≥ 0) que pour ¹ > 0; ¸ > 0 (on pose ¸ = (¹ ¯ + 12 ¾2 ¯ 2 ))
p
E (exp −¸ Ta¹ ) = exp(¹ a − |a| ¹ 2 + 2¸ ):

(2.8)

On obtient P (Ta < ∞) en faisant ¸ = 0. Cette quantit´e n’est ´egale a` 1 que si ¹ et a sont de mˆeme
signe. On donnera une autre d´emonstration au chapitre (6).

2.3.9

Brownien multidimensionnel
(1)

(2)

(n )

Soit B t = (B t ; B t ; : : : ; B t )T un processus n-dimensionnel (l’exposant T note la transposition
d’un vecteur). On dit que B est un Brownien multidimensionnel si les processus (B (i ) ; i ≤ n)
sont des browniens ind´ependants. C’est un processus a` accroissements ind´ependants. Pour
(1)
(2)
chaque (a; b), le processus aB t + bB t est un processus gaussien. Il est facile de v´erifier que
1
def
(1)
(2)
(aB t + bB t ) est un MB (Calculer son esp´erance et sa covariance).
Bt = √
a 2 + b2
Si B est un brownien n-dimensionnel, on a E (B tT B s ) = n(s ∧ t).
Le processus n-dimensionnel B est un mouvement Brownien si et seulement si les processus B (i )

January 11, 2002

35

et B (i ) B (j ) − ±i ;j t sont des martingales (avec ±i ;j = 0 pour i 6= j et ±i ;i = 1.
Si B 1 et B 2 sont deux Browniens `a valeurs r´eelles ind´ependants, le produit B 1 B 2 est une martingale.
On dira que les mouvements Browniens `a valeurs r´eelles B 1 et B 2 sont corr´el´es de coefficient de
corr´elation ½ si B 1 (t)B 2 (t) − ½t est une martingale. On “ d´ecorrele” les MB en introduisant le
1
(B 2 (t) − ½B 1 (t)). Ce processus est une martingale; en
processus B 3 d´efini par B 3 (t) = p
1 − ½2
´ecrivant
(B 3 (t))2 − t

1
[(B 2 (t))2 + ½2 (B 1 (t))2 − 2½B 2 (t)B 1 (t) − t(1 − ½2 )]
1 − ½2
1
[(B 2 (t))2 − t + ½2 [(B 1 (t))2 − t] − 2½[B 2 (t)B 1 (t) − ½t]
1 − ½2

=
=

on montre que (B 3 (t))2 − t est une martingale, d’o`
u B 3 est un MB. On peut montrer que B 3 est
ind´ependant de B 1 , nous donnerons une d´emonstration plus tard. Il est facile de v´erifier que le
produit B 1 B 3 est une martingale. Dans ce cas, il existe un Brownien B (3) , ind´ependant de B (2) tel
p
1
def
que B (1) = ½B (2) + 1 − ½2 B (3) et, pour tout (a; b) le processus B t = p
(aB (1) +
2
a + b2 + 2½ab
bB (2) ) est un mouvement Brownien. .

2.4

Int´
egrale de Wiener

2.4.1


efinition

On note L 2 (IR + ) l’ensemble des (classes d’´equivalence des) fonctions bor´eliennes f de IR + dans
R +∞
IR de carr´e int´egrable, c’est-`
a-dire telles que 0 |f (s)|2 ds < ∞.
µZ ∞
¶1=2
f 2 (s) ds
.
C’est un espace de Hilbert pour la norme ||f ||2 =
0

a. Fonctions en escalier
R +∞
Pour f = 11]u ;v ] , on pose 0 f (s)dB s = B (v) − B (u).
R +∞
Pi =n
Soit f une fonction en escalier, on pose 0 f (s)dB s = i =1 f i −1 (B (t i ) − B (t i −1 )) :
def R +∞
La variable al´eatoire I (f ) = 0 f (s)dB s est une variable gaussienne d’esp´erance nulle et de
R +∞
variance 0 f 2 (s)ds. En effet, I (f ) est gaussienne car le processus B est gaussien, centr´ee car
B est centr´e. De plus
Var(I (f )) =

i =n
X
i =1

f i2−1 Var (B (t i )

− B (t i −1 )) =

L’int´egrale est Rlin´eaire : I (f + g) = I (f ) + I (g).
E (I (f ) I (g)) = R + f (s) g(s) ds: En effet

i =n
X
i =1

f i2−1 (t i

− t i −1 ) =

Z

+∞

f 2 (s)ds :

0

Si f et g sont des fonctions en escalier

Var (I (f + g)) = = Var[I (f ) + I (g)] = Var (I (f )) + Var (I (g)) + 2E (I (f )I (g))
Z ∞
Z ∞
Z ∞
Z ∞
2
2
2
=
(f + g) (s)ds +
f (s)ds +
g (s)ds + 2
f (s)g(s)ds
0

0

0

0

36

Le mouvement Brownien

b. Cas g´
en´
eral
On montre en analyse que, si f ∈ L 2 (IR + ), il existe une suite f n de fonctions en escalier qui
converge (dans L 2 (IR + )) vers f , c’est-`
a-dire qui v´erifie
Z ∞
|f n − f |2 (x) dx →n →∞ 0:
0

R∞
Dans ce cas, la suite f n est de Cauchy dans L 2 (IR + ). La suite de v.a. F n = 0 f n (s) dB s est une
suite de Cauchy dans l’espace de Hilbert L 2 (Ω) (en effet ||F n − F m ||2 = ||f n − f m ||2 →n ;m →∞ 0),
donc elle est convergente. Il reste `a v´erifier que la limite ne d´epend que de f et non de la suite
f n choisie (Voir les d´etails dans Revuz-Yor). On pose
Z ∞
Z ∞
def
I (f ) =
f (s) dB s = lim
f n (s) dB s
n →∞

0

0

la limite ´etant prise dans L 2 (Ω).
On dit que I (f ) est l’int´egrale stochastique R(ou int´egrale de Wiener) de f par rapport `a B .

Le sous-espace de L 2 (Ω) form´e par les v.a. 0 f (s)dB s co¨ıncide avec l’espace gaussien engendr´e
par le mouvement Brownien.

2.4.2

Propri´
et´
es

L’application f → I (f ) est lin´eaire et isom´etrique de L 2 (IR + ) dans L 2 (Ω): la lin´earit´e signifie que
I (f + g) = I (f ) + I (g) et l’isom´etrie que la norme de I (f ) est ´egale a` la norme de f . La norme de
I (f ) est la norme
L 2 (Ω) d´efinie par ||I (f )||2 = E ( (I (f ))2 ), la norme de f est la norme L 2 (IR + ),
Z
soit ||f ||2 =



f 2 (s)ds .

R
La propri´et´e d’isom´etrie est E (I (f ) I (g)) = IR + f (s)g(s) ds:
R
Soit f ∈ L 2 (IR + ). La variable I (f ) est une v.a. gaussienne centr´ee de variance IR + f 2 (s)ds
appartenant `a l’espace gaussien engendr´e par (B t ; t ≥ 0) et elle v´erifie pour tout t
0

E

µ

B (t)

Z

IR +

f (s)dB s



=

Z

t

f (s)ds :

(2.9)

0


µZ t
Z
¢
¡
R
dB (s)
f (s)dB s .

emonstration: Il suffit de remarquer que E B (t) IR + f (s)dB s = E
0
IR +
2
La propri´et´e (2.9) est en fait une caract´
u si pour
Z ∞erisation de l’int´egrale stochastique au sens o`
Rt
tout t, E (Z B t ) = 0 f (s)ds, alors Z =
f (s)dB s .
0

2.4.3

Processus li´
e`
a l’int´
egrale stochastique

Rt
R +∞
On d´efinit pour f ∈ L 2 (IR + ) la variable al´eatoire 0 f (s)dB s = 0 11[0;t ] (s)f (s)dB s .
Rt
RT
On peut de la mˆeme fa¸con d´efinir 0 f (s)dB s pour f telle que 0 |f (s)|2 ds < ∞; ∀T , ce qui
permet de d´efinir l’int´egrale stochastique pour une classe plus grande de fonctions. On notera
L 2loc cette classe de fonctions.
Rt
Th´
eor`
eme 2.4.1 Soit f ∈ L 2loc et M t = 0 f (s)dB s .
a) Le processus M est une martingale continue, la v.a. M t est d’esp´erance 0 et de variance
Rt 2
f (s) ds.
0

January 11, 2002

37

R t ∧s
b) Le processus M est un processus gaussien centr´e de covariance 0 f 2 (u) du `
a accroissements
ind´ependants.
Rt
c) Le processus (M t2 − 0 f 2 (s) ds ; t ≥ 0) est une martingale.
Z t ∧s
Rs
Rt
2
d) Si f et g sont dans L loc , on a E ( 0 f (u)dB u 0 g(u)dB u ) =
f (u)g(u)du .
0


emonstration: On commence par le cas o`
u la fonction f est ´etag´ee et on passe a` la limite.
Pour v´erifier que M est une martingale, on montre que
Z t
0 = E (M t − M s |Fs ) = E (
f (u)dB u |Fs )
(2.10)
s

pour f =

Pi =n

i =1

f i −1 11]t i −1 ;t i ] .

Z t
Supposons que t i < s < t ≤ t i +1 . Dans ce cas E (
f (u)dB u |Fs ) = f i E ((B t − B s )|Fs ) et (2.10)
s

est v´erifi´ee.
Supposons que t i < s ≤ t i +1 ≤ t j < t ≤ t j +1 .Dans ce cas

E(

Z

s

t

f (u)dB u |Fs ) = E (f j (B t − B t j ) +

j −1
X

k =i +1

= f j E (B t − B t j |Fs ) +

f k (B t k +1 − B t k ) + f i (B t i +1 − B s )|Fs )

j −1
X

k =i +1

f k E (B t k +1 − B t k |Fs ) + f i E (B t i +1 − B s |Fs ) = 0

Les autres cas sont analogues.

2.4.4

2

Int´
egration par parties

Th´
eor`
eme 2.4.2 Si f est une fonction de classe C 1 ,
Z t
Z t
f (s) dB s = f (t)B (t) −
f 0 (s)B s ds:
0

0

R
´monstration: Il suffit, d’apr`es (2.9), de v´erifier que E [B u ( 0t f (s) dB s )] = E (B u [f (t)B t −
De
Z t ∧u
Rt 0
f (s)B s ds]). Le premier membre vaut
f (s)ds, on calcule le second au moyen des deux
0
0
Z t
Rt
´egalit´es E (B u f (t)B t ) = f (t)(t ∧u); E (B u 0 f 0 (s)B s ds) =
f 0 (s)(s ∧u)ds. L’´egalit´e r´esulte alors
0

de l’application de la formule d’int´egration par parties classique pour calculer des expressions du
Rb
type 0 sf 0 (s)ds.
2
On peut aussi ´ecrire cette formule
d(B t f (t)) = f (t)dB t + B t f 0 (t)dt

2.5
2.5.1

(2.11)

Exemples
Processus d’Ornstein-Uhlenbeck

Th´
eor`
eme 2.5.1 L’´equation de Langevin
Z t
Vt = −
aVs ds + ¾B t + V0 ;
0

(2.12)

38

Le mouvement Brownien

a pour unique solution
Vt = e−t a V0 +

Z

t

e−(t −s )a ¾dB s :

(2.13)

0

On ´ecrit l’´equation (2.12) sous forme condens´ee
dVt + aVt dt = ¾dB t ;

V0 donn´e

les donn´ees du probl`eme sont la variable al´eatoire V0 , le Brownien B et les constantes a et ¾.

emonstration: Soit X = (X t ; t ≥ 0) le processus d´efini par le second membre de (2.13).
Nous allons v´erifier que X est solution de l’´equation (2.12). En utilisant la formule d’int´egration
par parties, on transforme l’int´egrale
Z t
Z t
Z t
e−(t −s )a ¾dB s = ¾e−a t
es a dB s = ¾e−a t [ea t B t − a
es a B s ds)
0

0

−t a

−a t

0

0

Rt

0

sa

On en d´eduit que X t = e V0 + ¾B t − ¾e a 0 e B s ds. On s’attache ensuite au calcul de
Z
Z t
Z t
Z t
Z t
¡ s ua
¢
X s ds =
e−s a V0 ds + ¾
B s ds − a¾
e−a s
e B u du ds
0

0

0

L’int´egrale double qui apparait au second membre est
Z
Z t
Z t
Z t
¤
1£ t
dueu a B u
dse−a s =
B s ds − e−a t
ea s B s ds
a 0
0
0
u

ce qui conduit a`

a

Z

0

t

X s ds = V0 (1 − e−a t ) + ¾a

Z

0

t

ea (s −t ) B s ds = −X t + ¾B t + V0

d’o`
u X v´erifie (2.12). 2 Une autre m´ethode consiste a` poser Yt = e−a t Vt . En utilisant la formule
d’int´egration par parties (2.11), on obtient
dYt = e−a t dVt − ae−a t Vt dt = e−a t ¾dB t
Z t
dont la solution est Yt = Y0 +
e−a s ¾dB s .
0

Proposition 2.5.1 Si V0 est une v.a.r. gaussienne ind´ependante du brownien (en particulier
si V0 est une constante), le processus V, appell´e processus d’Ornstein-Uhlenbeck est gaussien
d’esp´erance et de covariance
E (Vt ) = e−t a E (V0 );
Z s
−s a
−t a
+
e−(s −u )a ¾2 e−(t −u )a du ; s ≤ t
cov[Vs ; Vt ] = e ve
0

si v d´esigne la variance de V0 .
Le processus V est un processus de Markov.

´monstration: En effet, d’apr´es (2.13), E (Vt ) = e−t a E (V0 ) car l’esp´erance de l’int´egrale
De
stochastique est nulle (la fonction es a est de carr´e int´egrable sur tout intervalle fini). Toujours
d’apr`es (2.13),
Z s
Z t
cov[Vs ; Vt ] = cov(V0 e−a s + ¾e−a s
ea u dB u ; V0 e−a t + ¾e−a t
ea u dB u )
0
0
Z s
Z t
= cov(V0 e−a s ; V0 e−a t ) + ¾2 e−a s e−a t cov(
ea u dB u ;
ea u dB u )
0
0
Z s ∧t
2 −a s −a t
2a u
−a s −a t
= ve e
+¾ e e
e
du ;
0

January 11, 2002

39

Le caract`ere gaussien2 est facile `a ´etablir.
L’unicit´e se montre en v´erifiant que si V1 et V2 sont solutions, V1 − V2 est solution d’une ´equation
diff´erentielle d´eterministe.
2
En particulier, si V0 est une constante (v = 0)
¾2 −a (s +t ) 2a s
(e − 1)
e
2a

cov[Vs ; Vt ] =

¾2
(1 − exp −2at).
2a
Rs
Rs
En ´ecrivant Vs = e−s a V0 + 0 e−(s −u )a ¾dB u et Vs e(s −t )a = e−t a V0 + 0 e−(t −u )a ¾dB u on en
d´eduit, pour s ≤ t
Z t
e−(t −u )a ¾dB u
Vt = Vs e−(t −s )a +

et Var(Vt ) =

s

ou encore

Vt +s = Vs e−t a +

Z

t
0

e−(t −u )a ¾dBeu

o`
u le processus Be d´efini par Beu = B s +u − B s est un MB ind´ependant de Fs (donc de Vs ). En
particulier E (f (Vt +s )|Fs ) = E (f (Vs e−t a + Y)|Fs ) = E (f (Vt +s )|Vs ) (dans cette ´egalit´e Y est une
v.a. ind´ependante de Fs ) ce qui ´etablit le caract`ere markovien de V. Le calcul explicite peut se
faire en utilisant que
E (f (Vs(x ) e−t a + Y)|Fs ) = Ψ(Vs(x ) )
(y )

u V (x ) est la solution de l’´equation de valeur initiale
avec Ψ(y) = E (f (ye−t a + Y)) = E (f (Vt )) o`
R
t
(x )
x, soit Vt = e−t a x + 0 e−(t −s )a ¾dB s :
Proposition 2.5.2 La variable al´eatoire

Z

0

t

−a t

Vs ds est une v.a. gaussienne, de moyenne V0 1−ea

¾2
¾2
1 − e−a t
et de variance − 3 (1 − e−a t )2 + 2 (t −
):
2a
a
a
´monstration: Voir le paragraphe suivant.
De

2.5.2

2

Mod`
ele de Vasicek

Une g´en´eralisation du mod`ele pr´ec´edent est l’´equation
dr t = a(b − r t )dt + ¾dB t :

(2.14)

Sous cette forme, elle est utilis´ee pour ´etudier l’´evolution des taux d’int´erˆet (mod`ele de Vasicek). La forme explicite de la solution est
Z t
r t = (r 0 − b)e−a t + b + ¾
e−a (t −u ) dB u :
0

(Il suffit de poser r t − b = Vt , le processus V est alors solution de l‘´equation de Langevin. L’´egalit´e
Z t
r t = (r s − b)e−a (t −s ) + b + ¾
e−a (t −u ) dB u ; s ≤ t
s

´etablit le caract`ere Markovien de r . Si r 0 est une constante, r t est une variable gaussienne de
2
moyenne (r 0 − b)e−a t + b, et de variance ¾
2a (1− exp −2at). En particulier, ce n’est pas une variable
2 “An

interesting study in the laws of probability.” H. Poirot, Sad Cypress, A. Christie.

40

Le mouvement Brownien
2

−a (s +t ) 2a s
(e − 1) pour s ≤ t.
positive. Le processus r est gaussien de covariance C ov(r s ; r t ) = ¾
2a e
L’expression explicite de (r t ; t ≥ s) en fonction de r s montre que, conditionnellement a` Fs , la
2
v.a. r t +s est variable gaussienne de moyenne (r s − b)e−a t + b, et de variance ¾
2a (1 − exp −2at).
De mˆeme, conditionnellement a` Fs , le processus (r t +s ; t ≥ 0) est un processus de Vasicek de
param`etres (a; b; ¾) et de condition initiale r s .
On en d´eduit

Proposition 2.5.3 Pout s < t, l’esp´erance et le variance conditionnelle de r sont
E (r t |r s ) = (r s − b)e−a (t −s ) + b
¾2
vars (r t ) =
(1 − e−2a (t −s ) )
2a
Rt
Proposition 2.5.4 La variable 0 r s ds est une variable gaussienne de moyenne
Z t
1 − e−a t
E(
r s ds) = bt + (r 0 − b)
a
0

1 − e−a t
¾2
¾2
−a t 2
(1

e
)
+
(t

):
2a 3
a2
a
Z t
r s ds + ¾B t . D’o`
u

emonstration: Par d´efinition r t = r 0 + abt − a

et de variance −

0

Z

0

t

1
1
r s ds = [−r t + r 0 + abt + ¾B t ] = [−(r 0 − b)e−a t − b − ¾
a
a

Z

t

e−a (t −u ) dB u + r 0 + abt + ¾B t ]:

0

Plus g´en´eralement, on a, pour t ≥ s
Z t
1 − e−a (t −s )
E(
r u du|Fs ) = b(t − s) + (r s − b)
= M (t; s)
a
s
Var s (

Z

s

t

r u du) = −

¾2
1 − e−a (t −s )
¾2
−a (t −s ) 2
(1

e
)
+
(t

s

) = V(t; s)
2a 3
a2
a

o`
u Vars d´esigne
R t la variance conditionnelle par rapport a` Fs .
La variable s r u du est une variable gaussienne dont on connait, conditionnellement `a Fs l’esp´erance
et la variance. On en d´eduit
Z t
1
E (exp −
r u du |Fs ) = exp(−M (t; s) + V(t; s)) :
2
s
Ces calculs sont utiles pour valoriser des z´ero-coupons en finance
·
¸
¾2
1 − e−a (t −s )
¾2
1 − e−a (t −s )
(t

s

B (t; T ) = exp b(t − s) + (r s − b)
− 3 (1 − e−a (t −s ) )2 +
)
a
4a
2sa 2
a

Chapter 3

´
INTEGRALE
STOCHASTIQUE
On se donne un espace (Ω; F; P ) et un mouvement Brownien B sur cet espace. On d´esigne par
Ft = ¾(B s ; s ≤ t) la filtration naturelle du mouvement Brownien.

3.1


efinition

On veut g´en´eraliser1 l’int´egrale de Wiener et d´efinir

3.1.1

Rt

0

µs dB s pour des processus stochastiques µ.

Cas de processus ´
etag´
es

On dit qu’un processus µ est ´etag´e s’il existe une suite de r´eels t j ; 0 ≤ t 0 ≤ t 1 : : : ≤ t n et une suite
de variables al´eatoires µj telles que µj soit Ft j -mesurable, appartienne `a L 2 (Ω) et que µt = µj
P −1
µj 11]t j ;t j +1 ] (s) .
pour tout t ∈]t j ; t j +1 ], soit µs = nj =0
On d´efinit alors
Z ∞
nX
−1
µs dB s =
µj (B (t j +1 ) − B (t j )):
0

j =0

R∞
R∞
On a E ( 0 µs dB s ) = 0 et Var ( 0 µs dB s ) = E [ 0 µs2 ds].
On obtient
Z t
nX
−1
µs dB s =
µj (B (t j +1 ∧ t) − B (t j ∧ t)):
R∞

0

j =0

P −1
µj 11]T j ;T j +1 ] (s)
Si Tj ; 0 ≤ T0 ≤ T1 : : : ≤ Tn est une suite croissant de temps d’arrˆet, et si µs = nj =0
o`
u µj est une suite de variables al´eatoires telles que µj soit FT j -mesurable, appartienne a` L 2 (Ω),
on d´efinit alors
Z t
nX
−1
µs dB s =
µj (B (Tj +1 ∧ t) − B (Tj ∧ t)):
0

3.1.2

j =0

Cas g´
en´
eral

On peut prolonger la d´efinition de l’int´egrale de Wiener `a une classe plus grande de processus.
On perd le caract`ere gaussien de l’int´egrale, ce qui est d´eja le cas pour le cas de processus ´etag´e.
1 “Je marche vers mon but, je vais mon chemin; je sauterai par dessus les h´
esitants.” Ainsi parlait Zarathoustra.
Nietzsche.

41

42

Int´egrale stochastique

On d´efinit les processus c`adl`
agde carr´e int´egrable (appartenant `a L 2 (Ω×IR + ) ) comme l’ensemble
Γ des processus µ continus `a gauche limit´es a` droite, (Ft )-adapt´es tels que
Z ∞
2 def
µt2 dt] < ∞:
kµk = E [
0

Les processus ´etag´es appartiennent a` Γ. On dit que µn converge vers µ dans L 2 (Ω × IR + ) si
2
kµ − µn k → 0 quand n → ∞.
L’application µ → ||µ||
R ∞d´efinit une norme qui fait de Γ un espace complet.
On peut d´efinir 0 µs dB s pour tous les processus µ de Γ: on approche µ par des processus
Pk (n )
´etag´es, soit µ = limn →∞ µn o`
u µn = j =1 µ˜jn 1]t j ;t j +1 ] , avec µ˜jn ∈ Ft j la limite ´etant au sens de
L 2 (Ω × IR).
R∞
Pk (n )
L’int´egrale 0 µs dB s est alors la limite dans L 2 (Ω) des sommes j =1 µ˜jn (B (t j +1 ) − B (t j )) dont
P ˜2
l’esp´erance est 0 et la variance E [ j µj (t j +1 − t j )].
¢2
R∞
¡R ∞
R∞
On a alors E ( 0 µs dB s ) = 0 et E 0 µs dB s = E ( 0 µs2 ds):

Rt
Rt
P
def R ∞
On note 0 µs dB s = 0 µs 11[0;t ] (s) dB s . Si µ est ´etag´e 0 µs dB s = i µi (B t i +1 ∧t − B t i ∧t .
Plus g´en´eralement, si ¿ est un temps d’arrˆet, le processus 11]0;¿ ] (t) est adapt´e et on d´efinit
Z

3.2

¿ ∧t

µs dB s =

0

Z

t

µs 11]0;¿ ] (s)dB s
0

Propri´
et´
es

On note Λ l’ensemble L 2loc (Ω × IR + ) des processus µ adapt´es c`
agl`
ad v´erifiant E (
∞ ; ∀t.

3.2.1

Rt

0

µs2 (! )ds) <

Lin´
earit´
e.

Soit a et b des constantes et (µi ; i = 1; 2) deux processus de Λ. On a
Z

0

3.2.2

t

¡ 1
¢
aµs + bµs2 dB s = a

Z

t

µs1 dB s + b

0

Z

t

µs2 dB s
0

Propri´
et´
es de martingale

Rt
Proposition 3.2.1 Soit M t = 0 µs dB s , o`
u µ ∈ Λ.
a) Le processus M est une martingale, `
a trajectoires continues.
¶2 Z t
µZ t
b) Soit N t =
µs dB s
µs2 ds. Le processus (N t ; t ≥ 0) est une martingale.

0

0

Corollaire 3.2.1 ³L’esp´erance de M t ´est nulle
est ´egale `
a
³R et sa variance
´
Rt
Rt
t
d.) Soit Á ∈ Λ. E 0 µs dB s 0 Ás dB s = E 0 µs Ás ds .
Rt
Rt
Si M t (µ) = 0 µs dB s et M t (' ) = 0 ' s dB s , le processus
M t (µ)M t (' ) −

est une martingale.

Z

0

t

µs ' s ds

Rt

0

2

E {µs } ds:

January 11, 2002

43

La propri´et´e de martingale s’´ecrit
E

µZ

t

µu dB u |Fs

0

ou
E

µZ

s



=

Z

s

µu dB u ;

∀t ≥ s;

0

t

µu dB u |Fs



=0

Rt
et implique en particulier que"E ( s µu dB u ) = 0. #
·Z t
¶2
¸
µZ t
La propri´et´e b) ´equivaut `a E
µu dB u
µu2 du|Fs .
|Fs = E
s

s

Si l’on veut d´efinir M t pour t ≤ T , il suffit de demander que µ ∈ L 2 (Ω × [0; T ]), c’est a` dire
RT
E ( 0 µt2 dt) < ∞ et que µ soit adapt´e. Sous cette condition, (M t ; t ≤ T ) est encore une martingale.

emonstration: Toutes ces propri´et´es se d´emontrent pour des processus ´etag´es, puis par
passage `a la limite.
2

3.2.3

Un exemple

Proposition 3.2.2 Pour tout t on a

Z

t

B s dB s =

0

1 2
(B − t)
2 t


emonstration: Par d´efinition
Z

t

B s dB s = lim

0

X

B t i (B t i +1 − B t i )

L’´egalit´e
2

n
X
i =0

montre que

Z

0

3.2.4

B t i (B t i +1 − B t i ) =

t

B s dB s =

n
X
i =0

B t2i +1 − B t2i −

n
X
(B t i +1 − B t i )2
i =0

n
X
1 2
1
(B t i +1 − B t i )2 ] = [B t2 − t].
[B t − lim
n
2
2
i =0

2

Martingale locale

Rt
On peut d´efinir 0 µs dB s pour des processus adapt´es c`
agl`
ad qui n’appartiennent pas n´ecesRt
sairement a` L 2 (Ω × IR), mais qui v´erifient pour tout t, 0 µ2 (s; ! ) ds < ∞ p.s. Dans ce cas
M n’est pas une martingale mais une martingale locale et E (M t ) peut ˆetre non nul.

3.2.5

In´
egalit´
e maximale

On a souvent besoin de majorations d’int´egrales stochastiques.
Proposition 3.2.3 Soit µ ∈ Λ
E ([sup
s ≤T

Z

0

s

Z
µu dB u ]2 ) ≤ 4E ([

0

T

µu dB u ]2 ) = 4

Z

0

T

E [µu2 ]du

44

3.3
3.3.1

Int´egrale stochastique

Processus d’Itˆ
o

efinition

Un processus X est un processus d’Itˆ
o si
Xt = x +

Z

t

bs ds +

0

Z

t

¾s dB s

0

Rt
o`
u b est un processus adapt´e tel que 0 |bs | ds existe (au sens Lebesgue) p.s. pour tout t, et ¾ un
processus appartenant `a Λ.
On utilise la notation plus concise suivante
½
dX t = bt dt + ¾t dB t ;
X0 = x
Le coefficient b est le drift ou la d´erive, ¾ est le coefficient de diffusion.
L’´ecriture dX t = bt dt + ¾t dB t est unique (sous r´eserve que les processus b et ¾ v´erifient les
conditions d’int´egrabilit´e). Ceci signifie que si
˜t dB t
dX t = bt dt + ¾t dB t = ˜bt dt + ¾
alors b = ˜b; ¾ = tilde¾. en particulier, si X est une martingale locale alors b = 0Ret r´eciproquement.
t
On peut d´efinir un processus d’Itˆ
o pour des coefficients de diffusion tels que 0 ¾s2 ds < ∞ P :p:s:
Rt
mais on perd la propri´et´e de martingale de l’int´egrale stochastique. La partie x + 0 bs ds est la
partie a` variation finie.

3.3.2

Propri´
et´
es

Si ¾ appartient `a Λ, on a E (X t ) = E (X 0 ) +
∀t ≥ s;

E (X t |Fs ) = X 0 +

Z

s

bu du + E (

0

Rt

0

Z

E (bs )ds, et

t

s

bu du |Fs ) +

Z

0

s

Z t
¾u dB u = X s + E (
bu du |Fs ):
s

Si b ≡ 0 et ¾ ∈ Λ, le processus X est une martingale continue.
On verra que la r´eciproque est vraie: Rsous certaines conditions d’int´egrabilit´e et de mesurabilit´e,
t
toute martingale continue s’´ecrit x + 0 Ás dB s .

3.3.3

Int´
egrale par rapport `
a un processus d’Itˆ
o.

Soit X un processus d’Itˆo de d´ecomposition dX t = bt dt + ¾t dB t . On note (sous r´eserve de
conditions d’int´egrabilit´e)
Z

0

3.3.4

t

def

µs dX s =

Z

t

µs bs ds +

0

Z

t

µs ¾s dB s :
0

Crochet d’un processus d’Itˆ
o

Soit Z une martingale continue de carr´e int´egrable (telle que E (supt Z t2 ) < ∞). On peut montrer
(Voir Revuz-Yor) qu’il existe un processus croissant continu A tel que (Z t2 − At ; t ≥ 0) est une
martingale. Le processus A est appell´e le “crochet oblique”, ou le crochet de Z . On le note
tr`es souvent At = hZ; Z it ou encore hZ it . En utilisant ce vocabulaire cher aux probabilistes,
nous avons ´etabli que le crochet du Brownien est t et que le crochet de l’int´egrale stochastique

January 11, 2002
(M t =

Z

45

t

µs dB s ) est

0

Z

t

µs2 ds. Si M et N sont deux martingales continues, on d´efinit leur

0

1
crochet par < M ; N > t = (< M + N ; M + N > t − < M ; M > t − < N ; N > t ). Le processus
2
M
Z N − < M ; N > est
Z une martingale. Le crochet
Z de deux int´egrales stochastiques X t = x +
t

t

H s dB s ; Yt = y +

t

K s dB s est < X ; Y > t =

0

0

H s K s ds.

0

Proposition 3.3.1 Le crochet de deux martingales continues M et N est ´egal `
a la variation
quadratique de ces processus
n
X
(M t i +1 − M t i ) (N t i +1 − N t i )
< M ; N > t = lim
i =1

On dit que deux martingales continues sont orthogonales si leur crochet est nul, ou si leur produit
est une martingale.
On ´etend la d´efinition du crochet aux processus d’Itˆo: si
dX i (t) = bi (t)dt + ¾i (t)dB t ; i = 1; 2
sont deux processus d’Itˆo, leur crochet est par d´efinition le crochet de leur partie martingale. Cela
tient a` la propri´et´e 3.3.1.
Nous en d´eduisons une nouvelle forme de la d´efinition de Browniens corr´el´es: deux Browniens
sont corr´el´es si leur crochet est ½t. On d´efinit le crochet du processus
o X comme ´etant le
Z d’Itˆ
t

crochet de sa partie martingale. Le crochet de X est At = hX it =

¾s2 ds. On caract´erise le

0

mouvement Brownien en disant que c’est une martingale continue d’esp´erance nulle et de crochet
t.

3.4

Lemme d’Itˆ
o

Dans ce qui suit, X est un processus d’Itˆo de d´ecomposition dX t = bt dt + ¾t dB t . Nous renvoyons
a Revuz-Yor pour la d´emonstration bas´ee sur la formule de Taylor et la propri´et´e 3.3.1 du crochet.
`

3.4.1

Premi`
ere forme

Th´
eor`
eme 3.4.1 Soit f une fonction de IR dans IR, de classe C 2 `
a d´eriv´ees born´ees. Alors
Z
Z t
1 t 00
f 0 (X s )dX s +
f (X s )¾s2 ds:
f (X t ) = f (X 0 ) +
2 0
0
Sous forme condens´ee

1
df (X t ) = f 0 (X t )dX t + f 00 (X t )¾t2 dt;
2

ou encore

1
df (X t ) = f 0 (X t )bt dt + f 00 (X t ) ¾t2 dt + f 0 (X t )¾t dB t ;
2
et en utilisant le crochet
1
df (X t ) = f 0 (X t )bt dt + f 00 (X t ) dhX it + f 0 (X t )¾t dB t :
2
La condition de bornitude des d´eriv´ees n’est exig´ee que pour l’existence des int´egrales et pour
la propri´et´e de martingale de l’int´egrale stochastique.

46

Int´egrale stochastique

La formule est facile a` m´emoriser en notant sa ressemblance avec la formule de Taylor, sous la
forme
1
df (X t ) = f 0 (X t )dX t + f 00 (X t )dX t · dX t ;
2
et la r`egle de multiplication
dt · dt = 0;

dt · dB t = 0;

dB t · dB t = dt

Applications: 1.) Calcul de E (f (X t )) et de E (f (X t ) |Fs ) (si f 0 et ¾ sont born´es)
³R
´
t
E (f (X t )) = E (f (X 0 )) + E 0 [f 0 (X s )bs + 12 f 00 (X s )¾s2 ]ds
³R
´
t
= E (f (X 0 )) + 0 E [f 0 (X s )bs + 12 f 00 (X s )¾s2 ]ds :

On retrouve, pour X t = B t , les r´esultats de la proposition 4, chapitre 2.
On obtient ´egalement
´
³R
t
E (f (X t ) |Fs ) = f (X s ) + E s [f 0 (X u )b(u) + 12 f 00 (X u )¾u2 ]du |Fs
Rt
= f (X s ) + s E [f 0 (X u )b(u) + 12 f 00 (X u )¾u2 |Fs ]du:

On prendra garde `a ne pas intervertir int´egrale et conditionnement pour des int´egrales stochastiques.
Rt
2.) Calcul de 0 B s dB s = 12 (B t2 − t):
3.) Calcul de d(exp X t ) = (expX t )(dX t + 12 ¾t2 dt).
Proposition 3.4.1 Supposons que
Xt = X0 +

Z

t

b(X s ) ds +

0

Z

t

¾(X s ) dB s

0

o`
u b et ¾ sont des fonctions de IR dans IR born´ees. Si f est une fonction de IR dans IR de classe
C2 `
a d´eriv´ees born´ees et v´erifiant
1
b(x)f 0 (x) + ¾2 (x)f 00 (x) = 0;
2

∀x;

le processus f (X ) est une martingale.

emonstration: Cela r´esulte directement de la formule d’Itˆ
o.
2
La fonction f est souvent appell´ee fonction d’´echelle. Elle est d´etermin´ee, a` deux constantes
pr`es par les fonctions b et ¾ par
µ Z u

Z x
exp −2
b(v)=¾2 (v) dv du :
f (x) =
c

c

On peut affaiblir la condition sur la bornitude des d´eriv´ees qui n’est utilis´ee que pour assurer
l’existence des int´egrales et la propri´et´e de martingale.
L’op´erateur L qui a` f ∈ C 2 fait correspondre Lf (x) = b(x)f 0 (x) + 12 ¾2 (x)f 00 (x) est le g´en´erateur
infinit´esimal de la diffusion X ou aussi le Dynkin. Il v´erifie
Lf (x) = lim

t →0

E x (f (X t )) − f (x)
:
t

January 11, 2002

3.4.2

47

Fonction d´
ependant du temps

Th´
eor`
eme 3.4.2 Soit f une fonction d´efinie sur IR + × IR de classe C 1 par rapport `
a t, de classe
2
C par rapport `
a x, `
a d´eriv´ees born´ees, on a
f (t; X t ) = f (0; X 0 ) +

Z

t

f t0 (s; X s )ds

0

+

Z

t

f x0 (s; X s )dX s

0

1
+
2

Z

t

f x00x (s; X s )¾s2 ds:

0

Ce que l’on note
1
df (t; X t ) = [f t0 (t; X t ) + f x00x (t; X t )¾t2 ]dt + f x0 (t; X t )dX t :
2
Applications:
1.) Soit X un processus tel que
Xt = X0 +

Z

t

b(s; X s ) ds +

0

Z

t

¾(s; X s ) dB s :

0

Si f est une fonction de IR + × IR dans IR telle que ¾f x0 est born´ee et
1
f t0 (t; x) + b(t; x)f x0 (t; x) + ¾2 (t; x)f x00x (t; x) = 0
2
alors (f (t; X t ); t ≥ 0) est une martingale.
L’op´erateur L d´efini sur les fonctions de C 1;2 par
1
L(f )(t; x) = b(t; x)f x0 (t; x) + ¾2 (t; x)f x00x (t; x)
2
est le g´en´erateur infinit´esimal de la diffusion.
Si f est une fonction de IR + × IR dans IR telle que ¾f x0 est born´ee et
1
f t0 (t; x) + b(t; x)f x0 (t; x) + ¾2 (t; x)f x00x (t; x) = r f (t; x)
2
alors (e−r t f (t; X t ); t ≥ 0) est une martingale.
2.) Soit X un processus (Brownien g´eom´etrique) tel que
dX t = X t (r dt + ¾dB t );
o`
u r et ¾ sont des constantes. Alors le processus (e−r t X t ; t ≥ 0) est une martingale. Il suffit de
remarquer que d(e−r t X t ) = e−r t X t ¾dB t et de v´erifier les conditions d’int´egrabilit´e.
La solution de dX t = X t (r dt + ¾dB t ); X 0 = x o`
u r et ¾ sont des constantes est X t = x exp(r t +
¾B t − 12 ¾2 t). On dit que X est un Brownien g´eom´etrique, ou processus log-normal.
3 .) Soit X un processus dX t = X t (b(t)dt +¾(t)dB t ); o`
u b et ¾sont des fonctions
µ Z t (X est¶dit Brownien g´eom´etrique a` coefficients d´eterministes). Alors le processus (exp −
b(s)ds X t ; t ≥ 0)
0

est une martingale.

3.4.3

Cas multidimensionnel

Th´
eor`
eme 3.4.3 Soit (X i ; i = 1; 2) deux processus d’Itˆ
o tels que
dX i (t) = bi (t)dt + ¾i (t)dB t :

48

Int´egrale stochastique

Soit f une fonction de IR 2 dans IR de classe C 2 . On a
df (X 1 (t); X 2 (t)) = f 10 (X 1 (t); X 2 (t)) dX 1 (t) + f 20 (X 1 (t); X 2 (t)) dX 2 (t)
+

¢
1 ¡ 00 2
00
00 2
f 11 ¾1 (t) + 2f 12
¾1 (t)¾2 (t) + f 22
¾2 (t) (X 1 (t); X 2 (t)) dt
2

o`
u f i0 d´esigne la d´eriv´ee par rapport `
a x i ; i = 1; 2 et f i00j la d´eriv´ee seconde par rapport a
` xi ; xj .
Sous forme condens´ee, on ´ecrit
df (X 1 ; X 2 )(t) =

2
X

f i0 (X 1 (t); X 2 (t)) dX i (t) +

i =1

1 X 00
f (X 1 (t); X 2 (t))¾i ¾j dt
2 i ;j i j

Int´
egration par parties, crochet
La formule d’Itˆo montre que d[X 1 X 2 ](t) = X 1 (t) dX 2 (t) + X 2 (t) dX 1 (t) + ¾1 (t)¾2 (t) dt:
Cette formule est connue sous le nom d’int´egration par parties. La quantit´e ¾1 (t)¾2 (t) correspond
au
Z crochet de X 1 ; X 2 , not´e < X 1 ; X 2 > et d´efini comme le processus `a variation finie < X 1 ; X 2 > t =
t

¾1 (s)¾2 (s)ds.

0

3.4.4

Cas du Brownien multidimensionnel.

Th´
eor`
eme 3.4.4 Soit (X i ; i = 1; 2) deux processus d’Itˆ
o tels que
dX i (t) = bi (t) dt + ¾i (t)dB i (t)
o`
u B 1 et B 2 sont deux Browniens ind´ependants. On a
df (X 1 (t); X 2 (t)) = f 10 (X 1 (t); X 2 (t)) dX 1 (t) + f 20 (X 1 (t); X 2 (t)) dX 2 (t)
1 00
00
(X 1 (t); X 2 (t))¾12 (t) + f 22
(X 1 (t); X 2 (t))¾22 (t)] dt:
+ [f 11
2
Cas g´en´eral : Soit (X t ; t ≥ 0) un processus d’Itˆo multidimensionnel de composantes (X i (t); i ≤ n),
tel que dX t = u t dt + vt dB t , soit

 




u1
v1;1 v1;2 : : : : : : v1;p
dB 1
dX 1
 v2;1 v2;2 : : : : : : v2;p   dB 2 
 dX 2   u 2 

 




 : : :  =  : : :  dt +  : : :
::: ::: :::
:::  ::: 
dX n
un
vp;1 vp;2 : : : : : : vn ;p
dB p

Soit f une fonction d´efinie sur IR + × R n de classe C 1;2 . Alors
df (t; X t ) = f t0 (t; X t )dt +

n
X

f i0 (t; X t )dX i (t) +

i =1

n
1 X 00
f (t; X t )dX i (t) dX j (t)
2 i ;j =1 i j

o`
u l’on utilise les conventions d’´ecriture
dB i dB j = ±i j dt; dB i dt = 0; dtdt = 0
Cas corr´el´e:


Documents similaires


Fichier PDF coursmonique
Fichier PDF coursjacod
Fichier PDF examen normale 2016 2017 sma s6
Fichier PDF examen rattrapage 2016 2017 sma s6
Fichier PDF poly
Fichier PDF cours2 prob et stoch sma s6


Sur le même sujet..