Cours1 Prob et Stoch SMA S6 .pdf



Nom original: Cours1_Prob et Stoch_SMA-S6.pdf

Ce document au format PDF 1.5 a été généré par TeX / MiKTeX pdfTeX-1.40.17, et a été envoyé sur fichier-pdf.fr le 05/07/2017 à 04:18, depuis l'adresse IP 105.140.x.x. La présente page de téléchargement du fichier a été vue 517 fois.
Taille du document: 1.1 Mo (50 pages).
Confidentialité: fichier public


Aperçu du document


.

Universit´
e Moulay Ismail
Facult´
e des Sciences Mekn`
es

epartement de Math´
ematiques et Informatique
BP, 11201, Zitoune, Maroc

Cours et exercices

Probabilit´
es et Processus Stochastiques
SMA-S6
Enseignant: SGHIR AISSA
sghir.aissa@gmail.com
Ann´
ee universitaire: 2016-2017

Pr´
erequis: Cours de probabilit´
es SMA-S3
Cours d’int´
egration SMA-S5

Le mouvement brownien, ou processus de Wiener, a ´
et´
e d´
ecrit pour la premi`
ere fois en 1827 par le botaniste Robert Brown.
C’est une description math´
ematique du mouvement al´
eatoire d’une grosse particule immerg´
ee dans un fluide et qui
n’est soumise `
a aucune autre interaction que des chocs avec les petites mol´
ecules du fluide environnant.

Table des mati`
eres
1 Espaces probabilis´
es
1.1 Probabilit´e sur un espace discret . . . . .
1.2 Probabilit´e sur un espace quelconque . . .
1.3 Probabilit´e conditionnelle et ind´ependance
1.4 Espace probabilis´e produit . . . . . . . . .
1.5 Exercices . . . . . . . . . . . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4
4
5
6
8
9

2 Variables al´
eatoires
2.1 Lois de probabilit´e d’une variable al´eatoire . . . . . . . .
2.2 Ind´ependance des variables al´eatoires . . . . . . . . . . .
2.3 Variables al´eatoires r´eelles . . . . . . . . . . . . . . . . .
2.3.1 Fonction de r´epartition et densit´e de probabilit´e
2.3.2 Moments d’une variable al´eatoire r´eelle . . . . .
2.3.3 Fonction g´en´eratrice des moments . . . . . . . .
2.3.4 Fonction caract´eristique . . . . . . . . . . . . . .
2.4 Extensions `
a des vecteurs al´eatoires . . . . . . . . . . . .
2.4.1 Fonction de r´epartition et densit´e . . . . . . . . .
2.4.2 Fonction g´en´eratrice des moments . . . . . . . .
2.4.3 Lois et esp´erance conditionnelles . . . . . . . . .
2.4.4 Vecteurs gaussiens . . . . . . . . . . . . . . . . .
2.4.5 Fonction caract´eristique . . . . . . . . . . . . . .
2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

10
10
11
13
13
15
17
19
21
21
24
24
26
28
30

3 Convergences et approximations
3.1 Modes de convergence . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Approximation de la loi de Poisson par la loi binomiale
3.2 Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Loi faible des grands nombres . . . . . . . . . . . . . . .
3.2.2 Loi forte des grands nombres . . . . . . . . . . . . . . .
3.3 Th´eor`eme de la limite centrale . . . . . . . . . . . . . . . . . .
3.3.1 Approximation de la loi binomiale par la loi normale . .
3.3.2 M´ethodes de Monte Carlo . . . . . . . . . . . . . . . . .
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

34
34
34
35
37
37
37
38
38
38
40

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

4 Processus stochastiques
42
4.1 G´en´eralit´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2 Accroissements d’un processus . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3 Filtration associ´ee `
a un processus stochastique . . . . . . . . . . . . . . . . 43

2

`
TABLE DES MATIERES

Sghir Aissa

4.4
4.5
4.6
4.7
4.8
4.9
4.10

Esp´erance conditionnelle . . . . . . . . .
Martingale et filtration . . . . . . . . . .
Mouvement Brownien . . . . . . . . . .
Exercices . . . . . . . . . . . . . . . . .
Examen: session normale 2016-2017 . . .
Examen: session de rattrapage 2016-217
R´ef´erences . . . . . . . . . . . . . . . . .

Facult´e des Sciences Mekn`es

3

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

Prob et Proc Stoch SMA-S6

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

44
45
45
46
48
49
50

Chapitre 1

Espaces probabilis´
es
Dans ce chapitre, nous rappelons quelques notions de base sur la th´eorie des probabilit´es
vue en semestre (SMA-S3), et nous pr´esentons le lien avec la th´eorie des tribus et mesures
vue en semestre (SMA-S5).
Tout exp´erience al´eatoire fait appel `a deux ensembles de type diff´erent:
— Un ensemble Ω appel´e espace fondamental ou univers, qui contient l’ensemble de
tous les r´esultats possibles de l’exp´erience al´eatoire. Ces derniers sont ´egalement
appel´es ´epreuves.
— Une famille A de P(Ω): l’ensemble des parties de Ω. Les parties de A sont appel´ees
des ´ev´enements. On dit que l’´ev´enement A s’est r´ealis´e si et seulement si le r´esultat
ω de Ω qui s’est produit appartient `a A.
La th´eorie des probabilit´es doit cependant donner des r´esultats quantifi´es, donc associer `a
chaque ´ev´enement un nombre qui ´evalue sa chance de r´ealisation.

1.1

Probabilit´
e sur un espace discret


efinition 1.1.1. Soit I une partie de N. Une probabilit´e P sur un ensemble au plus
d´enombrable Ω = (ωk )k∈I est une pond´eration (pk )k∈I des ´el´ements de cet ensemble telle
que:
• Pour tout k ∈ I, pk ≥ 0,
P

pk = 1.
k∈I

On attribue `
a toute ´eventualit´e ωi ∈ Ω la probabilit´e pi = P ({ωi }), et on attribue `a tout
´ev´enement A ⊂ Ω la probabilit´e:
X
P (A) =
pk .
k,ωk ∈A

La probabilit´e discr`ete P est d´efinie par:
P =

X


pk δωk

avec P (Ω) = 1 et δωk (A) = 1A (ωk ) =

k∈I

1 si ωk ∈ A,
0 sinon.

Exemple
Dans un lancer d’un d´e ´equilibr´e, on a Ω = {1, 2, 3, 4, 5, 6} et pk = 16 pour tout k ∈ [1 : 6].
Si l’´ev´enement A=(obtenir un nombre pair strictement sup´erieur `a 3), alors A = {4, 6} et
par suite P (A) = P ({4}) + P ({6}) = 16 + 61 = 13 .
4

Sghir Aissa

Chapitre 1. Espaces probabilis´es

Remarque 1.1.2. Si Ω est fini et les sym´etries font que tous les r´esultats possibles
1
ω1 , ..., ωn sont ´equiprobables, c-`
a-d: ces r´esultats ont la mˆeme pond´eration pk = Card(Ω)
pour tout k ∈ [1 : n], alors
card(A)
.
P (A) =
card(Ω)
Dans l’exemple pr´ec´edent, on a
P (A) =

1.2

card(A)
2
1
= = .
card(Ω)
6
3

Probabilit´
e sur un espace quelconque

Si on souhaite mod´eliser le temps de premi`ere obtention de Pile dans une suite de

jets d’une pi`ece `
a Pile ou Face, on choisit naturellement Ω = {P, F }N , ensemble qui est
infini non-d´enombrable. Dans ce cas, il est n´ecessaire de restreindre les ´ev´enements que
l’on consid`ere `
a une sous-classe de P(Ω) appel´ee tribu, o`
u P(Ω) est l’ensemble des parties
de Ω.

efinition 1.2.1. On appelle tribu sur Ω une partie A de P(Ω) v´erifiant les propri´et´es
suivantes:
— Ω ∈ A,
— A est stable par compl´ementaire: si A ∈ A alors A¯ ∈ A,
— A est[
stable par union d´enombrable: si (An )n est une suite des ´ev´enements de A
alors
An est un ´el´ement de A.
n

On appelle ´ev´enements les ´el´ements de A. (Ω, A) est appel´e espace probabilisable.
Exemples
— Tribu grossi`ere: {∅, Ω} est la plus petite tribu sur Ω.
— Tribu discr`ete: P(Ω) est la plus grosse tribu sur Ω.
¯ Ω} est une tribu sur Ω.
— Si A ∈ A alors {∅, A, A,
Remarque 1.2.2.
— Soit I une partie de N et (A
Ti )i∈I une famille de tribus sur le mˆeme espace Ω. Alors
la famille des parties A =
Ai est une tribu sur Ω.
i∈I

— Soit F une famille de parties de Ω. Il existe une plus petite tribu sur Ω qui contient
F. On l’appelle tribu engendr´ee par F, et on la note σ(F). C’est l’intersection de
toutes les tribus qui contient F. Par exemple: BR est la tribu bor´elienne engendr´ee
par les intervalles ouverts de R.

efinition 1.2.3. Soit (Ω, A) un espace probabilisable, on appelle probabilit´e sur (Ω, A)
toute application P de A dans [0, 1] tel que:
— P (Ω) = 1,
— σ-additivit´e: si (An )n est une suite des ´ev´enements de A deux `a deux disjoints,
(c-`
a-d: ∀ i 6= j, Ai ∩ Aj = ∅), alors
[ X
P
An =
P (An ).
n

n

Le triplet (Ω, A, P ) est appel´e un espace probabilis´e.
Proposition 1.2.4. P est une mesure positive sur (Ω, A) telle que P (Ω) = 1.
Facult´e des Sciences Mekn`es

5

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 1. Espaces probabilis´es

Propri`
et´
es 1.2.5.
1. Pour tout A ∈ A, 0 ≤ P (A) ≤ 1.
¯ = 1 − P (A).
2. P (A)
3. P (Ω) = 1, (´ev´enement certain) et P (∅) = 0, (´ev´enement impossible).
4. Si A ⊂ B alors P (A) ≤ P (B) et P (B \ A) = P (B) − P (A).
5. Soit A et B deux ´ev´enements, alors
P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
6. Formule de Poincar´
e: soit (Ai )i∈[1:n] une suite des ´ev´enements de A, alors
P

n
[

n
X
Ai =
(−1)k+1

i=1

n
X

P (Ai1 ∩ ... ∩ Aik ).

1≤i1 <i2 <...<in ≤n

k=1

7. In´
egalit´
e de Boole: soit (Ai )i∈[1:n] une suite des ´ev´enements de A, alors
P

n
[

n
X
Ai ≤
P (Ai ).

i=1

i=1

8. Continuit´
e croissante de P : soit (An )n une suite croissante des ´ev´enements de
A, alors
[
P
An = lim P (An ) = sup P (An ).
n→+∞

n

n

9. Continuit´
e d´
ecroissante de P : soit (An )n une suite d´ecroissante des ´ev´enements
de A, alors
\
P
An = lim P (An ) = inf P (An ).
n

n→+∞

n


efinition 1.2.6.
— Un ensemble A est dit n´egligeable si P (A) = 0.
— Une propri´et´e est dite vraie presque sˆ
ure (p.s) si elle est vraie pour tout ω ∈ Ω \ A,
o`
u A est un ensemble n´egligeable.

1.3

Probabilit´
e conditionnelle et ind´
ependance


efinition 1.3.1. Soit (Ω, A, P ) un espace probabilis´e et A un ´ev´enement de A avec
P (A) 6= 0. On appelle probabilit´e conditionnelle PA la probabilit´e d´efinie pour tout ´ev´enement B de A par:
P (A ∩ B)
.
PA (B) = P (B|A) =
P (A)
Proposition 1.3.2. (Ω, A, PA ) est un espace probabilis´e.
Preuve. Il suffit de montrer que PA est une probabilit´e sur (Ω, A).
1. A ∩ B ⊂ A =⇒ P (A ∩ B) ≤ P (A) =⇒ 0 ≤ PA (B) ≤ 1.
2. PA (Ω) =

P (Ω∩A)
P (A)

=

P (A)
P (A)

Facult´e des Sciences Mekn`es

= 1.

6

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 1. Espaces probabilis´es

3. Soit (An )n une suite des ´ev´enements deux `a deux disjoints dans A, alors

S
S

An ∩ A
P
An ∩ A
[ P
n
n
PA
An =
=
P
(A)
P (A)
n
P
=

P (An ∩ A)

n

=

P (A)

X

PA (An ),

n

car les (An ∩ A)n sont deux a` deux disjoints et P est une probabilit´e sur (Ω, A).
Th´
eor`
eme 1.3.3. (des probabilit´
es compos´
es): si (Ai )i∈[1:n] est une suites des ´ev´enements de A telles que P (A1 ∩ ..... ∩ An−1 ) > 0, alors
P (A1 ∩ ..... ∩ An ) = P (A1 ) × P (A2 |A1 ) × P (A3 |A2 ∩ A1 ) × ..... × P (An |An−1 ∩ ..... ∩ A1 ).
Remarque 1.3.4. Pour n = 2, si P (A) > 0, alors
P (A ∩ B) = P (A) × P (B|A).

efinition 1.3.5.
— On dit que (Ai )i∈[1:n] est une famille ind´ependante de sous tribus de A si pour toute
famille des ´ev´enements (Ai )i∈[1:n] o`
u Ai ∈ Ai , pour tout i ∈ [1 : n], on a
!
n
n
\
Y
P
Ai =
P (Ai ).
i=1

i=1

— On dit que les ´ev´enements (Ai )i∈I sont mutuellement ind´ependants si pour toute
partie J finie et non vide de I, on a
!
\
Y
Ai =
P (Ai ).
P
i∈J

— En particulier deux ´ev´enements A et B sont ind´ependants, et on note A

|=

i∈J

B si

P (A ∩ B) = P (A)P (B).

|=

|=

|=

|=

|=

Proposition 1.3.6.
B ssi PA (B) = P (B).
— Si P (A) 6= 0, alors A
¯ et A¯
¯
B alors A¯
B, A
B
B.
— Si A

Facult´e des Sciences Mekn`es

|=

|=

|=

|=

Exemple
Nous jetons un d´e ´equilibr´e et nous consid´erons les deux ´ev´enements:
A = (le r´esultat est impair) et B = (le r´esultat est ≤ 4). Alors
A = {1, 3, 5} ⇒ P (A) = 36 = 21
B = {1, 2, 3, 4} ⇒ P (B) = 64 = 23
A ∩ B = {1, 3} ⇒ P (A ∩ B) = 13 = P (A) × P (B) donc A
B.
¯ et A¯
¯
Par cons´equent A¯
B, A
B
B.
Exercice
Soient A et B deux ´ev´enements d’un espace probabilit´e (Ω, A, P ) tels que: P (A) =
P (B) = 14 et P (A ∪ B) = 94 .
¯ et PB (A ∩ B).
¯
1. Calculer PB (A), PB (A),
7

Prob et Proc Stoch SMA-S6

1
3,

Sghir Aissa

Chapitre 1. Espaces probabilis´es

2. Soit C un ´ev´enement ind´ependant de A tel que P (A ∩ C) = 51 .
¯ P (A¯ ∩ C) et P (A¯ ∩ C).
¯
3. Calculer P (C), P (A ∩ C),
Th´
eor`
eme 1.3.7. (des probabilit´
es totales): soit (Bi )i∈[1:n] une partition de Ω, c-`
a-d:
n
S
Bi et ∀ i 6= j, Bi ∩ Bj = ∅. Soit A un ´ev´enement quelconque de A, alors
Ω=
i=1

P (A) =

n
X

P (A ∩ Bi ) =

i=1

n
X

P (Bi ) × P (A|Bi ).

i=1

Th´
eor`
eme 1.3.8. (de Bayes): soit A un ´ev´enement de A tel que P (A) > 0. Alors pour
tout i ∈ [1 : n], on a
P (Bi ) × P (A|Bi )
P (Bi /A) = n
.
P
P (Bj ) × P (A|Bj )
j=1

Exemple
Supposons qu’une population d’adultes soit compos´ee de 30% de fumeurs (B1 ) et de 70%
de non-fumeurs (B2 ). Notons A l’´ev´enement=(mourir d’un cancer du poumon). Supposons
en outre que la probabilit´e de mourir d’un cancer du poumon est ´egale `a P (A|B1 ) = 20%
si l’on est fumeur et de P (A|B2 ) = 1% si l’on est non-fumeur.
30
70
On a: P (B1 ) = 100
= 0, 3, P (B2 ) = 100
= 0, 7 et Ω = B1 ∪ B2 .
Le th´eor`eme des probabilit´es totales nous donne:
P (A) =

2
X

P (Bi ) × P (A|Bi ) = P (B1 ) × P (A|B1 ) + P (B2 ) × P (A|B2 ) ' 0, 13.

i=1

Le th´eor`eme de Bayes nous permet de calculer la probabilit´e d’avoir ´et´e fumeur si on est
mort d’un cancer du poumon not´ee P (B1 |A):
P (B1 |A) =

P (B1 ) × P (A|B1 )
2
P

P (Bj ) × P (A|Bj )

=

P (B1 ) × P (A|B1 )
' 0, 9.
P (A)

j=1

1.4

Espace probabilis´
e produit

Jusqu’`
a pr´esent on a essentiellement parl´e de l’observation d’un ph´enom`ene unique.
On peut pourtant s’int´eresser `
a un ph´enom`ene ϕ qui est la juxtaposition de n ph´enom`enes
ϕi o`
u chaque ph´enom`ene ϕi est mod´elis´e par (Ωi , Ai , Pi ). Pour mod´eliser ϕ = (ϕ1 , ..., ϕn ),
il nous faut d´eterminer l’espace probabilis´e (Ω, A, P ) associ´e.

efinition 1.4.1. Si ωi est l’observation du ph´enom`ene ϕi , le n-uplet ω = (ω1 , ..., ωn ) est
une observation du ph´enom`ene ϕ. On prendra donc comme espace fondamental le produit
cart´esien:
n
Y
Ω = Ω1 × ... × Ωn =
Ωi .
i=1

Int´eressons nous maintenant `
a la construction de la tribu A sur Ω. Si pour tout i ∈ [1 : n],
l’ensemble Ai est un ´ev´enement de Ai , il est naturel d’attendre que le pav´e A = A1 ×...×An
soit un ´ev´enement de A. C’est pourquoi on pose la d´efinition suivante:

Facult´e des Sciences Mekn`es

8

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 1. Espaces probabilis´es


efinition 1.4.2. On appelle tribu produit des (Ai )i∈[1:n] , et on la note A = A1 ⊗...⊗An ,
la tribu engendr´ee par les
u Ai appartient `a Ai , pour tout
npav´es mesurables A1 × ... × An o`
i ∈ [1 : n], c-`
a-d: A = σ A1 × ... × An , Ai ∈ Ai , i ∈ [1 : n]} .
Exemple
Pour les tribus bor´eliennes on a: BRn = BR ⊗ ... ⊗ BR .
Il nous faut maintenant d´efinir une probabilit´e P sur cet espace produit (Ω, A), `a partir
de l’ensemble des (Pi )i∈[1:n] .
Th´
eor`
eme 1.4.3. Il existe une probabilit´e unique P sur l’espace produit (Ω, A) telle que
pour tout Ai dans Ai , pour i ∈ [1 : n], on a
n

Y
P A1 × ... × An =
Pi (Ai ).
i=1

P est appel´ee probabilit´e produit des (Pi )i∈[1:n] et est not´ee P = P1 ⊗ ... ⊗ Pn .
(Ω, A, P ) est un espace probabilis´e produit.
Remarque 1.4.4. La notion d’espace produit permet de mod´eliser correctement la notion
des exp´eriences al´eatoires ind´ependantes.
Exemple
Consid´erons le jeu du lanc´e de deux d´es. Pour chaque d´e, on a d´ej`a d´efini l’espace probabilis´e associ´e au ph´enom`ene: Ω = {1, ..., 6}, A = P(Ω) et P est l’´equir´epartition sur Ω.
Si on note ϕ = (ω1 , ω2 ) le r´esultat du lanc´e des deux d´es, alors d’apr`es ce qui pr´ec`ede, on
mod´elise ce ph´enom`ene par l’espace probabilis´e produit:
(Ω × Ω, P(Ω) ⊗ P(Ω), P ⊗ P ).
On pourra alors, grˆ
ace `
a cette structure, parler de la somme des deux r´esultats, du produit,
du maximum, du minimum, etc...
Remarque 1.4.5. Il n’est pas possible de g´en´eraliser la notion d’espace probabilis´e produit `a une infinit´e d´enombrable (Ωi , Ai , Pi )i∈N des espaces probabilis´es quelconques. C’est
la mesure de probabilis´e produit qui pose probl`eme si on ne fait pas certaines hypoth`eses
sur la structure des espaces probabilisables (Ωi , Ai )i∈N . Ce type des espaces probabilis´es
infini est utilis´e pour mod´elis´e la r´ep´etition d’une infinit´e d’exp´eriences ind´ependantes, par
exemple: le temps d’attente du premier succ`es qui est mod´elis´e par la loi g´eom´etrique.

1.5

Exercices

Exercice 1
Soit n ≥ 1. D´eterminer une probabilit´e P sur Ω = {1, ..., n} telle que: pour tout k ∈ Ω,
la probabilit´e de l’´ev´enement Ak = {1, ..., k} soit proportionnelle `a k 2 .
Exercice 2
On pose: ∀ n ∈ N∗ , P ({n}) = 21n et An =(les multiples de n).
1) Montrer que (N∗ , P(N∗ ), P ) est un espace probabilis´e.
2) Calculer la probabilit´e de l’´ev´enement: A = (n ∈ N∗ , n ≥ 10).
3) V´erifier que: ∀ n ∈ N∗ , P (An ) = 2n1−1 .
4) Calculer la probabilit´e de A2 ∩ A3 puis A2 ∪ A3 .
5) Montrer par absurde que pour tous p, q ≥ 2, Ap et Aq ne sont pas ind´ependants.
(Utiliser le ppcm de p et q).
Facult´e des Sciences Mekn`es

9

Prob et Proc Stoch SMA-S6

Chapitre 2

Variables al´
eatoires
En pratique, on s’int´eresse `
a certaines quantit´es attach´ees aux r´esultats obtenus `a
l’issue d’une exp´erience al´eatoire. Pour mod´eliser cela, on introduit la notion de variables
al´eatoires. Ce sont des fonctions qui d´ependent du hasard, celui-ci ´etant mod´elis´e par le
tirage d’un point ω ∈ Ω.

2.1

Lois de probabilit´
e d’une variable al´
eatoire


efinition 2.1.1. Soit (Ω, A, P ) un espace probabilis´e et (E, B) un espace probabilisable.
Toute application mesurable X de (Ω, A, P ) vers (E, B), (c-`a-d: ∀ B ∈ B : X −1 (B) ∈ A),
est appel´ee une variable al´eatoire, (not´ee v.a).
Remarque 2.1.2.
— L’´ev´enement X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} est not´e par: (X
n ∈ B).
o
−1
— La tribu engendr´ee par X est d´efinie par: σ(X) := X (B) = X −1 (B) : B ∈ B .
Notations: Nous verrons dans la suite la classification des v.a grˆace au th´eor`eme de
Radon Nikodym. Pour l’instant, notons qu’on ´etudie le plus souvent les v.a quand l’espace
d’arriv´ee est souvent:
— Si (E, B) = (R, BR ), alors l’application X est dite variable al´eatoire r´eelle (not´ee
v.a.r). Dans ce cas, pour tout intervalle I de R, on a (X ∈ I)
∈ A. De plus, pour
−1
tout r´eel x, on note (X ≤ x) = {ω ∈ Ω : X(ω) ≤ x} = X
] − ∞, x] .
n
— Si (E, B) = (R , BRn ), l’application X est dite vecteur al´eatoire.
— Si E est au plus d´enombrable et B = P(E), l’application X est dite variable al´eatoire discr`ete, (not´ee v.a.d).

efinition 2.1.3. Soit X une v.a de (Ω, A, P ) vers (E, B). On appelle loi de probabilit´e
de X et on la note PX , la probabilit´e image de P par X d´efinie sur (E, B) par:
∀ B ∈ B : PX (B) = P (X −1 (B)).
Proposition 2.1.4. (E, B, PX ) est un espace probabilis´e.
Preuve.
1. ∀ B ∈ B : PX (B) = P (X −1 (B)) =⇒ 0 ≤ PX (B) ≤ 1.
2. PX (E) = P (X −1 (E)) = P (Ω) = 1.

10

Sghir Aissa

Chapitre 2. Variables al´eatoires

3. Soit (Bn )n une suite des ´ev´enements deux `a deux disjoints dans B, alors
[

[

[
Bn
=P
X −1 (Bn )
PX
Bn = P X −1
n

n

n

X
X
PX (Bn ),
P X −1 (Bn ) =
=
n

n

car P est une probabilit´e sur (Ω, A).

2.2

Ind´
ependance des variables al´
eatoires


efinition 2.2.1. Soit X une v.a de (Ω, A, P ) vers (E, B) et g une application mesurable de (E, B) vers R. Si g(X) est dans L1 (Ω, A, P ), (c-`a-d: g(X) est int´egrable), alors
l’esp´erance de g(X) est d´efinie par:
Z
Z
E(g(X)) =
g(X(ω))dP (ω) =
g(X)dP.




Th´
eor`
eme 2.2.2. (de transfert): Soit X une v.a de (Ω, A, P ) vers (E, B) et de loi de
probabilit´e PX et g une application mesurable de (E, B) vers R. Si g(X) ∈ L1 (Ω, A, P ),
alors
Z
Z
E(g(X)) =
g(X(ω))dP (ω) =
g(x)dPX (x).


R


efinition 2.2.3. Soit (Xi )i∈[1:n] une suite de v.a d´efinies sur le mˆeme espace probabilis´e
(Ω, A, P ) et `
a valeurs respectivement dans (Ei , Bi )i∈[1:n] .
— On appelle loi conjointe du vecteur al´eatoire X = (X1 , ..., Xn ) la loi image PX de
X sur l’espace produit (E1 × ... × En , B1 ⊗ ... ⊗ Bn ).
— La loi PXi de chacune des v.a Xi est alors appel´ee loi marginale.

efinition 2.2.4. Soit (Xi )i∈[1:n] une suite de v.a d´efinies sur le mˆeme espace probabilis´e
(Ω, A, P ) et `
a valeurs respectivement dans (Ei , Bi )i∈[1:n] . La famille (Xi )i∈[1:n] est dite
ind´ependante ssi: pour tous (Bi )i∈[1:n] o`
u Bi ∈ Bi , pour tout i ∈ [1 : n], on a
P

n
\

Xi ∈ Bi

i=1



!
=

n
Y

P (Xi ∈ Bi ),

i=1

ou encore
P(X1 ,...,Xn ) (B1 × ... × Bn ) =

n
Y

PXi (Bi ).

i=1

C-`a-d: la loi conjointe PX du vecteur X est le produit des lois marginales PXi :
PX = PX1 ⊗ ... ⊗ PXn .
Th´
eor`
eme 2.2.5. La suite (Xi )i∈[1:n] est ind´ependante ssi pour toutes applications gi de
(Ei , Bi ) vers (R, BR ), mesurables et born´ees, on a
E

n
Y

n
Y
gi (Xi ) =
E(gi (Xi )).

i=1

Facult´e des Sciences Mekn`es

i=1

11

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Preuve.
— Sens direct: Supposons que les (Xi )i∈[1:n] sont ind´ependantes. Consid´erons les n applications mesurables gi de (Ei , Bi ) vers (R, BR ). Notons.
E

n
Y




gi (Xi ) = E g(X1 , ..., Xn ) ,

i=1

avec g(x1 , ..., xn ) = g1 (x1 ) × ... × gn (xn ). L’´egalit´e de la loi conjointe et du produit
tensoriel des lois marginales nous donne:

Z
g(x1 , ..., xn )dP(X1 ,...,Xn ) (x1 , ..., xn )
E g(X1 , ..., Xn ) =
Rn

Z
=
Rn

g(x1 , ..., xn )d{PX1 ⊗ ... ⊗ PXn }(x1 , ..., xn ).

De l`
a, on applique le th´eor`eme de Fubini:
Z
Z

Z
dPX1 (x1 )... dPXn−1 (xn−1 ) g(x1 , ..., xn )dPXn (xn )
E g(X1 , ..., Xn ) =
R

R

R

Z

Z

Z

dPXn−1 (xn−1 ) g1 (x1 )...gn (xn )dPXn (xn )
R
Z
Z
=
g1 (x1 )dPX1 (x1 ) × ... ×
gn (xn )dPXn (xn )
dPX1 (x1 )...

=

R

R

R

=

R

n Z
Y
i=1

gi (xi )dPXi (xi ) =

R

n
Y

E(gi (Xi )).

i=1

— Sens inverse: Consid´erons des Bi ∈ Bi et posons: gi (Xi ) = 1Bi (Xi ) = 1(Xi ∈Bi ) ,
alors E(gi (Xi )) = P (Xi ∈ Bi ). De mˆeme, on a
n
Y

gi (Xi ) =

i=1

n
Y

1(Xi ∈Bi ) = 1(X1 ∈B1 ,...,Xn ∈Bn ) = 1

i=1

n
T

.

(Xi ∈Bi )

i=1

Finalement
P

n
\

n
n
n

Y
Y
Y
(Xi ∈ Bi ) = E
gi (Xi ) =
E(gi (Xi )) =
P ((Xi ∈ Bi ).

i=1

i=1

i=1

i=1

Proposition 2.2.6. Si pour tout i ∈ [1 : n], les fonctions gi sont mesurables de (Ei , Bi )
0
0
vers (Ei , Bi ), alors l’ind´ependance des v.a (Xi )i∈[1:n] entraˆıne celle des v.a (gi (Xi ))i∈[1:n] .
0

0

Preuve. Pour toute famille (Bi )i∈[1:n] ou Bi ∈ Bi , pour tout i et par mesurabilit´e des gi ,
0
on a: gi−1 (Bi ) = Bi ∈ Bi . Il vient alors:

−1 0


0
gi (Xi )
(Bi ) = Xi−1 gi−1 (Bi ) = Xi−1 (Bi ).
Par cons´equent
P

n
\

0

gi (Xi ) ∈ Bi



=P

i=1

n
\

n
−1 0
\

gi (Xi )
(Bi ) = P
Xi−1 (Bi ))

i=1

=P

n
\

i=1
n
n
Y
Y
0
Xi ∈ Bi ) =
P (Xi ∈ Bi ) =
P (gi (Xi ) ∈ Bi ),

i=1

i=1

i=1

et les v.a (gi (Xi ))i∈[1:n] sont bien ind´ependantes.
Facult´e des Sciences Mekn`es

12

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Exemples
1. Si X et Y sont deux v.a.r. ind´ependantes, alors X 2 et exp(Y ) le sont encore.
2. Si X, Y, Z, T et V sont quatres v.a.r ind´ependantes et si f est mesurable de R3 vers
R, alors X et U = f (Y, Z, T ) sont ind´ependantes. De mˆeme X, g(Y, Z) et h(T, V )
sont ind´ependantes pour des fonctions g et h mesurables de R2 vers R.

2.3
2.3.1

Variables al´
eatoires r´
eelles
Fonction de r´
epartition et densit´
e de probabilit´
e


efinition 2.3.1. Soit X une v.a.r d´efinie sur (Ω, A, P ) et de loi de probabilit´e PX . La
fonction de r´epartition de X not´ee FX est une application d´efinie sur R par:


FX (x) = P (X ≤ x) = PX ] − ∞, x] .
Remarque 2.3.2.
— Si PX est absolument continue par rapport `a la mesure de Lebesgue et de densit´e
fX , (au sens de Radon-Nikodym: dPX (x) = fX (x)dx), alors
Z x
fX (t)dt.
FX (x) =
−∞

— Si PX est absolument continue par rapport `a la mesure de comptage µ =

P

δn et

n

de densit´e PX (x) = P (X = x), alors
FX (x) =

X

P (X = y).

y≤x

Propri`
et´
es 2.3.3.
— FX est `
a valeurs dans [0, 1],
— lim FX (x) = 0 et lim FX (x) = 1,
x→−∞

x→+∞

— FX est croissante, continue `
a droite et admet une limite `
a gauche,
— La fonction de r´epartition caract´erise la loi: deux v.a.r ont la mˆeme loi ssi ils ont
la mˆeme fonction de r´epartition.
Proposition 2.3.4. Si X est une
a densit´e fX , alors
R +∞v.a `
— fX est positive sur R et −∞ fX (x)dx = 1.
— Pour tout r´eel x, P (X = x) = 0.
R
— Pour tout I ∈ BR , PX (I) = P (X ∈ I) = I fX (x)dx.
En particulier:
Z
x

FX (x) = P (X ≤ x) =

fX (t)dt.
−∞

— Pour tous r´eels a, b, P (a ≤ X ≤ b) = FX (b) − FX (a).
— Si fX est continue, alors FX est p.s d´erivable et on a:
FX0 (x) = fX (x).

Facult´e des Sciences Mekn`es

13

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Exemples
1. Si X suit la loi exponentielle E(λ), alors quand x > 0, on a
Z x
Z x
h
ix
FX (x) = P (X ≤ x) =
fX (t)dt =
λ exp(−λt)dt = −exp(−λt) = 1−exp(−λx).
−∞

0

0

2. On consid`ere une exp´erience al´eatoire consistant `a lancer deux pi`eces de monnaie.
L’ensemble des r´esultats possibles est: Ω = {(P, P ), (F, P ), (P, F ), (F, F )}.
Consid´erons la v.a.d X repr´esentant le nombre de faces obtenues. Les valeurs prises
par X sont: X(Ω) = {0, 1, 2}. La loi de probabilit´e de X est donn´ee par:
PX (0) = P ({P P }) = 41 ,
PX (1) = P ({P F }, {F P }) = 12 ,
PX (2) = P ({F F }) = 41 .
Par suite, on a

0,
x<0



0≤x<1
P (X = 0) = 14 ,
FX (x) =
P
(X
=
1)
+
P
(X
=
0)
= 41 + 12 = 34 ,



1,
x ≥ 2.

Facult´e des Sciences Mekn`es

14

1≤x<2

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Exemples de calcul des lois de probabilit´
es
1. Soit X ∼ P(λ) et Y ∼ P(µ) deux
S v.a.d ind´ependantes. Le th´eor`eme des probabilit´es
totales pour la partition: Ω = (X = x), et la formule du binˆome nous donnent la
loi de la somme Z = X + Y :
P (Z = z) =

z
X
x=0

z
X
e−λ λx e−µ λz−x
e−(λ+µ) (λ + µ)z
P (X = x)P (Y = z − x) =
.
=
.
x!
(z − x)!
z!
x=0

Finalement on reconnaˆıt la loi: Z ∼ P(λ + µ).
2. Soit X une v.a sur (Ω, A, P ) `a densit´e fX et de fonction de r´epartition FX et
Y = aX + b, alors


x − b
x−b
.
a > 0 ⇒ FY (x) = P (Y ≤ x) = P X ≤
= FX
a
a


x − b
x−b
a < 0 ⇒ FY (x) = P (Y ≤ x) = P X ≥
= 1 − FX
.
a
a
En d´erivant, on obtient la densit´e de Y :
fY (x) =

2.3.2

x − b
1
fX
.
|a|
a

Moments d’une variable al´
eatoire r´
eelle


efinition 2.3.5.
— Si X ∈ L1 (Ω, A, P ), (c-`
a-d: X est int´egrable), alors on d´efinit l’esp´erance de X par
le nombre:
Z
Z
Z
E(X) =
X(ω)dP (ω) =
XdP =
xdPX (x).


L2 (Ω, A, P )

— Si X ∈
de X par:



R

, (c-`
a-d: X est de carr´e int´egrable), alors on d´efinit la la variance

2
V (X) = E (X − E(X)) .

— Si X ∈ Lp (Ω, A, P ) , (p ≥ 1), alors E(|X|p ) est le moment d’ordre p de X.
Propri`
et´
es 2.3.6.
1) Si X est une v.a int´egrable. Alors
— Positivit´e: si X ≥ 0 p.s, alors E(X) ≥ 0.
Facult´e des Sciences Mekn`es

15

Prob et Proc Stoch SMA-S6

Sghir Aissa







Chapitre 2. Variables al´eatoires

Croissance: si X ≤ Y p.s, alors E(X) ≤ E(Y ).
Lin´earit´e: E(aX + bY ) = aE(X) + bE(Y ) pour tous r´eels a et b.
Si X = a, alors E(X) = a.
∀A ∈ A, E(1A ) = P (A).
In´
egalit´
e de Jensen: Soit g est une fonction d´efinie sur un intervalle de I ⊂ R,
convexe et continue. Si X est une v.a `
a valeurs dans I telle que E(X) existe, alors




g E(X) ≤ E g(X) .

En particulier: |E(X)| ≤ E|X|.
2) Si de plus X et Y sont de carr´e int´egrable, alors
— V (X) ≥ 0.
— V (X) = 0 ssi X = 0 p.s.
— Formule de Koenig: V (X) = E(X 2 ) − (E(X))2 .
— Pour tous r´eels a et b, V ar(aX + b) = a2 V ar(X).
— Si on pose:
X − E(X)
X − E(X)
Y = p
=
, (σ(X) l’´ecart type)
σ(X)
V (X)
alors E(Y ) = 0 et V (Y ) = 1. On dit que Y est une v.a centr´ee r´eduite.
La proposition suivante est une cons´equence imm´ediate du th´eor`eme de transfert et le
th´eor`eme de Radon-Nikodym.
Proposition 2.3.7.
1. Si PX est absolument continue par rapport `
a la mesure de Lebesgue et de densit´e
fX , alors
Z
E(g(X)) =
g(x)fX (x)dx,
R
R
et on a R fX (x)dx = 1.
2. Si PX est absolument continue par rapport `
a la mesure de comptage et de densit´e
PX (x) = P (X = x), alors
E(g(X)) =

+∞
X

g(x)PX (x),

x=0

et on a

+∞
P

PX (x) = 1.

x=0

Exemples
1. Si X ∼ P(λ), alors
E(X) =

+∞
X

xPX (x) =

x=0

+∞
X

xe−λ

x=0

+∞

+∞

x=1

x=0

X λx
X λx
λx
= e−λ
= λe−λ
= λe−λ eλ = λ.
x!
(x − 1)!
x!

2. Si X ∼ E(λ), alors
Z

+∞

E(X) =

Z
xfX (x)dx =

−∞

2
V (X) = E (X−E(X) =


Z

λxe−λx dx =

0
+∞

−∞

Facult´e des Sciences Mekn`es

+∞

16

Z
2
x−E(X) fX (x)dx =
0

+∞

1
.
λ

1
1 2 −λx
e
dx = 2 .
λ x−
λ
λ

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Le th´eor`eme de transfert nous permet d’avoir la caract´erisation suivante de la densit´e.
Th´
eor`
eme 2.3.8. (M´
ethode de la fonction muette): La v.a X est de densit´e fX ssi
pour toute fonction born´ee g : R → R, on a
Z
g(x)fX (x)dx.
E(g(X)) =
R

Exemple
Pour Y = aX + b et a > 0. Le changement de variable y = ax + b nous donne:
Z
Z
y − b dy
E(g(Y )) = E(g(aX + b)) =
g(ax + b)fX (x)dx =
g(y)fX
.
a
a
R
R
D’autre part, on a
Z
E(g(Y )) =

g(y)fY (y)dy.
R

Par cons´equent
fY (x) =

1 x − b
fX
.
a
a

On fait de mˆeme pour a < 0.

2.3.3

Fonction g´
en´
eratrice des moments


efinition 2.3.9. Soit X : Ω → N une v.a.d `a valeurs enti`eres. On appelle fonction
g´en´eratrice de X la fonction gX : [−1, 1] → R d´efinie par:
gX (s) = E(sX ) =

+∞
X

sn P (X = n).

n=0

Exemple
Si X ∼ B(p) alors X(Ω) = {0, 1} et ∀x ∈ {0, 1}: P (X = x) = px (1 − p)1−x .
Par cons´equent
X

gX (s) = E(s ) =

1
X

sn P (X = n) = s0 × P (X = 0) + s1 × P (X = 1) = 1 − p + sp.

n=0

Propri`
et´
es 2.3.10.
(n)

1. gX est de C ∞ sur ] − 1, 1[ et continue sur [−1, 1]. Si on note gX sa d´eriv´ee d’ordre
n, alors
(n)
g (0)
∀ n ∈ N, P (X = n) = X
.
n!
2. La fonction g´en´eratrice d’une v.a enti`ere caract´erise sa loi:
Si X, Y : Ω → N, alors X et Y ont mˆeme loi ssi ∀ s ∈ [−1, 1], gX (s) = gY (s).
0

00

0

0

3. E(X) = gX (1) et V (X) = gX (1) + gX (1) − (gX (1))2 .
Preuve.
1. Puisque s ∈ [−1, 1] alorsP|sn P (X = n)| ≤ P (X = n), et par suite on a convergence
normale des series car
P (X = n) = 1 < +∞. Finalement gX est de C ∞ sur
n

] − 1, 1[ et continue sur [−1, 1], et le d´eveloppement en s´erie enti`ere de la fonction
gX termine la preuve de ce point.
Facult´e des Sciences Mekn`es

17

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires
(n)

2. Cons´equence immediate du fait que P (X = n) =

gX (0)
n! .

3. Il suffit de remarquer que:





00

0
00
0
gX (s) = E(sX ) = E XsX−1 et gX (s) = E(sX ) = E X(X − 1)sX−2 .
Exemple
0
00
Si X ∼ B(p), on a trouv´e que gX (s) = 1 − p + sp. Donc gX (s) = p et gX (s) = 0, par suite
(0)

— P (X = 0) =

gX (0)
= gX (0)
0!
0
gX (0)
1! = p,

= 1 − p,

— P (X = 1) =
0
— E(X) = gX (1) = p,
00
— E(X(X − 1)) = gX (1) = 0,
00
0
0
— V (X) = gX (1) + gX (1) − (gX (1))2 = p(1 − p).
Le r´esultat suivant est dˆ
u au Th´eor`eme 2.2.5.
Proposition 2.3.11.
— Si X1 , ..., Xn sont n v.a enti`eres ind´ependantes, alors
∀ s ∈ [−1, 1], gX1 +...+Xn (s) =

n
Y

gXi (s).

i=1

— En particulier, si X : Ω → N et Y : Ω → N sont ind´ependantes, alors
∀ s ∈ [−1, 1], gX+Y (s) = gX (s) × gY (s).
Exemple
Soit X1 , ..., Xn n v.a ind´ependantes et de mˆeme loi B(p). Pour tout s ∈ [−1, 1], on a
gX1 +...+Xn (s) =

n
Y

gXi (s) = (1 − p + sp)n .

i=1

Il est clair que X1 + ... + Xn ∼ B(n, p). Ceci montre que la loi Binomiale B(n, p) est la
somme de n v.a ind´ependantes et de mˆeme loi de Bernoulli B(p).
Lois discr`
etes usuelles

Facult´e des Sciences Mekn`es

18

Prob et Proc Stoch SMA-S6

Sghir Aissa

2.3.4

Chapitre 2. Variables al´eatoires

Fonction caract´
eristique


efinition 2.3.12. La fonction caract´eristique d’une v.a de loi de probabilit´e PX est
d´efinie par:
Z
Z
itX(ω)
itX
eitx dPX (x),
∀t ∈ R.
e
dP (ω) =
ϕX (t) = E(e ) =


R

Remarque 2.3.13.
1. ϕX est la transform´ee de Fourier de la mesure de probabilit´e de X. Elle a cependant
l’inconv´enient de faire appel `a la th´eorie des fonctions d’une v.a complexe.
2. Si X est une v.a.d `
a valeurs enti`eres, la fonction caract´eristique ϕX apparaˆıt comme
le prolongement de la fonction g´en´eratrice des moments gX sur le cercle unit´e
complexe, et on a ϕX (t) = gX (eit ).
3. Dans le cas d’une v.a.d `
a valeurs dans E, on a
X
ϕX (t) =
eitx P (X = x),

∀t ∈ R.

x∈E

4. Si la loi de la v.a X poss`ede une densit´e fX , alors la fonction caract´eristique s’obtient
par l’int´egrale:
Z
eitx fX (x)dx,

ϕX (t) =

∀t ∈ R.

R

Par cons´equent, on a la formule d’inversion:
Z
1
fX (x) =
e−itx ϕX (t)dt.
2π R
Propri`
et´
es 2.3.14.
1. ∀ t ∈ R,

|ϕX (t)| ≤ ϕX (0) = 1.

2. ∀ t ∈ R,

ϕX (t) = ϕX (−t).

3. Lin´earit´e: ϕaX (t) = ϕX (at)
4. Si U =

X−m
σ

et ϕX+b (t) = eitb ϕX (t),

∀ a, b ∈ R.

est la v.a centr´ee r´eduite associ´ee `
a la v.a X, alors
ϕU (t) = e−i

tm
σ

ϕX

t
σ

et

ϕX (t) = eitm ϕU (σt).

5. Si X et Y sont deux v.a ind´ependantes alors ϕX+Y (t) = ϕX (t)ϕY (t).
6. La fonction ϕX est uniform´ement continue pour toutes les valeurs t ∈ R.
Preuve.
1. On a
Z
Z
Z


itx
itx
|e |dPX (x) =
dPX (x) = PX (R) = 1 = ϕX (0).
|ϕX (t)| = e dPX (x) ≤
R

R

R

2. On peut ´ecrire:
ϕX (−t) = E(e−itX ) = E(eitX ) = E(eitX ) = ϕX (t).
3. ϕaX (t) = E(eitaX ) = E(ei(ta)X ) = ϕX (at).
ϕX+b (t) = E(eit(X+b) ) = E(eitb eitX ) = eitb E(eitX ).
Facult´e des Sciences Mekn`es

19

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

4. Il suffit de prendre dans le point (3): a =

1
σ

et b = − m
σ.

5. Puisque X et Y sont ind´
ependantes, alors
it(X+Y
)
ϕX+Y (t) = E e
= E(eitX ) × E(eitY ) = ϕX (t)ϕY (t).
6. Pour tout t, h ∈ R, on a

hX

hX
hX


|ϕX (t + h) − ϕX (t)| = E eitX eit 2 eit 2 − e−it 2


hX
hX


= E eitX eit 2 2i sin

2

hX


≤ E sin
≤ E(|h||X| ∧ 2),
2
car | sin(x)| ≤ |x| ∧ 1. Par convergence domin´ee la limite est 0 quand h → 0,
ind´ependamment de t, ce qui garantit l’uniforme continuit´e de ϕX .
Exemple
2 σ2

On va voir au TD que si U suit une loi normale N (µ, σ 2 ), alors ϕU (t) = eitµ e−t 2 . Comme
application: si X et Y sont deux v.a normales, ind´ependantes et de param`etres µ1 , σ12 pour
X et µ2 , σ22 pour Y , alors la fonction caract´eristique de leur somme Z = X + Y est:
2
2
2 (σ1 +σ2 )
2

ϕZ (t) = ϕX (t)ϕY (t) = eit(µ1 +µ2 ) e−t

.

On d´eduit que la somme de deux v.a normales ind´ependantes est une v.a normale de
param`etres µ = µ1 + µ2 et σ = σ12 + σ22 .
Proposition 2.3.15.
1. Si E|X|p est finie pour un entier p ≥ 1, alors ϕX est continˆ
ument d´erivable jusqu’`
a
(p)
p
p
l’ordre p et on a ϕX (0) = 1 et ϕX (0) = i E(X ).
2. Si ϕX est de classe C ∞ , alors
ϕX (t) =

+∞ p
X
t
p=0

p!

ip E(X p ).

3. La fonction caract´eristique d’une v.a d´etermine sans ambigu¨ıt´e sa loi de probabilit´e:
Deux v.a ayant la mˆeme fonction caract´eristique ont la mˆeme loi de probabilit´e.
D’o`
u le nom: (caract´eristique).
Preuve.
1. Calcul simple des d´eriv´ees `
a l’int´erieur de l’esp´erance.
2. Utiliser la formule de Mac-Laurin.
3. Cons´equence du point (1), ou de la formule d’inversion: fX (x) =

1


−itx ϕ (t)dt.
X
Re

R

Exemple: Moments de la loi normale centr´
ee r´
eduite N (0, 1).
On a
t2
t2
1 t2 2
ϕU (t) = e− 2 = 1 − +

+ .......
2
2!
2
On identifie au point (2) de la proposition 2.3.15, on obtient
— les moments d’ordre impair sont nuls,
— les moments d’ordre pair sont ´egaux `a (2k)!
.
2k k!
Facult´e des Sciences Mekn`es

20

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Lois usuelles continues

2.4
2.4.1

Extensions `
a des vecteurs al´
eatoires
Fonction de r´
epartition et densit´
e


efinition 2.4.1. Soit X = (X1 , ..., Xn ) un vecteur al´eatoire de loi de probabilit´e PX . La
fonction de r´epartition conjointe de X, not´ee FX , est une application d´efinie sur Rn et `a
valeurs dans [0, 1] par:
n


\

FX (x) = PX ] − ∞, x1 ] × .....×] − ∞, xn ] = P
(Xi ≤ xi ) ,
i=1

o`
u x = (x1 , ..., xn ) est un vecteur de Rn .
Propri`
et´
es 2.4.2.

lim FX (x) = 0 et
∀ i,xi →−∞

lim

∀ i,xi →+∞

FX (x) = 1,

— La fonction de r´epartition conjointe du vecteur al´eatoire X permet de d´eterminer
les fonctions de r´epartition de toutes les marginales (sous vecteurs) de X.
Exemples
Pour tout i ∈ [1 : n], on a
FXi (xi ) =

lim

∀ j6=i,xj →+∞

FX (x)

et

F(Xi ,Xj ) (xi , xj ) =

lim

∀ k6=i,k6=j,xk →+∞

FX (x),

et ainsi de suite pour les autres marges.
Proposition 2.4.3.
— Si PX est absolument continue par rapport `
a la mesure de Lebesgue sur Rn et de
densit´e fX , alors
Z x1
Z xn
FX (x) =
.....
fX (t1 , ..., tn )dt1 ...dtn .
−∞

Facult´e des Sciences Mekn`es

21

−∞

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

La densit´e fX est positive et satisfait:
Z
fX (x1 , ..., xn )dx1 ...dxn = 1,
Rn

et pour tout D ∈ BRn , on a
Z
P (X ∈ D) =

fX (x1 , ..., xn )dx1 ...dxn .
D

De plus, si fX est continue, alors FX est p.s d´erivable, et on a:
fX (x1 , ..., xn ) =

∂ n FX
(x1 , ..., xn ).
∂x1 ...∂xn

— Si X est un vecteur al´eatoire absolument continu, alors tout vecteur al´eatoire marginal est ´egalement absolument continu et sa densit´e est obtenue en int´egrant la
densit´e conjointe de X par rapport aux coordonn´ees restantes.
Exemple
Si (X, Y ) est un couple al´eatoire de densit´e f(X,Y ) , alors les densit´es marginales de X et
Y sont donn´ees par:
Z
Z
fX (x) =
f(X,Y ) (x, y)dy et fY (x) =
f(X,Y ) (x, y)dx.
R

R

Th´
eor`
eme 2.4.4. Soit X est un vecteur al´eatoire absolument continu. Il y a ´equivalence
entre les assertions suivantes:
1. la famille (Xi )i∈[1:n] est une famille de v.a.r ind´ependantes,
2. la fonction de r´epartition conjointe est le produit des fonctions de r´epartitions marginales:
Y
FX (x1 , ..., xn ) =
FXi (xi ),
i∈[1:n]

3. la densit´e conjointe est le produit des densit´es marginales:
Y
fX (x1 , ..., xn ) =
fXi (xi ).
i∈[1:n]

Th´
eor`
eme 2.4.5. (M´
ethode de la fonction muette): Le vecteur X = (X1 , ..., Xn ) est
de densit´e fX ssi pour toute fonction born´ee g : Rn → R, on a
Z
E(g(X)) =
g(x)fX (x)dx1 ...dxn ,
Rn

avec x = (x1 , ..., xn ).
On a besoin du r´esultat suivant de changement de variables dans Rn .
Lemme 2.4.6. Soit ϕ une bijection continˆ
ument diff´erentiable ainsi que son inverse ϕ−1
0
n
n
d’un ouvert O de R sur un ouvert O de R , f : Rn → R born´ee et g : Rn → R int´egrable.
Alors
Z
Z




f (ϕ(x))g(x)dx1 ...dxn =
f (x)g(ϕ−1 (x)) Jac ϕ−1 (x) dx1 ...dxn .
O

Facult´e des Sciences Mekn`es

O0

22

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Exemple
Quelle est la loi de (Z, W ) = (X + Y, X − Y ) sachant que (X, Y ) est de densit´e:
f(X,Y ) (x, y) = λ2 exp(−λ(x + y))1(x>0) 1(y>0) .
On se donne une fonction g : R2 → R, et on cherche `a mettre E(g(Z, W )) sous la forme:
Z
g(z, w)f(Z,W ) (z, w)dzdw.
E(g(Z, W )) =
R2

D’apr`es le th´eor`eme de transfert, on a
Z
E(g(Z, W )) = E(g(X + Y, X − Y )) =
R2

Z
=
R2

g(x − y, x + y)λ2 exp(−λ(x + y))1(x>0) 1(y>0) dxdy

+∞ Z +∞

Z

g(x − y, x + y)f(X,Y ) (x, y)dxdy

=
0

g(x − y, x + y)λ2 exp(−λ(x + y))dxdy.

0

Pour appliquer le Lemme 2.4.6, on pose: ϕ(x, y) = (x − y, x + y) = (z, w) et O =]0, +∞[2 .
Alors
z + w z − w
1
ϕ−1 (z, w) =
,
, |Jac ϕ−1 (z, w)| =
et O0 = {(x, y); x > |y|}.
2
2
2
Par cons´equent
+∞ Z +∞

Z
E(g(Z, W )) =
0

0


z + w z − w 1
g(z, w)λ2 exp − λ
+
dzdw
2
2
2

Z
=

g(z, w)
((z,w);z>|w|)

Z
=

g(z, w)
R2

λ2
exp(−λz)dzdw
2

λ2
exp(−λz)1((z,w);z>|w|) dzdw.
2

On conclut que (Z, W ) poss`ede la densit´e:
f(Z,W ) (z, w) =

λ2
exp(−λz)1((z,w);z>|w|) .
2

Finalement, on peut facilement d´eduire les densit´es marginales de Z et de W par application des deux formules:
Z +∞
Z +∞
f(Z) (z) =
f(Z,W ) (z, w)dw et f(W ) (w) =
f(Z,W ) (z, w)dz.
−∞

−∞

Proposition 2.4.7. Soit X et Y deux v.a ind´ependantes de densit´es (resp.) fX et fY . La
densit´e de Z = X + Y est donn´e par le produit de convolution:
Z +∞
fZ (z) = fX ∗ fY (z) =
fX (x)fY (z − x)dx.
−∞

Preuve. Par ind´ependance de X et Y et le changement de variable: z = x + y, on obtient
Z

Z
Z
Z
E(g(Z)) =
g(x+y)fX (x)fY (y)dxdy =
g(z)
fX (x)fY (z − x)dx dz =
g(z)fX ∗fY (x)dz.
R2

R

R

D’o`
u le r´esultat d’apr`es la m´ethode de la fonction muette.

Facult´e des Sciences Mekn`es

23

Prob et Proc Stoch SMA-S6

R

Sghir Aissa

2.4.2

Chapitre 2. Variables al´eatoires

Fonction g´
en´
eratrice des moments


efinition 2.4.8. Soit X = (X1 , ....., Xn ) un vecteur al´eatoire `a valeurs enti`eres dans Nn .
La fonction g´en´eratrice de X est d´efinie pour tout s = (s1 , ....., sn ) ∈ [−1, 1]n par:
X
Xn
1
gX (s) = E(sX
sn1 1 .....snnn P (X1 = n1 , ....., Xn = nn ).
1 .....sn ) =
n=(n1 ,.....,nn )∈Nn

Proposition 2.4.9.
1. La s´erie est normalement convergente pour tout s = (s1 , ....., sn ) ∈ [−1, 1]n , et la
fonction gX et de classe C ∞ sur ] − 1, 1[n au moins.
2. Si on connaˆıt la fonction g´en´eratrice du vecteur X, on peut en d´eduire la fonction
g´en´eratrice de chaque composante Xi :
gXi (si ) = gX (s1 , ....., sn ), avec sj = 1 ∀ j 6= i.
3. Les X1 , ....., Xn sont ind´ependantes ssi pour tout s = (s1 , ....., sn ) ∈ [−1, 1]n , on a
gX (s) =

n
Y

gXi (si ).

i=1

2.4.3

Lois et esp´
erance conditionnelles

Cas de deux v.a discr`
etes

efinition 2.4.10. Soient X et Y deux v.a.d `a valeurs (resp.) dans E et F. Pour y ∈ F ,
on appelle loi conditionnelle de X sachant (Y = y) la famille des nombres:
(P (X = x|Y = y))x∈E .

Facult´e des Sciences Mekn`es

24

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Remarque 2.4.11.
1. Par d´efinition de probabilit´e conditionnelle, si P (Y = y) > 0, alors
P (X = x|Y = y) =

P (X = x, Y = y)
.
P (Y = y)

2. Si X et Y sont ind´ependantes, alors la loi de X sachant (Y = y) ne depend pas de
Y, c-`
a-d: P (X = x|Y = y) = P (X = x).
3. Formule des probabilit´es totales:
X
P (X = x) =
P (X = x|Y = y)P (Y = y).
y∈F

4. Formule de Bayes:
P (Y = y|X = x)P (X = x)
P (X = x|Y = y) = P
.
P (Y = y|X = x)P (X = x)
x∈E


efinition 2.4.12. On appelle esp´erance conditionnelle de X sachant Y la v.a.d not´ee
E(X|Y ) ´egale `
a h(Y ) o`
u h est la fonction d´efinie par:
X
h(y) = E(X|Y = y) =
xP (X = x|Y = y).
x∈E

h(y) est l’esp´erance de la v.a X par rapport `a sa loi conditionnelle.
Il est clair que: E(X|X) = X.
Exemple
Soient X1 , ..., Xn des v.a i.i.d suivant la loi B(p), p ∈]0, 1[ et Sn = X1 +...+Xn leur somme.
D´eterminer E(X1 |Sn ).
Corrig´
e
Puisque les X1 , ..., Xn sont i.i.d, on a
E(X1 |Sn ) = E(X2 |Sn )..... = E(Xn |Sn ).
D’autre part, on a
Sn = E(Sn |Sn ) = E(X1 + ... + Xn |Sn ) = nE(X1 |Sn ).
Finalement, on trouve que E(X1 |Sn ) =

Sn
n .

Cas de deux v.a.r `
a densit´
es
Le probl`eme est de g´en´eraliser les r´esultats obtenus dans le cas des v.a.d au cas des v.a.r
`a densit´es o`
u l’´ev´enement (Y = y) est de probabilit´e nulle. En particulier, il faut donner
un sens `a des expressions telles que E(X|Y = y).

efinition 2.4.13. Soient X et Y deux v.a.r de densit´es conjointe f(X,Y ) et marginales
(resp.) fX et fY .
— Densit´es conditionnelles:
f(X,Y ) (x, y)
f(X,Y ) (x, y)
,
f(Y |X=x)(x,y) = f (y|x) =
.
f(X|Y =y) (x, y) = f (x|y) =
fY (y)
fX (x)
— L’esp´erance conditionnelle E(Y |X) est une v.a, (fonction de X), telle que:
Z
E(Y |X = x) =
yf (y|x)dy.
R

Facult´e des Sciences Mekn`es

25

Prob et Proc Stoch SMA-S6

Sghir Aissa

2.4.4

Chapitre 2. Variables al´eatoires

Vecteurs gaussiens


efinition 2.4.14. Soit X et Y deux v.a dans L2 (Ω, A, P ) , (c-`a-d: X et Y sont de carr´e
int´egrable), alors on d´efinit la covariance entre X et Y par la formule:


Cov(X, Y ) = E (X − E(X))(Y − E(Y ) .
Propri`
et´
es 2.4.15.
— Cov(X, X) = V (X).
— Cov(X, Y ) = Cov(Y, X).
— Formule de Koenig: Cov(X, Y ) = E(XY ) − E(X)E(Y ).
— Cov(aX, bY ) = abCov(X, Y ).
— V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y ).
— Si X et Y sont ind´ependantes, alors Cov(X, Y ) = 0.
Preuve.
— Cov(X, X) = E(X − E(X))2 = V (X).
— Trivial.
Facult´e des Sciences Mekn`es

26

Prob et Proc Stoch SMA-S6

Sghir Aissa







Chapitre 2. Variables al´eatoires

h
i
h
i
Cov(X, Y ) = E (X−E(X))(Y −E(Y )) = E XY −XE(Y )−Y E(X)+E(X)E(Y ))
= E(XY )−E(X)E(Y )−E(Y )E(X)+E(X)E(Y )) = E(XY )−E(X)E(Y ).
D’apr`es la formule de Koenig, on a
Cov(aX, bY ) = E(aXbY )−E(aX)E(bY ) = abE(XY )−abE(X)E(Y ) = abCov(X, Y ).
V (X + Y ) = E(X + Y )2 − (E(X) + E(Y ))2
= [E(X 2 ) + E(Y 2 ) + 2E(XY )] − [(E(X))2 + (E(Y ))2 − 2E(X)E(Y )]
= [E(X 2 ) − (E(X))2 ] + [E(Y 2 ) − (E(Y ))2 ] + 2[E(XY ) − E(X)E(Y )]
= V (X) + V (Y ) + 2Cov(X, Y ).
Il suffit de voir que si X et Y sont ind´ependantes, alors E(XY ) = E(X)E(Y ).

Proposition 2.4.16.


— Si (X, Y ) est un couple discret de loi P (X = x, Y = y) , alors
Cov(X, Y ) =

XX

(x − E(X))(y − E(Y ))P (X = x, Y = y).

x∈E y∈F

— Si (X, Y ) est un couple absolument continue de densit´e f(X,Y ) `
a support D, alors
Z Z
Cov(X, Y ) =
(x − E(X))(y − E(Y ))f(X,Y ) (x, y)dxdy.
D

D


efinition 2.4.17.
— On appelle esp´erance math´ematique du vecteur al´eatoire X = (X1 , ..., Xn ) le vecteur E(X) de Rn de composantes E(X1 ), ..., E(Xn ).
— Soit X = (X1 , ..., Xn ) un vecteur al´eatoire de composantes de carr´e int´egrable. On
appelle matrice de variances-covariances de X, la matrice carr´ee, not´ee ΓX , d’ordre
n et de terme g´en´eral Cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ), 1 ≤ i, j ≤ n.
Exemple
Pour le vecteur al´eatoire X = (X1 , X2 , X3 ), on a


V (X1 )
Cov(X1 , X2 ) Cov(X1 , X3 )
V (X2 )
Cov(X2 , X3 ) 
ΓX =  Cov(X2 , X1 )
Cov(X3 , X1 ) Cov(X3 , X2 )
V (X3 )
Remarque 2.4.18. La matrice ΓX est forc´ement sym´etrique et ses termes diagonaux sont
les variances des composantes des vecteurs: V (Xi ) = Cov(Xi , Xi ), 1 ≤ i, j ≤ n.

efinition 2.4.19.
— On dit que le vecteur X = (X1 , ..., Xn ) est gaussien ou normal dans Rn si toute
combinaison lin´eaire des composantes du vecteur X est une v.a normale dans R,
c-`a-d: pour tout α = (α1 , ..., αn ) ∈ Rn , la v.a Z = α0 X = α1 X + ... + αn Xn suit
une loi normale dans R.
Proposition 2.4.20.
— Si X = (X1 , ..., Xn ) est un vecteur gaussien de moyenne m et de matrice de
variances-covariances ΓX , alors Z = α0 X suit une loi normale N (α0 m, α0 ΓX α).
— La densit´e du vecteur gaussien X = (X1 , ..., Xn ) est donn´ee par:
h
i
1
1
0 −1
p
fX (x) =
exp

(x

m)
Γ
(x

m)
,
n
X
2
(2π) 2 det(ΓX )
avec x = (x1 , ..., xn ) et m = E(X).
Facult´e des Sciences Mekn`es

27

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Preuve. Nous montrons seulement le premier point.
— Par d´efinition du vecteur gaussien, Z = α0 X suit une loi normale dans R de param`etres:
n X
n



X
0
0
0
0
E α X = α E(X) = α m et V α X =
αi αj Cov(Xi , Xj ) = α0 ΓX α.
i=1 j=1

Proposition 2.4.21.
— Si X est un vecteur gaussien, alors tous les v.a X1 ,...,Xn suivent des lois normales
dans R.
— Inversement, si X1 ,...,Xn sont ind´ependantes et suivent des lois normales dans R,
alors X = (X1 , ..., Xn ) est un vecteur gaussien. Sa matrice de variances-covariances
est diagonale, c-`
a-d: aij = Cov(Xi , Xj ) = 0 pour tous i 6= j.
Exemple
Si X et Y sont deux v.a i.i.d de loi N (0, 1) alors E(X) = E(Y ) = 0 et V (X) = V (Y ) = 1
et par suite (X, Y ) est un vecteur gaussien de moyenne m = (0, 0) et de matrice de
variances-covariances:


1 0
ΓX = I2 =
0 1
La densit´e du couple (X, Y ) est donn´ee par:
f(X,Y ) (x, y) =

2.4.5

x2 + y 2
1
exp −
= fX (x)fY (y).

2

Fonction caract´
eristique


efinition 2.4.22. Soit X = (X1 , ....., Xn ) un vecteur al´eatoire `a valeurs dans Rn . La
fonction caract´eristique de X est d´efinie pour tout t = (t1 , ....., tn ) ∈ Rn par:
0

ϕX (t) = E(eit X ) = E(ei(t1 X1 +.....+tn Xn ) ).
Propri`
et´
es 2.4.23.
1. Si on connaˆıt la fonction caract´eristique du vecteur X, on peut en d´eduire la fonction caract´eristique de chaque composante Xi . On a:
∀ i ∈ [1 : n], ∀ ti ∈ R : ϕXi (ti ) = ϕX (0, ..., ti , ..., 0).
2. Si X1 , ....., Xn sont ind´ependantes, alors pour tout t = (t1 , ....., tn ) ∈ Rn , on a:
ϕX1 +.....+Xn (t) =

n
Y

ϕXi (ti ).

i=1

3. Les v.a.r X1 , ....., Xn sont ind´ependantes ssi pour tout t = (t1 , ....., tn ) ∈ Rn , on a:
ϕX (t) =

n
Y

ϕXi (ti ).

i=1

4. Soit m ∈ N tel que sup E|X|m < +∞, alors ϕX poss`ede des d´eriv´ees partielles
i∈[1:n]

continues d’ordre k ≤ m. De plus, pour tous k1 , ..., kn tels que k = k1 +...+kn ≤ m,
on a:



∂ k ϕX
k1
k
kn i<t,X>
.
t
,
.....,
t
=
i
E
X
...X
e
1
n
n
1
∂tk11 ...∂tknn
Facult´e des Sciences Mekn`es

28

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

Proposition 2.4.24. X = (X1 , ..., Xn ) est vecteur gaussien dans Rn ssi il existe un
vecteur m de Rn et une matrice ΓX sym´etrique et positive d’ordre n tels que sa fonction
caract´eristique est donn´ee pour tout t ∈ Rn par:
n
o
1
ϕX (t) = exp it0 m − t0 ΓX t .
2
Dans ce cas E(X) = m et ΓX est la matrice de variances-covariances de X.
Preuve. Sens direct: Si X = (X1 , ..., Xn ) est un vecteur gaussien dans Rn , alors t0 X est
une v.a normale dans R, de moyenne t0 m et de variance t0 ΓX t, (voir proposition 2.4.20).
Par suite: pour tout u ∈ R, on a
0
n
o
1
ϕt0 X (u) = E eiut X = exp iut0 m − u2 t0 ΓX t .
2
Prenons u = 1, on trouve
0
n
o
1
ϕX (t) = E eit X = exp it0 m − t0 ΓX t .
2
Sens inverse: Supposons maintenant que X = (X1 , ..., Xn ) est un vecteur al´eatoire dans
Rn de fonction caract´eristique:
o
n
1
ϕX (t) = exp it0 m − t0 ΓX t .
2
Soit Y = t0 X, alors


0
n
o
n
o
1
1
ϕY (u) = E eiuY = E eiut X = exp it0 m − u2 t0 ΓX t = exp ia − u2 b ,
2
2
avec a = t0 m et b = t0 ΓX t. Par caract´erisation, la v.a Y qui une combinaison lin´eaire de
X est de loi normale dans R. Ceci implique que X = (X1 , ..., Xn ) est un vecteur gaussien
dans Rn .
Corollaire 2.4.25. Les composantes X1 ,...,Xn du vecteur gaussien X sont ind´ependantes
ssi la matrice de variances-covariances de X est diagonale.
Preuve. Il suffit, bien sˆ
ur, de montrer la r´eciproque. Supposons donc que ΓX soit diagonale
2
telle que V (Xi ) = σi , alors d’apr`es la proposition 2.4.24 sa fonction caract´eristique est de
la forme:
( n
)
n
n

X
Y
1 2 2
1 2 2 Y
ϕX (t) = exp
iti mi − ti σi
=
exp iti mi − ti σi =
ϕXi (ti ).
2
2
i=1

i=1

i=1

Cons´
equence 2.4.27.
Si (X, Y ) est un vecteur gaussien, alors X

Facult´e des Sciences Mekn`es

29

|=

D’o`
u le r´esultat.
Y ssi Cov(X, Y ) = 0.

Prob et Proc Stoch SMA-S6

Sghir Aissa

2.5

Chapitre 2. Variables al´eatoires

Exercices

Exercice 1
Soit X et Y deux v.a ind´ependantes suivant la loi uniforme sur {1, ..., n}.
1) D´eterminer P (X = Y ).
2) En utilisant la sym´etrie: P (X ≥ Y ) = P (X ≤ Y ) et la question 1), d´eterminer
P (X ≥ Y ).
3) D´eterminer la loi de Z = X + Y , (discuter les cas: k ≤ n et k > n).
Exercice 2
On rappelle que la fonction g´en´eratrice des moments gX de la v.a.d enti`ere X est la
fonction gX : [−1, 1] → R d´efinie par:
gX (s) = E(sX ) =

+∞
X

sn P (X = n).

n=0

Calculer gX et en d´eduire la loi de X, E(X) et V (X) dans les cas suivants:
1) X ∼ B(n, p), en particulier X ∼ B(p).
2) X ∼ Geo(p).
3) X ∼ P(λ).
Exercice 3
Soit X ∼ B(p) et Y ∼ P(1) deux v.a ind´ependantes. On pose Z = XY .
1) Trouver la loi de Z, (discuter les cas: k = 0 et k 6= 0).
2) En d´eduire E(Z) et V (Z).
3) Calculez la fonction g´en´eratrice des moments de Z.
4) Retrouver les r´esultats de la question 2).
Exercice 4
Soit X ∼ P(λ) et Y ∼ P(β) deux v.a ind´ependantes.
1) Calculer, de deux mani`eres diff´erentes, la loi de Z = X + Y .
2) En d´eduire E(Z) et V (Z).
3) Calculer la fonction de r´epartition de Z.
Exercice 5
Soit X ∼ Geo(p) et Y ∼ Geo(q) deux v.a ind´ependantes. On cherche la loi de la v.a
Z = min(X, Y ).
1) Pour k ∈ N∗ , calculer P (X ≥ k).
2) En d´eduire P (Z ≥ k) et la fonction de r´epartition de Z.
3) Quelle est la loi de Z?
4) Calculer P (X < Y ).
Exercice 6
Soit (Xn )n une suite de v.a enti`eres i.i.d et N une v.a enti`ere ind´ependante de la suite
(Xn )n . On pose

X1 + X2 + ....... + XN si N ∈ N∗
S=
0
si N = 0.
Facult´e des Sciences Mekn`es

30

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

1) En remarquant que

P

1{N =n} = 1, Montrer que: gS = gN ◦ gX1 .

n∈N

2) En d´eduire la loi de S si N ∼ Geo(p) et X1 ∼ Geo(q).
Exercice 7
Soit X une v.a absolument continue de densit´e de probabilit´e fX . On appelle
entropie de X la quantit´e suivante, (si elle existe):
Z +∞
h(X) = −
fX (x) ln(fX (x))dx.
−∞

1) Calculer l’entropie de X dans les cas suivants:
i) X ∼ U[a, b].
ii) X ∼ E(λ).
iii) X ∼ N (µ, σ 2 ).
2) On souhaite prouver que, parmi les v.a de variance donn´ee, les lois normales sont
celles qui admettent une entropie maximale. On fixe donc X une v.a, de moyenne
µ, de densit´e fX et de variance σ 2 , admettant une entropie h(X). On note fN
la densit´e de la v.a N ∼ N (µ, σ 2 ). On supposera dans la suite que la fonction
x 7→ fX (x) ln

fN (x)
fX (x)

est int´egrable sur R.

i) V´erifier que:


Z
h(X) =

fX (x) ln
R


Z
fN (x)
dx −
fX (x) ln(fN (x))dx.
fX (x)
R



R
N (x)
ii) Montrer que R fX (x) ln ffX
(x) dx ≤ 0. (Utiliser: ∀ x > 0, ln(x) ≤ x − 1).
R
iii) Calculer: R fX (x) ln(fN (x))dx.
vi) En d´eduire que h(X) ≤ h(N ).
Exercice 8
Soit X une v.a absolument continue de densit´e de probabilit´e fX d´efinie sur R par:
fX (x) =

a
.
(1 + |x|)2

1) D´eterminer la constante a.
2) Calculer E(X) et V (X), (si ils existent).
3) On pose Y = ln(1 + |X|). D´eterminer par deux m´ethodes la densit´e de probabilit´e
de Y .
4) Reconnaˆıtre le nom de la loi de probabilit´e de Y .
Exercice 9
Soit X une v.a de loi exponentielle de param`etre 1. On pose : Y = [X] la partie
enti`ere de X.
1) Calculer la fonction de r´epartition de X.
2) En d´eduire que Y suit une loi g´eom´etrique et d´eterminer son param`etre, (calculer
P (Y = k)).
3) On note Z = X − Y . Quelle est sa fonction de r´epartition?
Facult´e des Sciences Mekn`es

31

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

4) En d´eduire la densit´e de Z.
Exercice 10
1) Soit U ∼ U[0, 1]. D´eterminez la loi de X = − ln(U ).
2) D´eterminer la loi de X = a + (b − a)U si U ∼ U[0, 1].
3) Montrer que si U ∼ U[0, 1] et p ∈ (0, 1) alors Y = 1{U ≤p} ∼ B(p).
n
P
4) En d´eduire la loi de Z =
1{Ui ≤p} ou U1 , ..., Un sont n v.a i.i.d de loi U[0, 1].
i=1

Exercice 11
Soit X une v.a.r de fonction de r´epartition FX et de densit´e fX .
1) Montrer que si U ∼ U[0, 1] alors X = FX−1 (U ) poss`ede la densit´e fX .
2) Calculer la fonction de r´epartition de la loi E(λ).
3) En d´eduire que si U ∼ U[0, 1] alors X = − λ1 ln(1 − U ) ∼ E(λ).
Exercice 12
Soit U ∼ N (0, 1) et ϕU sa fonction caract´eristique.
0

1) Montrer que ϕU v´erifie l’EDO: ϕU (t) = −tϕU (t) et en d´eduire ϕU (t).
´
2) Soit X ∼ N (m, σ 2 ). Ecrire
X en fonction de U .
3) En d´eduire ϕX (t).
Exercice 13
1) Calculer la fonction caract´eristique de X suivant la loi P(λ).
2) En d´eduire E(X) et V (X).
2) D´eterminer la loi de Z = X + Y si X et Y sont i.i.d de loi P(λ).
Exercice 14
Soient X et Y deux v.a `
a valeurs dans N. On suppose que la loi conjointe de X et Y
est donn´ee par:
a
P (X = j, Y = k) =
.
j!k!
1) D´eterminer la valeur du r´eel a.
2) D´eterminer les lois marginales de X et Y et leurs nom.
3) Les v.a X et Y sont elles ind´ependantes?
4) D´eterminer la loi de Z = X + Y .
Exercice 15
Soient X1 , ..., Xn des v.a i.i.d de loi B(p) avec p ∈]0, 1[ et soit Sn = X1 + ... + Xn leur
somme.
1) Pour s ∈ [0, n], donner la loi conditionnelle de X1 sachant (Sn = s).
2) Calculer E(X1 |Sn = s) et en d´eduire E(X1 |Sn ).
Exercice 16
On consid`ere le couple de v.a (X, Y ) de fonction de densit´e conjointe:

f(X,Y ) (x, y) = ce−b(x+y) , 0 < x < y < +∞,
f(X,Y ) (x, y) = 0 sinon.
1) D´eterminer une relation entre b et c.
Facult´e des Sciences Mekn`es

32

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 2. Variables al´eatoires

2) Pour c = 2 et b = 1, d´eterminer les densit´es marginales de X et Y.
3) Montrer que X et Y ne sont pas ind´ependants.
4) D´eterminer la densit´e conditionnelle de f(Y |X=x) .
5) Calculer E(Y |X = x) et en d´eduire E(Y |X).
Exercice 17
Soient X et Y deux v.a i.i.d suivant la loi de Pareto de param`etre 2, c-`a-d: qui
1
. On pose:
poss`edent la densit´e: f (x) = (x>1)
x2
(Z, W ) =



ln(Y )
.
ln(X), 1 +
ln(X)

1) En utilisant le produit de convolution, d´eterminer la densit´e de T = X + Y .
2) En utilisant la m´ethode de la fonction muette, d´eterminer la loi de (Z, W ).
3) Les v.a Z et W sont-elles ind´ependantes?
4) Quelle est la loi de W?
5) Quelle est la loi de Z?
Exercice 18
Soit (X, Y ) un vecteur al´eatoire gaussien dans R2 centr´e et de matrice de variancescovariances l’identit´e I2 . Soit (Z, Q) le vecteur al´eatoire d´efini par:
Z = (X + Y )/2

Q = (X − Y )/2.

On pose:
U=

(X − Z)2 (Y − Z)2
+
.
2
2

1) D´eterminer la loi de Z et Q.
2) Calculer la matrice de variances-covariances du couple (Z, Q).
3) Z et Q sont-elles ind´ependantes?
4) Calculer E(U ).
5) Montrer que Z et U sont ind´ependantes, (utiliser la m´ethode de la fonction muette).
6) En d´eduire la loi de U.
Exercice 19
Soit R de loi exponentielle de param`etre 1/2 et Θ de loi uniforme sur [0, 2π] ind´ependante de R. On pose:


et
Y = R sin(Θ)
X = R cos(Θ)
1) Utiliser la m´ethode de la fonction muette pour d´eterminer la densit´e du couple
(X, Y ).
2) En d´eduire que X et Y sont ind´ependants et de mˆeme loi N (0, 1).

Facult´e des Sciences Mekn`es

33

Prob et Proc Stoch SMA-S6

Chapitre 3

Convergences et approximations
Dans ce chapitre, nous allons introduire diff´erentes notions de convergences pour une suite
de v.a. Apr`es avoir ´etudi´e les liens entre ces diff´erentes notions de convergences, nous
´enoncerons deux th´eor`emes limites tr`es importants des probabilit´es:
1. La loi forte des grands nombres qui nous donne la convergence de la moyenne
n
P
empirique: Xn = n1
Xi , d’une suite (Xn )n de v.a i.i.d et int´egrables vers E(X1 ),
lorsque n → +∞.

i=1

2. Le th´eor`eme de la limite centrale qui indique `a quelle vitesse cette convergence a
lieu, sous l’hypoth`ese suppl´ementaire que les (Xn )n sont de carr´e int´egrables.
Les modes de convergence les plus utilis´es en probabilit´e sont les suivants:
— la convergence presque sˆ
ure not´ee p.s,
— la convergence en probabilit´e not´ee p,
— la convergence en moyenne quadratique (ou dans L2 ),
— la convergence dans L1 ,
— la convergence en loi not´ee L.

3.1
3.1.1

Modes de convergence

efinitions

Soit (Xn )n une suite de v.a et X une v.a d´efinies sur le mˆeme espace probabilis´e (Ω, F, P ).
On note (FXn )n la suite des fonctions de r´epartitions de (Xn )n et FX celle de X.
On note (ϕXn )n la suite des fonctions caract´eristiques de (Xn )n et ϕX celle de X.

efinition 3.1.1. Lorsque n → +∞, on dit que:
n
o
p.s
1. Xn → X si P ω, lim Xn (ω) = X(ω)
= 1.
n→+∞

p

2. Xn → X si ∀ > 0,

lim P (|Xn − X| > ) = 0.

n→+∞

L2

3. Xn → X si (Xn )n et X sont de carr´e int´egrables et lim E(|Xn − X|2 ) = 0.
n→+∞

L1

4. Xn → X si (Xn )n et X sont int´egrables et lim E(|Xn − X|) = 0.
n→+∞

L

5. Xn → X si pour toute f continue et born´ee, lim E(f (Xn )) = E(f (X)).
n→+∞

34

Sghir Aissa

Chapitre 3. Convergences et approximations

Exemple

Consid´erons la suite de v.a (Xn )n o`
u chaque Xn prenant deux valeurs 0 et n avec les
probabilit´es suivantes:
P (Xn = 0) = 1 −


1
1
et P (Xn = n) = .
n
n

Alors lorsque n → +∞, on a
L1

1. Xn → 0, car E|Xn | =

√1
n

−→ 0.

p

2. Xn → 0, car d’apr`es l’in´egalit´e de Markov, on a
P (|Xn | > ) ≤

1
E|Xn |
= √ −→ 0.

n

L

Proposition 3.1.2. Xn → X ssi lim FXn (x) = FX (x) en tout point de continuit´e x de
n→+∞

la fonction FX .
L

Remarque 3.1.3. Dans le cas des v.a.d: Xn → X ssi lim P (Xn = x) = P (X = x), et
n→+∞

L

dans le cas des v.a `
a densit´es: Xn → X ssi lim fXn (x) = fX (x).
n→+∞

Exemple
Consid´erons la suite de v.a (Xn )n o`
u chaque Xn ait pour loi:

1
P Xn = 2 +
= 1 c-`a-d: PXn = δ2+ 1 .
n
n
L

u X est de loi δ2 , et on a en tout point
La suite (2 + n1 ) converge vers 2, donc Xn → X o`
x ∈ R \ {2}: lim FXn (x) = FX (x) .
n→+∞

Th´
eor`
eme 3.1.4. (de Paul L´
evy):
L

— Si Xn → X, alors (ϕXn ) converge simplement vers ϕX .
— Inversement, si (ϕXn ) converge simplement vers une fonction ϕ continue en 0, alors
L

Xn → X dont la fonction caract´eristique de X est ϕ.
L

Th´
eor`
eme 3.1.5. (de Slutsky): Si Xn → X et g est une application continue de R vers
L

R, alors g(Xn ) → g(X).

3.1.2

Approximation de la loi de Poisson par la loi binomiale

Proposition 3.1.6. Soit (Xn )n une suite de v.a de loi (B(n, pn ))n , telles que npn → λ > 0,
L

lorsque n → +∞, alors Xn → X qui suit une loi de poisson P(λ).
Preuve. Il suffit de voir que lorsque n → +∞:


ϕXn (t) = 1−pn +pn eit

n



n

np (1−eit )
n ln 1− n n
npn (1 − eit )
it
=e
−→ eλ(e −1) = ϕX (t),
= 1−
n

o`
u ϕX est clairement continue en 0.

Facult´e des Sciences Mekn`es

35

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 3. Convergences et approximations

Application
Soit X une v.a de loi B(100, 0.05). Nous allons calculer: P (X = 2).
1. Calcul exact:
2
P (X = 2) = C100
(0.05)2 (1 − 0.05)100−2 ≈ 0, 0812.

2. Calcul approch´e: On approche B(100, 0.05) par P(λ = 5), (npn = 100 × 0.05 = 5).
P (X = 2) ≈

52 −5
e ≈ 0.0843.
2!

Proposition 3.1.7. Si, pour tout ε > 0, la s´erie de terme g´en´eral P (|Xn − X| > ε) est
convergente, c-`
a-d:
X
∀ ε > 0,
P (|Xn − X| > ε) < +∞,
n

alors (Xn )n converge p.s vers X.
Le r´esultat suivant est une simple application du lemme de Borel-Cantelli qui montre que
si (Ω, A, P ) est un espace probabilis´e et (An )n une suite des ´ev´enements, alors
X
P (An ) < +∞ =⇒ P (lim sup An ) = 0.
n

Proposition 3.1.8.
1. Si la suite (Xn )n converge p.s vers X, alors il converge en probabilit´e vers X.
2. Inversement, si la suite (Xn )n converge en probabilit´e vers X, alors il existe une
sous suite (Xnk )k qui converge p.s vers X.
Finalement nous ´enon¸cons le r´esultat suivant:
Proposition 3.1.9. Les diff´erents modes de convergence ne sont pas ind´ependants et
satisfont aux implications suivantes:

Facult´e des Sciences Mekn`es

36

Prob et Proc Stoch SMA-S6

Sghir Aissa

3.2
3.2.1

Chapitre 3. Convergences et approximations

Lois des grands nombres
Loi faible des grands nombres

Th´
eor`
eme 3.2.1. Soit (Xn )n une suite de v.a i.i.d et d´efinies sur un espace probabilis´e
(Ω, F, P ), poss´edant une esp´erance m = E(X1 ) et une variance σ 2 = V (X1 ).
n
P
On pose: Xn = n1
Xi . Alors
i=1

p

Xn → m, c-`
a-d:
Preuve. On a: E(Xn ) =
on trouve que: V (Xn ) =

1
n

1
n2

n
P

∀ > 0

E(Xi ) =

i=1
n
P
i=1

lim P (|Xn − m| ≥ ) = 0.

n→+∞

1
n nm

= m, et comme les v.a sont ind´ependants,

V (Xi ) = n1 nσ 2 =

σ2
n .

D’apr`es l’in´egalit´e de Bienaym´e-Tchebychev, on a
V (X )

σ2
n
P |Xn − m| ≥ ≤
=
.
2
n 2
Donc par encadrement de limits, lim P (|Xn − m| ≥ ) = 0.
n→+∞

Remarque 3.2.2. On consid`ere une suite d’´epreuves ind´ependantes, et un ´ev´enement
A, de probabilit´e p, qui peut ou non se r´ealiser au cours d’une des ´epreuves. On note
Xi la v.a qui vaut 1 si A s’est r´ealis´e `a la i-`eme ´epreuve et 0 sinon. Dans ce cas Xn
repr´esente la fr´equence de r´ealisation de l’´ev´enement A au cours des n premi`eres ´epreuves.
La loi faible des grands nombres nous dit que cette fr´equence (tend) vers p. Cela justifie
a posteriori la fa¸con d’introduire la notion de probabilit´e comme ´etant la limite de la
fr´equence d’apparition de l’´ev´enement donn´e.

3.2.2

Loi forte des grands nombres

Th´
eor`
eme 3.2.3. Soit (Xn )n une suite de v.a r´eelles i.i.d d´efinies sur un espace probabilis´e (Ω, F, P ), poss´edant une esp´erance m = E(X1 ) et une variance σ 2 = V (X1 ). Alors
p.s
Xn → m.
Application: Approximation d’une fonction de r´
epartition
Proposition 3.2.4. On d´efinit pour n v.a i.i.d X1 , ..., Xn , la fonction de r´epartition empirique Fn d´efinie pour tout x ∈ R par:
n

1X
1(Xi ≤x) .
Fn (x) =
n
i=1

p.s

Alors, lorsque n tend vers l’infini, Fn (x) → F (x) qui est la fonction de r´epartition de X1 .
Preuve. Ce r´esultat est une simple application de la lois forte des grands nombre, il suffit
de prendre: Yi = 1(Xi ≤x) , par suite m = E(Y1 ) = E(1(X1 ≤x) ) = P (X1 ≤ x) = F (x).

Facult´e des Sciences Mekn`es

37

Prob et Proc Stoch SMA-S6

Sghir Aissa

3.3

Chapitre 3. Convergences et approximations

Th´
eor`
eme de la limite centrale

Th´
eor`
eme 3.3.1. Soit (Xn )n une suite de v.a i.i.d d´efinies sur un espace probabilis´e
(Ω, F, P ), poss´edant une esp´erance m = E(X1 ) et une variance σ 2 = V (X1 ). Alors lorsque
n → +∞, on a:

Xn − E(Xn )
n(Xn − m) L
Zn =
=
−→ X ∼ N (0, 1).
σ
σ(Xn )
Preuve. D’apr`es la Proposition 2.3.15, si Y est une v.a centr´e r´eduite, alors la fonction
caract´eristique de Y admet le d´eveloppement limit´e suivant:
ϕY (t) = 1 −
Posons Yi =

Xi −m
σ .

t2
+ o(t2 ),
2

t → 0.

Il est clair Y1 , ..., Yn sont n v.a i.i.d centr´es r´eduites telles que:
n
X
Y
√i .
Zn =
n
i=1

D’apr`es les propri´et´es ´el´ementaires des fonctions caract´eristiques (voir Propri´et´es 2.3.14),
la fonction caract´eristique de Zn est donn´ee par:


n
t2 n
−t2
t
t2
ϕZn (t) = ϕY1 √
= 1−
+o
→ e 2 , lorsque n → +∞.
2n
n
n
Mais cette limite est la fonction caract´eristique de la loi normale centr´ee r´eduite N (0, 1),
d’o`
u l’on d´eduit le th´eor`eme de la limite centrale grˆace au th´eor`eme de convergence de
Paul L´evy.
Remarque 3.3.2. Le th´eor`eme de la limite centrale limite explique la place fondamentale
des v.a normales en probabilit´es et en statistique. En pratique ce th´eor`eme est valide pour
les valeurs: n > 30.

3.3.1

Approximation de la loi binomiale par la loi normale

Th´
eor`
eme 3.3.3. (de Moivre-Laplace). Soit (Xn )n une suite de v.a de loi B(n, p).
Alors
Xn − np L
Zn = p
→ X ∼ N (0, 1).
np(1 − p)
Preuve. Ce r´esultat est une simple application du th´eor`eme de la limite centrale. Il
n
P
suffit de prendre: Xn =
Yi la somme de n v.a i.i.d de loi B(p). On a: E(Y1 ) = p,
i=1

V (Y1 ) = p(1 − p), donc Xn = nYn , E(Xn ) = np et V (Xn ) = np(1 − p).

3.3.2


ethodes de Monte Carlo

Les m´ethodes de Monte Carlo permettent d’estimer des int´egrales `a l’aide de la loi forte
des grands nombres. Le principe de fonctionnement
de ces m´ethodes est le suivant: ConsiR
d´erons une int´egrale de la forme: I = R g(x)dx, qu’on veut estimer sa valeur inconnue.
Alors
Z
Z
g(x)
I=
fX (x)dx =
h(x)fX (x)dx = E(h(X)),
R fX (x)
R
Facult´e des Sciences Mekn`es

38

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 3. Convergences et approximations

o`
u la fonction fX est suppos´ee ˆetre une densit´e de probabilit´e de X. En g´en´eral, une
telle int´egrale n’est pas calculable explicitement car on ne connaˆıt pas de primitive de la
fonction int´egr´ee. Les m´ethodes de Monte Carlo proposent d’estimer I par la quantit´e:
n

In =

1X
h(Xi ),
n
i=1

pour n v.a i.i.d X1 , ..., Xn suivant la loi de densit´e fX , (n assez grand).
En pratique on prend parR exemple:
1
— X ∼ U(0, 1) pour 0 g(x)dx.
Rb
— X ∼ U(a, b) pour a g(x)dx.
R +∞
— X ∼ E(1) pour 0 g(x)dx.
R +∞
— X ∼ N (0, 1) pour −∞ g(x)dx.
R +∞
— Pour a g(x)dx, a > 0, on fait le changement de variable t =
R1
0 g(x)dx.

a
x

pour retrouver

Exemple sous logiciel R
On veut estimer la valeur de l’int´egrale:
Z 1
8
2x2 dx = ' 2.666667.
I=
3
0

2.6
2.2

2.4

ord

2.8

3.0

3.2

> x = runif (5000, 0, 2)
> y = x2
> 2 ∗ mean(y)
> 2.599169
Que pensez-vous de la qualit´e de la valeur obtenue compar´ee avec la valeur exacte?
Pour observer l’´evolution de la qualit´e de cette estimation lorsque n varie.
> ord = cumsum(y)/(1 : 5000)
> plot(1 : 5000, ord)
> abline(h = 8/3, col = ”red”)

0

1000

2000

3000

4000

5000

1:5000

La vitesse de convergence de la m´ethode de Monte Carlo est assur´ee par le th´eor`eme de
la limite centrale pr´ec´edent.
Facult´e des Sciences Mekn`es

39

Prob et Proc Stoch SMA-S6

Sghir Aissa

3.4

Chapitre 3. Convergences et approximations

Exercices

Exercice 1
Soit (Xn )n une suite de v.a de lois
n → +∞.




B(n, pn ) , telles que npn → λ > 0, lorsque
n

L

1) Montrer par deux m´ethodes que Xn → X qui suit P(λ).
2) En d´eduire X dans le cas o`
u chaque Xn ∼ B(n, n1 ).
3) Calculer exactement et par approximation: P (Y = 1) si Y ∼ B(103 , 10−3 ).
Exercice 2
1

Soit X une v.a.r `
a densit´e continue. Pour tout n ∈ N, on pose: Xn = Xe n .
On note FX la fonction de r´epartition de X et FXn celle de Xn pour tout n ∈ N.
1) Exprimer FXn en fonction de FX .
L

2) En d´eduire que Xn → X.


L
3) Soit (Yn )n une suite de v.a de lois P( n1 ) . D´eterminer Y tel que Yn → Y .
n

(Remarque: distinguer les deux cas: P (Yn = 0) et P (Yn = k 6= 0)).
Exercice 3
Pour tout entier naturel n non nul, on consid`ere la fonction fn d´efinie par:
n2 x2
.
fn (x) = 1(x>0) n2 x exp −
2
1) Montrer que fn est une densit´e de probabilit´e.
2) Soit (Xn )n une suite de v.a telle que, pour tout entier n ≥ 1, Xn admet pour
P

densit´e fn . D´emontrer que Xn → X = 0.
Exercice 4
R1
On souhaite estimer I(f ) = 0 f (x)dx, o`
u f est une fonction continue sur [0, 1].
Soit (Xn )n une suite de v.a i.i.d d´efinies sur un espace probabilis´e (Ω, F, P ) de loi
commune la loi uniforme sur [0, 1]. On pose:
n

fn =

1X
f (Xi ).
n
i=1

1) D´eterminer `
a l’aide de loi forte des grandes nombres la limite p.s de f n lorsque
n → +∞.
2) Calculer la limite p.s de la suite:
n

Yn =

1X 2
Xi .
n
i=1

3) Pratiquement, proposer un algorithme d’estimation de I(f ) =

Facult´e des Sciences Mekn`es

40

R1
0

f (x)dx.

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 3. Convergences et approximations

Exercice 5
Soit (Un )n une suite de v.a i.i.d de loi U([0, 1]). On pose: Mn = max{U1 , ..., Un } et
Xn = n(1 − Mn ).
1) D´eterminer la fonction de r´epartition de Mn .
2) En d´eduire que la fonction de r´epartition de

 0
1 − (1 − nx )n
FXn =

1

Xn est donn´ee par:
si x < 0
si 0 ≤ x ≤ n
si x ≥ n

L

u X ∼ P(1).
3) En d´eduire que Xn → X o`
Exercice 6
Soit (Xn )n une suite de v.a i.i.d et de carr´e int´egrable. On note m leur esp´erance
´
commune. Etudier
la convergence p.s de la suite:
Sn =

X1 X2 + X2 X3 + . . . + Xn−2 Xn−1 + Xn−1 Xn
.
n

(Remarque: sans perte de g´en´eralit´e, supposez que n = 2p est pair et ´ecrivez Sn
comme somme de deux suites convenables de v.a i.i.d pour appliquer la loi forte
des grands nombres).

Facult´e des Sciences Mekn`es

41

Prob et Proc Stoch SMA-S6

Chapitre 4

Processus stochastiques
Un processus stochastique est un syst`eme `a ´evolution al´eatoire qui peut prendre au
cours du temps une s´erie d’´etats successifs, sans qu’il soit possible d’en pr´evoir sa configuration exacte `
a un instant futur. Ces situations al´eatoires qui d´ependent du temps ne
peuvent pas ˆetre ´etudi´ees en utilisant simplement le calcul usuel des probabilit´es qui d´ecrit des ´ev´enements o`
u le r´esultat possible de chaque ´epreuve est un nombre. Nous citons
comme exemples de processus stochastiques: (1) le prix d’une action en bourse, et (2) le
mouvement des grains de pollen en collision dans un liquide: (mouvement Brownien).

Figure 4.1 – Prix d’une action en bourse

Figure 4.2 – Mouvements des grains de pollen en collision dans un liquide
42

Sghir Aissa

4.1

Chapitre 4. Processus stochastiques


en´
eralit´
es


efinition 4.1.1.
— Un processus al´eatoire, (ou stochastique), X sur un espace probabilis´e (Ω, A, P ),
est une famille de v.a not´e X = (Xt )t≥0 . C’est donc une fonction de deux variables
qui fait correspond `
a tous (t, ω) ∈ R+ × Ω, l’image Xt (ω) ∈ R.
` t fix´e, la fonction ω → Xt (ω) est une v.a.
— A
` ω fix´e, La fonction t → Xt (ω) est appel´ee trajectoire du processus X pour
— A
l’individu ω.
— On dit que X est un processus continu (p.s), si il est continu trajectoire par trajectoire, c-`
a-d pour p.s tout ω ∈ Ω, la fonction d´eterministe t → Xt (ω) est continue
pour tout t ≥ 0.
Exemples
— Une suite de v.a (Xn )n∈N est un processus stochastique index´e sur N.
— Soit le processus al´eatoire:
Xt = 1 − t + 2tεt ,
o`
u les v.a (εt ) sont i.i.d de loi N (0, 1), donc E(Xt ) = 1 − t et V (Xt ) = 4t2 .
Il est clair que la moyenne et la variance du processus X sont des fonctions d´eterministes qui d´ependent du temps t.

4.2

Accroissements d’un processus


efinition 4.2.1.
— La loi du processus X est caract´eris´e par la donn´ee des lois fini-dimensionnelles des
vecteurs (Xt1 , ..., Xtk ) pour tout k et tous t1 < ... < tk .
— Un processus X est gaussien si pour tous t1 < ... < tk , le vecteur (Xt1 , ..., Xtk ) est
gaussien dans Rn .
— Un processus X est dit `
a accroissements ind´ependants si pour tous t1 < ... < tk , les
v.a Xt1 ; Xt2 − Xt1 ;.......; Xtk − Xtk−1 sont ind´ependantes.
— Un processus X est dit `
a accroissements stationnaires si pour tous s < t, Xt − Xs
a mˆeme loi que Xt−s − X0 .

4.3

Filtration associ´
ee `
a un processus stochastique


efinition 4.3.1.
— La filtration du processus X not´ee (Ft , t ≥ 0) est une famille croissante de sous
tribus de A, (c-`
a-d: Fs ⊂ Ft si s < t).
— Un processus X est dit adapt´e `a la filtration (Ft , t ≥ 0) si pour chaque t, Xt est
Ft -mesurable.
Exemple
On prend souvent la filtration engendr´ee par le processus X qu’on note FtX = σ(Xu , u ≤ t).
C’est la tribu engendr´ee par le pass´e du processus X. Cette information nous permet
d’attribuer des probabilit´es coh´erentes aux ´ev´enements pouvant intervenir. F X est la plus
petite filtration qui rende X adapt´e.

Facult´e des Sciences Mekn`es

43

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 4. Processus stochastiques


efinition 4.3.2.
— Une tribu est dite compl`ete lorsqu’elle contient l’ensemble des n´egligeables N de
(Ω, A, P ), (on prend N ⊂ F0 ).
— La filtration compl´et´ee engendr´ee par un processus X est appel´ee filtration naturelle
du processus.
Remarque 4.3.3.
— Chaque tribu Ft est une description math´ematique de toute l’information dont on
dispose `
a l’instant t. Il est logique que cette quantit´e augmente avec le temps.
— Un processus adapt´e est celui pour lequel une description probabiliste est r´ealisable.

4.4

Esp´
erance conditionnelle


efinition 4.4.1. Soit X une v.a.r d´efinie sur un espace probabilis´e (Ω, A, P ) et B une
sous tribu de A. l’esp´erance conditionnelle de X sachant B, not´ee E(X|B), repr´esente
l’unique v.a B-mesurable telle que pour tout B ∈ B, on a
Z
Z
E(X|B)dP =
XdP.
B

B

Remarque 4.4.2.
— Comme pour A ∈ A: P (A) = E(1A ), on d´efinira la probabilit´e de A conditionnellement `
a B par:
P (A|B) = E(1A |B).
— Si σ(Y ) est la tribu engendr´ee par la v.a.r Y , alors on montre facilement que toute
v.a.r X qui est σ(Y )-mesurable est une fonction de Y et on note:
E(X|σ(Y )) = E(X|Y ).
Il est clair que E(X|X) = X.
Propri`
et´
es 4.4.3.
1. Lin´earit´e: E(aX1 + bX2 |B) = aE(X1 |B) + bE(X2 |B).
2. E(E(X|B)) = E(X).
3. L’esp´erance conditionnelle est ´egalement caract´eris´ee par le fait que pour toute v.a
Y born´ee et B-mesurable, on a
E(XY ) = E(E(X|B)Y ).
4. Si X est B-mesurable alors E(X|B) = X.
5. Si X est ind´ependant de B, alors E(X|B) = E(X).
6. Si B2 ⊂ B1 , alors E(E(X|B1 )|B2 ) = E(X|B2 ).
7. Si X ∈ L2 (Ω, A, P ), alors E(X|B) repr´esente la projection orthogonale de X sur
l’espace des v.a B-mesurables.


8. In´
egalit´
e de Jensen: Si φ est convexe mesurable alors φ E(X|B) ≤ E(φ(X)|B).
En particulier |E(X|B)| ≤ E(|X| | B).

Facult´e des Sciences Mekn`es

44

Prob et Proc Stoch SMA-S6

Sghir Aissa

4.5

Chapitre 4. Processus stochastiques

Martingale et filtration


efinition 4.5.1. Un processus X est dit une (Ft , t ≥ 0)-martingale si:
— X est adapt´e `
a la filtration (Ft , t ≥ 0),
— Pour
tout
t

0, Xt est int´egrable, c-`a-d: E|Xt | < +∞,


— E Xt |Fs = Xs , pour tous s ≤ t.
Cons´
equences
— Toute martingale X v´erifie: pour tout t ≥ 0, E(Xt ) = E(X0 ). En effet, d’apr`es le
point (2) des propri´et´es 4.4.3, pour s = 0, on a


E(Xt ) = E E Xt |F0
= E(X0 ).
— Si X est une (Ft , t ≥ 0)-martingale de carr´e int´egrable, alors, pour s ≤ t, on a




E (Xt − Xs )2 |Fs = E Xt2 − Xs2 |Fs .
Il suffit d’utiliser le fait que Xs est Fs -adapt´e:




E Xs2 − Xs Xt |Fs = Xs2 − Xs E Xt |Fs = Xs2 − Xs2 = 0,






E (Xt − Xs )2 |Fs = E Xt2 − Xs2 |Fs + E 2(Xs2 − Xs Xt )|Fs ,

4.6

Mouvement Brownien

Historiquement:
— 1828: Robert Brown: botaniste observe le mouvement des grains pollen en suspension dans l’eau.
— 1877: Delsaux explique que ce mouvement irr´egulier est du aux chocs du pollen
avec les mol´ecules d’eau (changements incessants de direction).
— 1900: Louis Bachelier dans sa th`ese: Th´eorie de la sp´eculation, mod´elise les
cours de la bourse comme des processus `a accroissements ind´ependants et Gaussiens
(probl`eme : le cours de l’actif, processus Gaussien, peut ˆetre n´egatif).
— 1905: Einstein d´etermine la densit´e du mouvement Brownien et le lien aux equations aux d´eriv´ees partielles.
— 1923: Etude rigoureuse du mouvement Brownien par Wiener, entre autre d´emonstration de l’existence.
Remarque 4.6.1. Un mouvement Brownien est g´en´eralement not´e B pour Brown ou W
pour Wiener.

efinition 4.6.2. Un processus stochastique B = (Bt , t ≥ 0) `a valeurs r´eelles est un
mouvement Brownien standard, (ou processus de Wiener), si:
— B0 = 0 p.s.
— Les trajectoires t → Bt sont p.s continues pour tout ω ∈ Ω.
— Pour 0 ≤ s < t, Bt − Bs est ind´ependant de la tribu FsB = σ(Bu , u ≤ s), et gaussien
de loi normale N (0, t − s).

Facult´e des Sciences Mekn`es

45

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 4. Processus stochastiques

Remarque 4.6.3.
— Le mouvement Brownien B est `a accroissements ind´ependants et stationnaires.
— Pour tout t ≥ 0, Bt ∼ N (0, t), donc E(Bt ) = 0 et V (Bt ) = t.
— Pour les accroissements: si s < t alors: E(Bt − Bs ) = 0 et V (Bt − Bs ) = t − s.
— Si s < t, alors
E(Bt Bs ) = E((Bt − Bs )Bs ) + E(Bs2 ) = E(Bt − Bs )E(Bs ) + V (Bs ) = 0 + s = s.
Th´
eor`
eme 4.6.4. (Caract´
erisation du mouvement Brownien): Un processus B est
un mouvement Brownien ssi c’est un processus gaussien, continu, centr´e, de fonction de
covariance:
Cov(Bt , Bs ) = E(Bt Bs ) = s ∧ t.
Une cons´equence imm´ediate de cette caract´erisation est la propri´et´e suivante dite scaling.
Proposition 4.6.5. Soit c > 0. Si B est un mouvement Brownian, alors le processus
( 1c Bc2 t , t ≥ 0) est aussi un mouvement Brownian.
Preuve. Voir TD.
Remarque 4.6.6.
— Pour c = −1, (−Bt , t ≥ 0) et aussi un mouvement Brownian: (Sym´etrie).
— Soit T > 0. Si (Bt , t ∈ [0, T ]) est un mouvement Brownien index´e sur [0, T ], alors
la propri´et´e de scaling permet de changer l’´echelle du temps pour les t ∈ [0, 1]. Il
suffit de prendre:
r
t
1
t0 = ∈ [0, 1] si t ∈ [0, T ] et c =
.
T
T
Proposition 4.6.7. Si B est un mouvement Brownien et (Ft , t ≥ 0) sa filtration naturelle,
alors les processus: (Bt , t ≥ 0), (Bt2 − t, t ≥ 0) et (eσBt −
sont des (Ft , t ≥ 0)-martingales.

σ2 t
2

, t ≥ 0): Brownien exponentiel),

Preuve. Voir TD.

4.7

Exercices

Soit (Bt , t ≥ 0) un mouvement Brownien et (Ft , t ≥ 0) sa filtration naturelle.
Exercice 1
1) Montrer que Bt + Bs ∼ N (0, t + 3s) , s < t.
2) Montrer que (Bt , t ≥ 0) est une (Ft , t ≥ 0)-martingale.
3) Soit c > 0. Montrer que Btc := ( 1c Bc2 t , t ≥ 0) est un mouvement Brownian.
Exercice 2
On d´efinit un pont Brownien par Zt = Bt − tB1 , 0 ≤ t ≤ 1.
1) Montrer que Z est un processus gaussien. Pr´eciser ses param`etres.
2) Calculer Cov(Zt , B1 ) et en d´eduire que Zt est ind´ependant de B1 .
3) Montrer que le processus Yt = Z1−t ; 0 ≤ t ≤ 1 a mˆeme loi que Z.
4) Montrer que le processus Xt = (1 − t)B

Facult´e des Sciences Mekn`es

46

t
1−t

, 0 < t < 1 a mˆeme loi que Z.

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 4. Processus stochastiques

Exercice 3




1) Montrer que E (Bt − Bs )2 |Fs = E Bt2 − Bs2 |Fs pour tous s < t.
2) Montrer que (Bt2 − t, t ≥ 0) est une (Ft , t ≥ 0)-martingale.


3) En d´eduire E Bt2 |Fs pour tous s < t.
4) V´erifier que E(Bt2 ) = t et E(Bt3 ) = 0.
5) En d´eduire que E(Bs Bt2 ) = 0 pour tous s < t, (utiliser l’esp´erance conditionnelle).
6) On admet que E(Z 4 ) = 3σ 2 si Z ∼ N (0, σ 2 ). Calculer E(Bs2 Bt2 ) pour tous s < t.
Exercice 4
1) Utiliser le fait que la densit´e N (a, 1) est d’int´egrale 1 pour calculer E(eσBt ).
σ2 t

2) En d´eduire que (eσBt − 2 , t ≥ 0) est une (Ft , t ≥ 0)-martingale.


3) Calculer E eBt |Fs pour tous s < t.

Facult´e des Sciences Mekn`es

47

Prob et Proc Stoch SMA-S6

Sghir Aissa

4.8

Chapitre 4. Processus stochastiques

Examen: session normale 2016-2017

NB: Documents non autoris´
es. Toute r´
eponse non justifi´
ee sera rejet´
ee.

Questions de cours: (3 pts=0.5+1+0.5+1)
Soit B = (Bt , t ≥ 0) un mouvement Brownien et F = (Ft , t ≥ 0) sa filtration
naturelle.
1) Rappeler la d´efinition d’un processus Gaussian.
2) Rappeler les d´efinitions de F et B.
3) Donner la caract´erisation de B en terme de covariance.
4) Montrer que B est une F-martingale.
Exercice 1: (12 pts=1+1+1+1+1+2+1+2+2)
La fonction caract´eristique d’une variable al´eatoire (v.a) X d´efinie sur un espace
probabilis´e (Ω, F, P ) et de loi de probabilit´e PX est d´efinie par:
Z
itX
eitx dPX (x), ∀t ∈ R.
ϕX (t) = E(e ) =
R

1) Montrer que ∀ t ∈ R, |ϕX (t)| ≤ ϕX (0) = 1 et
2) Montrer que si U =
∀ t ∈ R,

ϕX (t) = ϕX (−t).

X−m
σ

est la v.a centr´ee r´eduite associ´ee `a la v.a X, alors
t
tm
ϕU (t) = e−i σ ϕX
et ϕX (t) = eitm ϕU (σt).
σ
0

3) Montrer que si U ∼ N (0, 1), alors ϕU v´erifie: ϕU (t) = −tϕU (t) et en d´eduire
ϕU (t), ∀t ∈ R.
(p)

4) Montrer que ∀ p ≥ 1, ϕU (0) = ip E(U p ) et en d´eduire tous les moments de
la loi N (0, 1).
5) Soit X ∼ N (m, σ 2 ). Trouver ϕX (t),

∀t ∈ R.

6) Calculer les fonctions caract´eristiques des deux lois: B(n, p) et P(λ).


7) En d´eduire que si (Xn )n est une suite de v.a de lois B(n, pn ) telles que
n

npn → λ > 0 lorsque n → +∞, alors Xn converge en loi vers X ∼ P(λ).
8) Soit (Yn )n une suite de variables al´eatoires ind´ependantes et de mˆeme lois
Geo(p), p ∈]0, 1[. Calculer E(Y1 ) et en d´eduire la limite presque sˆ
ure de la
n
P
Yi
.
suite: Zn =
n
i=1


Zn −a
9) Calculer V (Y1 ) et trouver a et b tel que la suite:
n b
converge en
n

loi vers N (0, 1).
Exercice 2: (5 pts=1+2+1+1)

Soit X et Y deux v.a a` valeurs dans N. On suppose que la loi conjointe de X
et Y v´erifie:


i+j
2
∀ (i, j) ∈ N , P (X = i, Y = j) = a
, avec a ∈ R∗ .
2i+j
Facult´e des Sciences Mekn`es

48

Prob et Proc Stoch SMA-S6

Sghir Aissa

1)
2)
3)
4)

Chapitre 4. Processus stochastiques

Montrer que a = 18 .
D´eterminer les lois marginales de X et Y .
Les variables X et Y sont elles ind´ependantes ?
Calculer P (X = Y ).
Rappel:

∀ |q| < 1,

+∞
X
n=0

qn =

1
1−q

+∞
X

et

nq n−1 =

n=1

1
(1 − q)2

!
.

Bon courage

4.9

Examen: session de rattrapage 2016-217

NB: Documents non autoris´
es. Toute r´
eponse non justifi´
ee sera rejet´
ee.

Questions de cours: (3 pts=1+1+1)
Soit B = (Bt , t ≥ 0) un mouvement Brownien et F = (Ft , t ≥ 0) sa filtration
naturelle.
1) Rappeler les d´efinitions de F et B.
2) Rappeler la d´efinition d’une martingale.




3) Montrer que E (Bt − Bs )2 |Fs = E Bt2 − Bs2 |Fs pour tous s < t.
Exercice 1: (11 pts=1+1+1+1+1+1+3+1+1)
Soit X une variable al´eatoire discr`ete `a valeurs enti`eres. On appelle fonction
g´en´eratrice de X la fonction gX : [−1, 1] → R d´efinie par:
gX (s) = E(sX ) =

+∞
X

sn P (X = n).

n=0

1) Montrer que gX est de classe C ∞ sur ] − 1, 1[ et continue sur [−1, 1].
(n)

2) En d´eduire que si gX est la d´eriv´ee d’ordre n de gX , alors:
(n)

g (0)
∀ n ∈ N, P (X = n) = X
.
n!
3) D´eterminer la loi de X si gX (s) = exp(−s + 1).
4) Calculer gX (s) si X ∼ B(p) (la loi de Bernoulli).
5) Montrer si X1 , ..., Xn sont n variables al´eatoires enti`eres ind´ependantes, alors
∀ s ∈ [−1, 1], gX1 +...+Xn (s) =

n
Y

gXi (s).

i=1

6) En d´eduire gX (s) si X ∼ B(n, p) (la loi Binomiale).
0
00
7) Montrer que E(X) = gX (1), E(X(X − 1)) = gX (1) et en d´eduire V (X).
Facult´e des Sciences Mekn`es

49

Prob et Proc Stoch SMA-S6

Sghir Aissa

Chapitre 4. Processus stochastiques

8) Trouver E(X) et V (X) si X ∼ B(n, p).
9) Soit (Xn )n une suite de variables al´eatoires ind´ependantes et de mˆeme lois
n
P
Xi
B( 21 ). Trouver la limite presque sˆ
ure de la suite X n =
.
n
i=1

Exercice 2: (7 pts=2+1+1+2+1)
Soit (X, Y ) un couple al´eatoire de densit´e conjointe:
f(X,Y ) (x, y) = e−x−y 1]0,+∞[2 (x, y).
1) Quelle est la densit´e du couple (Z, W ) = (X + Y, X − Y ).
2) En d´eduire les densit´es marginales de Z et W .
3) Z et W sont-elles ind´ependantes.
4) Calculer E(W ) et V (W ).
5) Soit (Wn )n une suite de variables al´eatoires ind´ependantes et de mˆeme lois


n
P
Wi
W n −a
que W . On pose: W n =
.
Trouver
a
et
b
tel
que
la
suite:
n
n
b
n

i=1

converge en loi vers N (0, 1).

Bon courage

4.10


ef´
erences

[1] Daniel Revuz, Marc Yor. Continuous martingales and Brownian motion.
[2] Lawrence C. Evans. An introduction to stochastic differential equations.
[3] Ren´ee Veysseyre. Aide-m´emoire: Statistique et probabilit´es pour l’ing´enieur.
[4] T.T. Soong. Fundamentals of probability and statistics for engineers.

Facult´e des Sciences Mekn`es

50

Prob et Proc Stoch SMA-S6


Aperçu du document Cours1_Prob et Stoch_SMA-S6.pdf - page 1/50
 
Cours1_Prob et Stoch_SMA-S6.pdf - page 2/50
Cours1_Prob et Stoch_SMA-S6.pdf - page 3/50
Cours1_Prob et Stoch_SMA-S6.pdf - page 4/50
Cours1_Prob et Stoch_SMA-S6.pdf - page 5/50
Cours1_Prob et Stoch_SMA-S6.pdf - page 6/50
 




Télécharger le fichier (PDF)


Cours1_Prob et Stoch_SMA-S6.pdf (PDF, 1.1 Mo)

Télécharger
Formats alternatifs: ZIP



Documents similaires


cours1 prob et stoch sma s6
examen normale 2016 2017 sma s6
examen rattrapage 2016 2017 sma s6
cours1 statistique stu s3
master biostat sous spss1
50594352 int poly 4

Sur le même sujet..