Proba de base 1 Master PA(2012 2013) .pdf



Nom original: Proba de base 1 Master PA(2012-2013).pdf

Ce document au format PDF 1.4 a été généré par LaTeX with hyperref package / pdfTeX-1.11a, et a été envoyé sur fichier-pdf.fr le 04/12/2012 à 23:49, depuis l'adresse IP 41.200.x.x. La présente page de téléchargement du fichier a été vue 1412 fois.
Taille du document: 203 Ko (13 pages).
Confidentialité: fichier public


Aperçu du document


Département de Mathématiques -Univ-Guelma

Rappels de probabilité
1

Espace de probabilité

Un espace de probabilité est un triplet ( ; F; P) oé :
- est un ensemble,
- F est une tribu (ou -algébre) sur ,
- P est une (mesure de) probabilité sur ( ; F).

1.1

Tribu

Probabilités de base

1.2

2012-2013

Tribu engendrée par une famille d’événements

Dé…nition 1.1.3. Soit A = fAi ; i 2 Ig une famille de sous-ensembles de
. Alors la tribu engendrée par A est la plus petite tribu sur qui contient
tous les sous-ensembles Ai ; i 2 I. Elle est notée (A) :
Exemple 1.1.4. Reprenons l’exemple 1.1.2.
- Soit
= f1; :::; 6g. Si A1 = ff1gg ; alors (A1 ) = F1 . Si A2 =
ff1; 3; 5gg ;alors (A2 ) = F2 :
- Soit = [0; 1]. Si A = fI1 ; :::; In g ; alors (A) = G:
Dé…nition 1.1.5. Soit = [0; 1]. La tribu borélienne sur [0; 1] est la
tribu engendrée par la famille de sous-ensembles A = f]a; b[: 0 a < b 1g
=fintervalles ouverts dans[0; 1]g. Elle est notée B([0; 1]). Elle contient un
trés grand nombre de sous-ensembles de [0; 1], mais pas tous.

Dé…nition 1.1.1. Une tribu (ou -algébre) sur
est une famille F de
sous-ensembles de (appelés “événements”) tels que
1.3 Sous-tribu
8
2F
< i)
Remarque 1.1.6. - Pour ensemble …ni, on choisit souvent F = P( ).
ii) A 2 F =) Ac 2 F
:
1
- Pour
R ou
Rn , on choisit souvent F = B( ).
iii) (An )n=1 F =) [1
n=1 An 2 F
Dé…nition 1.1.7. Une sous-tribu de F est une tribu G telle que si A 2 G
En particulier : A; B 2 F =) A [ B 2 F:
alors A 2 F.
De méme, A; B 2 F =) A \ B 2 F:
On note G F.
Exemple 1.1.2. - Soit = f1; :::; 6g. On peut dé…nir plusieurs tribus
Exemple 1.1.8. Reprenons l’exemple 1.1.2. On a F0
F1
F,
sur :
F0 F2 F, mais pas F1 F2 , ni F2 F1 .
F = P ( ) = f ; f1g ; f2g ; :::; f1; 2g ; :::; g = tribu compléte (la plus
Remarque importante :
grande),
Il est toujours vrai que A 2 G et G F =) A 2 F:
F0 = f ; g= tribu triviale (la plus petite) ( = évén. impossible,
Mais il est faux de dire que A B et B 2 F =) A 2 F: Contre-exemple
évén. arbitraire),
:
F1 = f ; f1g ; f2; :::; 6g ; g ; F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g ; etc.
f1g f1; 3; 5g ; f1; 3; 5g 2 F2 , mais f1g 2
= F2 :
- Soit = [0; 1] et I1 ; :::; In une famille d’intervalles formant une partition
de . La famille de sous-ensembles dé…nie par

1.4
G = f ; I1 ; I2 ; :::; I1 [ I2 ; :::; I1 [ I2 [ I3 ; :::; g
est une tribu sur

.

1 ére Master: Probabilités et Applications

Mesure de probabilité

Dé…nition 1.1.9. Soit F une tribu sur . Une (mesure de) probabilité sur
( ; F) est une application P : F ! [0; 1] telle que
théme : Probabilités de base

-1-

Département de Mathématiques -Univ-Guelma

Probabilités de base

2012-2013

Mesure de Lebesgue :
P (]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [) =
(b1 a1 ) (b2 a2 )
(bn an ) :
Comme dans le cas uni-dimensionnel, P n’est dé…nie a priori que sur
certains ensembles (les rectangles), mais est uniquement extensible é tout
B 2 B( ) (p.ex. B = disque, ovale...).
Notation : P(B) = jBj ; pour B 2 B( ):
=) P(A [ B) = P(A) + P(B):

8
< i) P ( ) = 0 et P ( ) = 1;
F disjoints (i.e.PAn \ Am = ; 8n 6= m) =)
ii) (An )1
n=1
:
1
P ([1
n=1 An ) =
n=1 P (An ) :

-

En particulier : A; B 2 F et A \ B =
De 8
plus :
i) Si (An )1
F; An An+1 et [1
>
n=1 An = A;
n=1
>
<
alors limn!1 P (An ) = P (A) ;
2 Variable aléatoire
1
1
F;
A
A
et
\
A
=
A;
ii)
Si
(A
)
>
n
n+1
n
n
n=1
n=1
>
:
alors limn!1 P (An ) = P (A) :
Dé…nition 1.2.1.
Soit ( ; F; P) un espace de probabilité.
Une
Pour d’autres propriétés, cf. exercices.
variable aléatoire (souvent abrégé v.a. par la suite) est une application
Exemple 1.1.10. Soient = f1; :::; 6g, F = P( ). On dé…nit :
X : ! R telle que
- P1 (fig) = 61 8i (mesure de probabilité associée é un dé équilibré).
Dans ce cas, on voit p. ex. que P1 (f1; 3; 5g) = P1 (f1g) + P1 (f3g) +
f! 2 : X (!) 2 Bg = fX 2 Bg 2 F; 8B 2 B(R):
P1 (f5g) = 61 + 61 + 16 = 21 :
Proposition 1.2.2. X est une v.a. ssi f! 2 : X (!) tg 2 F; 8t 2 R.
- P2 (fig) = 0 8i 5; P2 (f6g) = 1 (mesure de probabilité associée é un
dé pipé).
Remarque 1.2.3. - X est aussi dite une fonction (ou v.a.) F-mesurable.
Dé…nition 1.1.11. Soient
= [0; 1] et F = B([0; 1]). On appelle
- Si F = P( ), alors X est toujours F-mesurable.
mesure de Lebesgue sur [0; 1] la mesure de probabilité dé…nie par
- Si = R et F = B(R), alors X est dite une fonction borélienne.
1 si ! 2 A;
Dé…nition 1.2.4. Pour A
, on pose 1A (!) =
P(]a; b[) = b a;
80 a < b 1:
0 sinon.
On
véri…e
que
la
v.a.
1
est
F-mesurable
ssi
A
2
F.
A
P n’est dé…nie a priori que sur les intervalles, mais est uniquement extenExemple
1.2.5.
Soit
( ; F; P) l’espace de probabilité du dé équilibré
sible é tout ensemble borélien B 2 B([0; 1]). Elle est notée P(B) = jBj ; B 2
(cf. exemple 1.1.10).
B([0; 1]):
X1 (!) = ! : P (f! 2 : X1 (!) = ig) = P (fig) = 16 :
En utilisant la propriété (ii) ci-dessus, on déduit que pour tout x 2 [0; 1] :
X2 (!) = 1f1;3;5g (!) : P (f! 2 : X2 (!) = 1g) = P (f1; 3; 5g) = 12 :
1
2
1
Soit F = P( ). X1 et X2 sont toutes deux F-mesurables.
jfxgj = lim x
= lim = 0:
;x +
n!1
n!1 n
n
n
Soit F2 = f ; f1; 3; 5g ; f2; 4; 6g ; g : Seule X2 est F2 -mesurable; X1 ne
n
l’est pas. En e¤et :
Généralisation é n dimensions : Soit = [0; 1] .
f! 2 : X2 (!) = 1g = f1; 3; 5g 2 F2 et f! 2 : X2 (!) = 0g =
- Tribu borélienne : B( ) = (A), oé
f2; 4; 6g 2 F2
A = f]a1 ; b1 [ ]a2 ; b2 [ ::: ]an ; bn [ ; 0 ai < bi 1g :
A est la famille des ”rectangles" dans .
tandis que f! 2 : X1 (!) = 1g = f1g 2
= F2 :
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-2-

Département de Mathématiques -Univ-Guelma

Probabilités de base

2012-2013

Dé…nition 1.2.6.
La tribu engendrée par une famille de v.a. 3.1 Fonction de répartition d’une variable aléatoire
fXi ; i 2 Ig sur ( ; F; P) est dé…nie par
Dé…nition 1.3.3. La fonction de répartition d’une v.a. X est l’application
FX : R ! [0; 1] dé…nie par
(Xi ; i 2 I) = (fXi 2 Bg ; i 2 I; B 2 B(R)) = (fXi tg ; i 2 I; t 2 R) :
FX (t) = P(fX tg) = X (] 1; t]); t 2 R:
Exemple 1.2.7. Reprenons l’exemple précédent : (X1 ) = F =
Proposition 1.3.4. La donnée de FX équivaut à celle de X .
P( ); (X2 ) = F2 = P( ):
Cette derniére proposition est é rapprocher de la proposition 1.2.2.
Proposition 1.2.8. Si g : R ! R est borélienne et X : ! R est une
v.a., alors g(X) est une v.a.
Démonstration. Soit B 2 B(R). On a
3.2 Deux types particuliers de variables aléatoires
A) Variable aléatoire discréte :
X prend ses valeurs dans un ensemble D dénombrable (X(!) 2 D; 8! 2
). Dans ce cas, on a : (X) = (fX = xg ; x 2 D), p(x) = P(fX = xg) 0
Or g 1 (B) = fx 2 R : g(x) 2 Bg 2 B(R); car g est borélienne. Comme et P
2 Dg) = 1:
x2D p(x) = P(fxP
X est une v.a., on en déduit que f! 2 : X (!) 2 g 1 (B)g 2 F, et donc
De plus, FX (t) = x2D:x t p(x):
…nalement que g(X) est une v.a.
B) Variable aléatoire continue :
Proposition 1.2.9. Toute fonction continue est borélienne (et pratiqueP(X 2 B) = 0 si jBj = 0 (en part. P(X = x) = 0 8x). Sous cette
ment toute fonction discontinue l’est aussi !).
condition, le théoréme de Radon-Nikodym assure l’existence d’une fonction
borélienne fX : R ! R (appelée densité) telle que
fY 2 Bg = f! 2

3

: g (X (!)) 2 Bg = ! 2

: X (!) 2 g

1

(B) :

Loi d’une variable aléatoire

Dé…nition 1.3.1. La loi d’une v.a. X est l’application
dé…nie par
X

(B) = P (fX 2 Bg) ;

B 2 B(R):

X

: B(R) ! [0; 1] fX (x)

NB : (R; B(R); X ) forme un nouvel espace de probabilité !
Exemple 1.3.2. - Soit = f1; :::; 6g, F = P( ); P (fig) = 61 ; 8i:
X1 (!) = !; X (fig) = P (fX = ig) = P (fig) = 61 :
1
- Soit = f1; :::; 6g f1; :::; 6g, F = P( ); P (f(i; j)g) = 36
; 8i; j 2 :
X (!) = X (! 1 ; ! 2 ) = ! 1 + ! 2 : On a alors, p.ex :
X (f7g) = P (fX = 7g) = P (f(1; 6) ; (2; 5) ; (3; 4) ; (4; 3) ; (5; 2) ; (6; 1)g) =
1
6 36 = 16 :
1 ére Master: Probabilités et Applications

0; 8x 2 R;

Z

fX (x)dx = 1

et

R

P (fX 2 Bg) =

Rt
De plus, FX (t) = 1 fX (x)dx et FX8 (t) = fX (t):
Exemple 1.3.5.
A) Loi binomiale B(n; p); n 1; p 2 [0; 1] :
p(k) = P f(X = kg) =



n
k

théme : Probabilités de base

=

n
k

pk (1

p)n

k

;

pour 0

Z

fX (x)dx:

B

k

n;

n!
:
k!(n k)!

-3-

Département de Mathématiques -Univ-Guelma

B) Loi gaussienne N ( ;

2

2012-2013

1) P(A) P(B), P
si A B, A; B 2 F.
1
1
1
2) P ([n=1 Bn )
F:
n=1 P (Bn ) ; si (Bn )n=1
!
3) P (BnA) = P (B) P (A) ; si A B; A; B 2 F:
(x
)2
1
4)
P(Ac ) = 1 P(A), si A 2 F.
exp
densité:
fX (x) = p
;
x 2 R:
2
2
2 2
5) P(A [ B) = P(A) + P (B) P (A \ B), si A; B 2 F.
Exercice 4.
Terminologie : - Si X suit une loi gaussienne (p.ex.), on écrit X
Soit X une variable aléatoire dé…nie sur un espace de probabilité ( ; F; P)
N ( ; 2 ).
et Y la variable aléatoire dé…nie par Y (!) = exp(X(!)); ! 2 :
- Si X et Y suivent une méme loi, on dit que X et Y sont identiquement
1) Quelles valeurs la variable aléatoire Y peut-elle prendre? Exprimer sa
distribuées (i.d.) et on note X Y:
fonction de répartition FY en fonction de FX .
2) Supposons que X soit une variable aléatoire continue. Y est alors
également continue; exprimer sa densité fY en fonction de fX .
Série 1
3) Supposons X N (0; 1); calculer fY et P(Y
1).
Remarque: dans ce dernier cas, la loi de Y est appelée la loi log-normale;
Exercice 1. Soient = f1; :::; 6g et A = ff1; 3; 5g ; f1; 2; 3gg :
cette loi est fréquemment utilisée en …nance pour modéliser le prix des ac1) Décrire F = (A), la tribu engendrée par A.
NB: Si
est …ni, le nombre d’éléments d’une tribu sur
est toujours tions.
m
égal à 2 , avec m entier.
2) Donner la liste des éléments non-vides G de F tels que
4 Espérance d’une variable aléatoire
);

si F 2 F et F

2 R;

Probabilités de base

>0:

G; alors F =

ou G

4.1

Construction de l’espérance (= intégrale de
Lebesgue !)

Ces éléments sont appelés les atomes de la tribu F. Ils forment une
partition de l’ensemble et engendrent également la tribu F.
On procéde en trois étapes : P
Exercice 2. Soit F une tribu (ou -algébre) dé…nie sur un ensemble
1
Etape 1. Soit X(!) =
0; Ai 2 F: On dé…nit
i=0 xi 1Ai (!) ; xi
. En se basant uniquement sur les axiomes de la dé…nition d’une tribu,
l’espérance de telles v.a. (dites simples) comme suit :
démontrer les propriétés suivantes:
N
1
1) [N
F:
X
n=1 An 2 F; si (An )n=1
E(X)
=
xi P (Ai ) 2 [0; +1] :
2) 2 F:
1
1
i=0
3) \n=1 An 2 F; si (An )n=1 F:
N
N
4) \n=1 An 2 F; si (An )n=1 F:
Attention ! E(X) peut prendre la ”valeur" +1.
Exemples : - Si X = 1A , P(A) = p, alors E(X) = P(A) = p.
5) BnA 2 F; si B A; A; B 2 F:
- Si X = c1 = cte sur , alors E(X) = c:
Exercice 3. Soit ( ; F; P) un espace de probabilité. En se basant
Etape 2. Soit X une v.a. F-mesurable telle que X(!) 0 ; 8! 2 . On
uniquement sur les axiomes de la dé…nition d’une mesure de probabilité,
démontrer les propriétés suivantes:
pose
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-4-

Département de Mathématiques -Univ-Guelma

Xn (!) =

1
X
i
i=1

1
2n

1f i n1
2

Probabilités de base

X< 2in g

E(g (X)) =

(!) :

E(X) = lim E(Xn ) = lim
n!1

n!1

i=1

1
2n

P

i

1
2n

X<

i
2n

2 [0; +1] :

Etape 3. Soit X une v.a. F-mesurable quelconque. On pose
X + (!) = max (0; X(!)) 0;
X(!) = X + (!) X (!) avec
X (!) = max (0; X(!)) 0:
On a alors jX(!)j = X + (!) + X (!) 0:
- Si E(jXj) < 1, alors on dé…nit E(X) = E(X + ) E(X ):
- Si E(jXj) = 1, alors on dit que E(X) n’est pas dé…nie.
Terminologie : - Si E(X) = 0, alors on dit que X est une v.a. centrée.
- Si E(jXj) < 1, alors on dit que X est une v.a. intégrable.
- Si E(X 2 ) < 1 alors on dit que X est une v.a. de carré intégrable.
- On dit que X est une v.a. bornée s’il existe une cte K > 0 telle que
jX(!)j K; 8! 2 .
Remarque 1.4.1. X bornée =) E(X 2 ) < 1 =) E(jXj) < 1:
On a les séries des implications suivantes:
X est bornée =) X est de carré intégrable
X est intégrable et Y est bornée =) XY est intégrable
X; Y sont de carée intégrable =) XY est intégable
Proposition 1.4.2. Soient X une v.a. et g : R ! R une fonction
borélienne telle que E(jg(X)j) < 1. Alors
A) Si X est une v.a. discréte (é valeurs dans D dénombrable), alors
E(g (X)) =

X

g (x) P (fX = xg) :

x2D

B) Si X est une v.a. continue (avec densité fX ), alors
1 ére Master: Probabilités et Applications

Z

g (x) fX (x)dx:

R

Alors (Xn ) est une suite croissante de v.a. qui tend vers X. On dé…nit
1
X
i

2012-2013

Ceci s’applique en particulier si g(x) = x.

4.2

Variance et covariance de variables aléatoires

Dé…nition 1.4.3. Soient X; Y deux v.a. de carré intégrable. On pose

V ar (X) = E (X
Cov (X; Y ) = E ((X

E(X))2 = E X 2
(E (X))2
E(X)) (Y E(Y ))) = E (XY )

0
E (X) E (Y )

Terminologie : - Un événement A 2 F est dit négligeable si P(A) = 0.
- Un événement A 2 F est dit presque sér (souvent abréegé p.s.) si
P(A) = 1, i.e. si Ac est négligeable.
Exemple 1.4.4. Soit X une v.a. telle que P (fX = cg) = 1. Alors on
dit que X = c presque sérement (”X = c p.s.")
Proposition 1.4.5. Si (An )1
F est une famille d’événements négn=1
1
ligeables (i:e: P(An ) = 0 8n), alors [n=1 An est négligeable.
P1
Démonstration. P ([1
n=1 An )
n=1 P (An ) = 0:
Exemple 1.4.6. L’ensemble A = [0; 1]\Q est négligeable pour la mesure
le Lebesgue, car Q est dénombrable et jfxgj = 0 pour tout x 2 [0; 1]:

4.3

Propriétés de l’espérance

Soient X; Y deux v.a. intégrables.
- Linéarité : E(cX + Y ) = cE(X) + E(Y ); c 2 R et X; Y v.a. intégrables.
- Positivité : si X 0 p.s., alors E(X) 0.
- Positivité stricte : si X 0 p.s. et E(X) = 0, alors X = 0 p.s.
- Monotonie : si X Y p.s., alors E(X) E(Y ).

théme : Probabilités de base

-5-

Département de Mathématiques -Univ-Guelma

4.4

Probabilités de base

Inégalités

Comme

Inégalité de Cauchy-Schwarz
Soient X; Y deux v.a. de carré intégrable. Alors

5

i) XY est intégrable;
ii) (E (jXY j))2 E (X 2 ) E (Y 2 ) :

2012-2013

(a) > 0, ceci permet de conclure.

Indépendance

5.1

Indépendance d’événements

E (X 2 ) (donc E (jXj) < 1 Dé…nition 1.5.1.Deux événements A et B(2 F) sont indépendants si
P(A \ B) = P(A)P(B).
Attention ! Ne pas confondre : A et B sont disjoints si A \ B = (=)
P(A [ B) = P(A) + P(B)):
Notation : Si A est indépendant de B, on note A ? B (de méme pour les
tribus
et les v.a. ; voir plus bas).
E (jXj) + E (jY j)
Conséquence :

En posant Y
1, on trouve que (E (jXj))2
si E(X 2 ) < 1; cf. remarque 1.4.1).
Inégalité triangulaire
Soient X; Y deux v.a. intégrables. Alors
E (jX + Y j)

Inégalité de Jensen
Soient X une v.a. et ' : R ! R une fonction borélienne et convexe telle
que E (j' (X)j) < 1:
Alors
' (E (X))

E (' (X)) :

En particulier, jE (X)j E (jXj) :
Exemple 1.4.7. Si X = a ou b avec prob. 12 ; 12 et ' est convexe, alors
'(a)+'(b)
= E (' (X)) :
' (E (X)) = ' a+b
2
2
Inégalité de Chebychev (ou Markov)
Soient X une v.a. et : R ! R+ telle que est borélienne et croissante
sur R+ , (a) > 0 pour tout a > 0 et E ( (X)) < 1: Alors
P (fX

ag)

Démonstration. Du fait que

E ( (X))
; 8a > 0:
(a)
est croissante sur R+ , on a

E ( (X))
E (X) 1fX ag
E
(a) E 1fX ag =
(a) P (fX ag) :
1 ére Master: Probabilités et Applications

(a) 1fX

P(Ac \ B) = P(Bn(A \ B)) = P(B) P(A \ B)
= P(B) P(A)P(B) = (1 P(A)) P(B) = P(Ac )P(B):
De méme, on a P(A \ B c ) = P(A)P(B c ) et P(Ac \ B c ) = P(Ac )P(B c ):
Dé…nition 1.5.2. n événements A1 ; :::; An 2 F sont indépendants si
P (A1 \ ::: \ An ) =

=

P (Ai ) ;

oé Ai = soit Ai ;

soit Aci :

i=1

Proposition 1.5.3. n événements A1 ; :::; An 2 F sont indépendants si
!
\
Y
P
Ai =
P (Ai ) ; 8I f1; :::; ng :
i2I

ag

n
Y

i2I

Remarque 1.5.4. - Pour n > 2, la condition P(A1 \ :::An ) =
P(A1 ):::P(An ) ne su¢ t pas !
- L’indépendance de n événements telle que dé…nie ci-dessus est plus forte
que l’indépendance deux é deux (Ai ? Aj ; 8i 6= j).

théme : Probabilités de base

-6-

Département de Mathématiques -Univ-Guelma

5.2

Probabilités de base

2012-2013

Indépendance de tribus

!). Cette propriété découle du fait que g(X) est (X)-mesurable (resp. que
h(Y ) est (Y )-mesurable) et de la dé…nition d’indépendance pour les tribus.
Dé…nition 1.5.5. Une famille (F1 :::Fn ) de sous-tribus de F est indépenProposition 1.5.12. Soient c 2 R et X; Y deux v.a. de carré intégrable.
dante si
Si X ? Y , alors
P(A1 \ ::: \ An ) = P(A1 ):::P(An ); 8A1 2 F1 ; :::; An 2 Fn :
Proposition 1.5.6. ( (A1 ); :::; (An )) est une famille de sous-tribus indépendantes ssi les événements (A1 ; :::; An ) sont indépendants.

E (XY ) = E (X) E (Y ) et V ar (cX + Y ) = c2 V ar (X) + V ar (Y ) ;

La premiére égalité dit que si deux v.a. sont indépendantes, alors elles
sont décorrelées; la réciproque n’est pas vraie.
Proposition 1.5.13.
Si X
?
Y et X; Y sont deux
5.3 Indépendance de variables aléatoires
v.a.
continues
R R possédant une densité 2conjointe fX;Y (i.e.
Dé…nition 1.5.7. Une famille (X1 ; :::; Xn ) de v.a. (F-mesurables) est in- P ((X; Y ) 2 B) =
f
(x; y) dxdy; 8B 2 B (R )), alors fX;Y (x; y) =
B X;Y
dépendante si
fX (x) fY (y) ; 8x; y 2 R:
( (X1 ); :::; (Xn )) est indépendante.
Série 2
Proposition 1.5.8. (X1 ; :::; Xn ) est une famille de v.a. indépendantes
ssi les événements fX1 t1 g ; :::; fXn tn g sont indépendants
Exercice 1. Véri…er que les lois suivantes sont bien des lois de probabilité
8 t1 ; :::; tn 2 R:
et calculer, quand elles existent, l’espérance et la variance de ces lois.
En particulier :
X
?
Y ssi P(fX t; Y
sg)
=
A) Lois discrétes:
P(fX tg)P(fY
sg); 8 t; s 2 R:
1) Bernoulli B(1; p); p 2 [0; 1] : P(X = 1) = p; P(X = 0) = 1 p:
2) Binomiale B(n; p); n
1; p 2 [0; 1] : P(X = k) =
Exemple 1.5.9. Soit = f1; :::; 6g f1; :::; 6g ; F = P( ); P (f(i; j)g) =
n
1
pk (1 p)n k ; 0 k n:
: On pose
36
k
k
3) Poisson P( ); > 0 : P(X = k) = k! e ; k 0:
X (!) = X (! 1 ; ! 2 ) = ! 1 ; X (!) = Y (! 1 ; ! 2 ) = ! 2 :
B) Lois continues (on donne ici la densité de ces lois):
1
Calculons P(fX = ig) = P(! 2 : ! 1 = i) = P(f(i; 1); :::; (i; 6)g) = 6 =
4) Uniforme U([a; b]); a < b : fX (x) = b 1 a 1[a;b] (x) ; x 2 R:
P(fY = jg):
5) Gaussienne N ( ; 2 );
2 R;
> 0 : fX (x) =
1
1
1
(x )2
1
=
D’autre part, P(fX = i; Y = jg) = P(f(i; j)g) = 36 = 6
p
exp
; x 2 R:
6
2 2
2 2
P (fX = ig) P (fY = jg) ; donc X et Y sont indépendantes.
6) Cauchy C( ); > 0 : fX (x) = 1 2 +x2 ; x 2 R:
Exemple 1.5.10. Si X(!) = c; 8! 2 , alors X ? Y , 8Y (une v.a.
7) Exponentielle E( ); > 0 : fX (x) = e x ; x 2 R+ :
constante est indépendante de toute autre v.a.).
t 1
x
8) Gamma (t; ); t; > 0 : fX (x) = ( x) (t)e ; x 2 R+ ; oé
Exemple 1.5.11. Si X ? Y et g; h sont des fonctions boréliennes, alors
R1
g(X) ? h(Y ); c’est vrai en particulier si g = h (mais pas X = Y , bien sér (t) = 0 xt 1 e x dx:
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-7-

Département de Mathématiques -Univ-Guelma

Probabilités de base

2012-2013

Exercice 2. Soit X une variable aléatoire centrée de variance 2 . En
La fonction caractéristique d’une variable ne dépend que de sa distribuutilisant l’inégalité de Chebychev, démontrer que
tion, les f.c de v.a ayant même distribution sont identiques.
2
2 2
Proposition: ' existe toujours et j' (t)j 1:
1) P (fjXj ag) a2 et P (fjXj ag) a2 + 2
2
2
E eitX = E (1) = 1 ce qui veut dire que la série
En
e¤et E eitX
2) P (fjXj ag)
(utiliser (x) = (x + b) avec b
0, puis
a2 + 2
ou l’intégrale que représente E converge.
minimiser en b)
Remarques
a) Montrer, en utilisant l’inégalité de Cauchy-Schwarz avec X et Y =
- Si X ne prend que des valeurs entiers positives ou nulles P (X = k) = pk .
1fX>tg , que
Alors:
2
X
(E(X) t)
P (fX > tg)
'
(t)
=
pk eitk = gX eit
2
X
E (X )
k

b) Véri…er directement cette inégalité pour X P( ) et t = 0.
gX s’appelle la fonction génératrice (f.g) de X, où
Exercise 4. Let X be a centered Gaussian random variable of variance
X
2
. Compute:
pk z k pour jzj 1:
gX (z) =
4
a) E (X ) :
k
b) E (exp (X)) :
- Si X prend d’autre valeurs que celle de N, sa f.g peut ne pas être dé…nie.
c) E (exp ( X 2 )) :
Alors sa f.c l’est toujours.
Propriétés de la fonction quaractéristique
1) 'X est uniformément continue pour t 2 R:
6 Convergence des variables aléatoires
Le théorème suivante est trés utile pour étudier la loi d’une somme de
Lesprincipaux types de convergences sont la convergence enprobabilité (ou v.a indépendantes:
Théorème 1: Soient X1 ; :::; Xn n variables aléatoires indépendantes
stochastique),la convergence en moyenne d’ordre , la convergence presque
sûrement et la convergence en loi. Ces modes de convergences sont à l’origine alors:

des loi faible e tforte des grands nombres ainsi que le théorème de la limite
centrale.
Rappels sur les fonctions caractéristiques
Nous avons déjà dit que la loi d’une v.a.r. X était caractérisée par sa fonction de répartition. On peut aussi déterminer PX en utilisant une fonction
de R ! C: la fonction caractéristique.
Dé…nition: Soit X un v.a.r on appelle fonction caractéristique (f.c) de
X la fonction ' (t) tq ' (t) = E eitX :
R itx
- Si X est absolument continue:
'
(t)
=
e f (x)dx
R
P itx
k
- Si X est discrète: ' (t) = k e P (X = xk ) :
1 ére Master: Probabilités et Applications

'X1 +:::+Xn (t) =

n
Y

'Xi (t)

i=1

Remarque
La réciproque est fausse, on peut avoir

'X1 +:X2 (t) = E eit(X1 +X2 ) = E eitX1 :E eitX2 = 'X1 (t) :'X2 (t)
lorsque X1 et X2 sont dépendantes.
Exemple: X1 = X2 = X est une v.a de cauchy; sa f.c est

théme : Probabilités de base

-8-

Département de Mathématiques -Univ-Guelma

'X (t) =

1

Z

+1
1

eitx
dx = e
1 + x2

Probabilités de base

'Y (t) = E eit(aX+b) = eibt E eiatx

jtj

Alors,

on le calcule par la méthode des résidus.
'2X (t) = e 2jtj = 'X (t) :'X (t) et X n’est pas indépendante d’elle même
biensûr.
Théorème 2:
Si X1 et X2 deux v.a.r indépendantes
8 (t1 ; t2 ) 2 R2

2012-2013

'Y (t) = eibt 'X (at) :
Fonction caractéristique de quelques v.a.r
Distribution
Bernouli
Binomiale
Poisson

Fonction caractéristique
peit + q
n
(peit + q)
exp (
(1 eit ))
sin( 2t )
Uniforme sur [0; 1] exp it2
t

'(X1 ;X2 ) (t1 ; t2 ) = 'X1 (t1 ) :'X2 (t2 )
= E eit1 X1 :E eit2 X2 :

2

Théorème 3: (Moments d’ordre k et f.g)
Si k n premiers moments E X k , k 2 f0; 1; :::; ng existent, alors 'X est
(k)
n fois di¤érentiables et on a: 'X (0) = ik E X k :
R +1
dans le cas absolument continu, si
jxj f (x)dx < +1,
1
R +1 itx
R 1 xe f (x)dx converge uniformément donc on peut dériver sous la signe
:
(1)
'X (0) = '8X (0) = iE (X) :
R +1
(k)
En répetant l’opération 'X (t) = ik 1 xeitx f (x)dx et la formule en
resulte en faisant t = 0:
Théorème 4: (Relation entre la f.d.r et la f.c)
Toute fonction de répartition est entièrement déterminée par sa f.c(d’où
le nom f.c)
Théorème 5:
R +1
Si 'X (t) est la f.c de X et si 1 ' (t) dt existe, alors X a la densité
Z +1
1
' (t) e itx dx
f (x) =
2
1
Théorème 6:(Fonction caractéritique de (aX + b))
Si a et b sont des constantes réelles et si: Y = aX + b, alors:
1 ére Master: Probabilités et Applications

Normale
Cauchy
Exponentielle

6.1

exp itm
e ajtj
1
1 it

1
2

2 2

t

Convergence en probabilité

Dé…nition 6.1.1 (Convergence en probabilité) Soit (Xn )n 1 une suite
de variables aléatoires. La suite (Xn )n 1 converge stochastiquement (ou en
probabilité) vers la variable aléatoire X
8 > 0;

6.2

lim P [jXn

n!+1

P

Xn ! X

si et seulement si:

Xj > ] = 0

Convergence en moyenne d’ordre
grands nombres

et loi faible des

Dé…nition 6.2.1 (Convergence en moyenne d’ordre ) Soit (Xn )n 1
une suite de variables aléatoires.La suite (Xn )n 1 converge en moyenne
d’ordre
si:

(

théme : Probabilités de base

1) vers la variable aléatoire X

L

Xn ! X

si et seulement

-9-

Département de Mathématiques -Univ-Guelma

lim E [jXn

n!+1

Probabilités de base

2012-2013

Xj ] = 0
P

Remarques:
L

max

1 k n

L

1. Xn ! X =) Xn ! X avec < puisque dans ce cas L
L :
2. Si = 1, on dit simplement "convergence en moyenne".
3. Losque
= 2, on parle souvent de "convergence en moyenne
quadratique au lieu de convergence en moyenne d’ordre 2 qu’on note aussi
m:q
Xn ! X :
Théorème 6.2.1 La convergence en moyenne d’ordre
implique la
convergence en probabilité. Soit:
L

P

Xn ! X =) Xn ! X :

(Xi

a

E [Xi ])

i=1

!

Pn

V arXk
a2

k=1

Si de plus il existe un réel positif C tel que pour tout k; jXk j
P

6.4

max

1 k n

k
X

(Xi

E [Xi ])

!

a

i=1

1

C, alors,

(a + 2C)2
Pn
k=1 V arXk

Convergence presque sûre

Dé…nition 6.4.1 (Convergence presque sûre) Soit ( ; F; P) un espace
probabilisé.
On dit que la suite (Xn )n 1 converge presque sûrement vers la variable

Proposition 6.2.1 (Loi faible des grands nombres) Soit (Xn )n 1
une suite de variables aléatoires indépendantes, de même loi et de variance
aléatoire X
…nie, alors:
X1 + X2 + ::: + Xn m:q
! E [X1 ] :
n
Noter que nous avons également dans ce cas la convergence en ProbabilYn =

k
X

9

0

p;s

Xn ! X
= P(

si et eulement si:
0)

= 1 et 8! 2

0;

lim Xn (!) = X (!) :

n!+1

Ceci n’est autre que la convergence simple des fonctions Xn (!) en tout
point de (sauf aux points ! 2 (
0 ) ensemble qui est de mesure nulle).
Pour montrerl a convergence presque sûre d’une suite,on est souvent
6.3 Convergence presque sûre et loi forte des grands amené à utiliser le lemme de Borel-Cantelli, dérivé du théorème du même
nombres
nom.
Lemme 6.4.2 (Lemme de Borel-Cantelli) Une condition su¢ sante
6.3.1 Inégalité de Kolmogorov
de convergence presque sûre de la suite de variables aléatoires (Xn )n 1 vers
L’inégalité de Kolmogorov est utilisée pour démontrer la loi forte des grands X est que la série de terme général un = P [jXn Xj > ] converge. Soit:
nombres dans le cas de variables aléatoires indépendantes de variance …nie
+1
mais non forcément identiquement réparties.
X
p;s
8 > 0;
P [jXn Xj > ] < +1 =) Xn ! X :
Théorème 6.3.1 Soit une suite Xi de n variables aléatoires indépenn=1
dantes telleque V arXk < +1. Alors pour tout réel positif a
ité.

1 ére Master: Probabilités et Applications

théme : Probabilités de base

-10-

Département de Mathématiques -Univ-Guelma

6.5

Probabilités de base

Loi forte des grands nombres de Kolmogorov

2012-2013
L

X
Xn ! X si et seulement si les fonctions de répartition convergent
La Convergence presque sûre est la convergence qui intervient dans la loi simplement en tout point de continuité, soit:
forte des grands nombres.
8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x.
Nous allons d’abord donner un théorème d’existence de la limite de la
n!+1
somme de variables aléatoires indépendantes de distribution quelconque.
Remarques:
Théorème 6.5.1(Théorème d’existence de Kolmogorov) Soit
1. Les troi sconditions suivantes sont équivalentes:
(Xn )n 1 une suite P
de variables aléatoires indépendantes
de moyennes nulles
P
–8x 2 R; lim FXn (x) = FX (x) ; si FX est continue en x.
n
1
2
telle que la série
n!+1
k=1 Xk converge presque
k=1 E [Xk ] converge. Alors
–8t 2 R; lim 'Xn (t) = 'X (t)
sûrement vers une variable aléatoire lorsque n tend vers l’in…ni
n!+1
Ce théorème permet de démontrer le suivant.
–8g 2 C (continue, borné), lim E [g (Xn )] = E [g (X)]
n!+1
Théorème 6.5.2 (Loi forte des grands nombres de Kolmogorov)
Soit (Xn )n 1 une suite de variables aléatoires indépendantes telle que la série
2. Schéma de convergence: ( < )
P1 V arX
k
converge.
Alors
L
P
L
2
k=1
k
=)
Xn ! X
=)
Xn ! X
Xn ! X
n
n
*
*
1 X
1 X
p;s
L
Xk
E [Xk ] ! 0:
Xn ! X
Xn ! X
n k=1
n k=1
Théorème 6.6.2 (Thèorème de la limite centrale) Soit (Xn )n 1 une
presque sûrement lorsque n tend vers l’in…ni.
suite de variables aléatoires indépendantes, de même loi et de variance …nie,
Dans le cas de variables en plus identiquement distribuées, nous pouvons ( 2 = var (X12 ) ; Xn 2 L2 ( ; F; P)), alors:
énoncer la proposition suivante.
Sn E [Sn ] L
Proposition 6.5.3 (Loi forte des grands nombres) Soit (Xn )n 1 une
! N (0; 1) :
(Sn )
suite de variables aléatoires indépendantes, de même loi et de moyenne …nie,
p
alors:
où Sn = X1 + X2 + ::: + Xn et donc (Sn ) = n :
Ceci peut se traduire par (m = E [X1 ]):
X1 + X2 + ::: + Xn p:s
Yn =
! E [X1 ] :
n
Z a
x2
X1 + X2 + ::: + Xn nm
1
n!+1
p
P
a
! p
e 2 dx:
n
2
6.6 Convergence en Loi, théorème de la limite centrale
1
C’est la convergence la plus faible parmi celles présentées ici.
Exercice
Dé…nition 6.6.1 (Convergence en Loi) Soit (Xn )n 1 une suite de
Soit X une variable aléatoire qui suit la loi de Cauchy don tla densité de
variables aléatoires. La suite (Xn ) converge en loi vers la variable aléatoire probabilité est donnée par:
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-11-

Département de Mathématiques -Univ-Guelma

Probabilités de base

1
1 + x2
Soit (Xi )i 1 une suite de variables aléatoires indépendantes et demême loi
que celle de X . On dé…nit (Sn )n 1 une suite de variables aléatoires dé…nie
par:
fX (x) =

Sn =

2012-2013

1

n
X

n
n
h t i Y
Y
i n Xj
E e
'Yn (t) =
=
'X
j=1

=
= e

Xi

'X
jtj

j=1

t
n

n

t
= e jnj

t
n
n

= 'X (t)

i=1

2. D’après la question précédente, on a: 8t 2 R; lim 'Xn (t) = 'X (t) ce
1. Calculer la fonction caractéristique de la variable aléatoire Snn :
n!+1
Sn
2. Montrer que n converge en loi vers X:
Sn L
qui implique que n ! X: Remarquer que la loi faible (ou forte) des grands
3. Montrer que Snn2 converge en probabilité vers 0:
nombres ne s’appliquent pasi ci puisque les moments d’ordre supérieur ou
4. Montrer que Snn3 converge presque-sûrement vers 0, (Utiliser le lemme
égal à 1 n’existent pas.
de Borel-Cantelli).
P
3. Pour montrer que Snn2 ! 0; il faut montrer que :
Correction
1. Calculons tout d’abord la fonction caractéristique de la v.a.X , on a:
Sn
Z
8 > 0; lim P
0 > =0
eitx
1
itX
n!+1
n2
dx
'X (t) = E e
=
2
R 1+x
On a en e¤et:(on utilise le fait que Snn Cauchy)
En utilisant le théorème des Résidus par intégration de la fonction comitz
e
plexe f (z) = 1+z
origine des axes
2 sur le demi cercle supérieure de centre l’
et de rayon R, on trouve que: (t 2 R)
Sn
Sn
P
0 >
= P
>n
jtj
2
'X (t) = e
n
n
Z +1
1 dx
Soit maintenant Yn = Snn , on a:
= 2
1 + x2
n
h t Pn
i
1
n!+1
=
(
2 arctan n ) ! 0:
'Yn (t) = E eitYn = E ei n j=1 Xj
" n
#
h Pn t i
Y t
p:s
ei n Xj
= E e j=1 i n Xj = E
4. Pour montrer que Snn3 ! 0; on peut utiliser le lemme de Borel-Cantelli.
P
j=1
Sn
Pour cela, il su¢ t de montrer que la série entière +1
0 >
n=1 P
n3
les (Xj )j 1 étant indépendantes, on a:
converge. On a:
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-12-

Département de Mathématiques -Univ-Guelma

Probabilités de base

2012-2013

Sn P
!
:
n n!+1
P
=
arctan n2
2
Exercice 3. Compute the characteristic function of the following random
2
1
variables:
=
arctan 2
n
a) X B(n; p), with P(fX = kg) = Ckn pk (1 p)n k , k 2 f0; :::; ng
2 1
b) X Geom(p), with P(fX = kg) = (1 p)k 1 p; k 1:
terme général d’une série entière convergente.
<
2
n
c) X has the exponential distribution on R with pdf fX (x) =
exp(
jxj); x 2 R:
2
d*) X has the Cauchy distribution on R with pdf fX (x) = ( 2 +x2 ) ; x 2
Série 3
R:
Exercice 4. Rappel :X suit la loi de Poisson de paramètre
> 0
Exercice 1. Let (Xn ; n
1) be a sequence of independent random
k
si 8k 2 N; P[X = k] = e k! . On a alors :E[X] = ; V [X] =
et
variables such that
(eit 1)
8t; '(t) = e
:
Soit(Xn )n une suite de variables aléatoires indépendantes identiquement
1
1
P(Xn = n) =
and P(Xn = 0) = 1
:
distribuées de loi de Poisson de paramètre 1.
n
n
1. Quelle convergence donne le théorème limite central appliqué à la suite
a) Show that Xn converges to X = 0 in probability, but that there is no
(X
n) ?
quadratic convergence.
2. Quelle est la loi de X1 + ::: + Xn ?
Here is yet another notion of convergence: we say that Xn con3. En utilisant les fonctions de répartition, montrer que
verges towards X in mean if all these random variables are integrable and
L1
n
X
lim E(jXn Xj) = 0: The notation for this is: Xn ! X.
1
nk
n
n!+1
! :
e
k! n!+1 2
b) Does the above sequence converge in mean towards some random varik=0
able X ?
c) Show that in general,
Sn
>
n3

2

L2

Xn ! X

L1

Xn ! X

=)

=)

P

Xn ! X:

Exercice 2. Let (Xn ; n 1) be a sequence of square-integrable random
variables such that E(Xn ) = 2 R, V ar(Xn ) = 2 > 0 for all n 1, and
jCov (Xn ; Xm )j

2

exp ( jm

nj) ;

8n; m

1:

Let Sn = X1 + ::: + Xn . Show that
1 ére Master: Probabilités et Applications

théme : Probabilités de base

-13-


Aperçu du document Proba de base 1 Master PA(2012-2013).pdf - page 1/13
 
Proba de base 1 Master PA(2012-2013).pdf - page 3/13
Proba de base 1 Master PA(2012-2013).pdf - page 4/13
Proba de base 1 Master PA(2012-2013).pdf - page 5/13
Proba de base 1 Master PA(2012-2013).pdf - page 6/13
 




Télécharger le fichier (PDF)


Proba de base 1 Master PA(2012-2013).pdf (PDF, 203 Ko)

Télécharger
Formats alternatifs: ZIP



Documents similaires


rappel proba
rappel proba
coursmonique
theoreme d arzela ascoli
lecon 2 espaces de hilbert notions de base
analyse reelle cours et exercices corriges premiere annee maths et informatique

Sur le même sujet..