Probas .pdf



Nom original: Probas.pdf

Ce document au format PDF 1.2 a été généré par / ESP Ghostscript 7.05, et a été envoyé sur fichier-pdf.fr le 14/02/2012 à 20:22, depuis l'adresse IP 193.52.x.x. La présente page de téléchargement du fichier a été vue 2651 fois.
Taille du document: 408 Ko (80 pages).
Confidentialité: fichier public


Aperçu du document


PROBABILITES
Alain NINET
15 avril 2004

2

Table des mati`
eres
1 Ev´
enements et probabilit´
es
1.1 Ev´enements . . . . . . . . . . . . . . . .
1.2 Probabilit´es . . . . . . . . . . . . . . . .
1.3 Propri´et´es ´el´ementaires des probabilit´es
1.4 Le cas ´equiprobable ; combinatoires . . .
1.5 Probabilit´es conditionnelles . . . . . . .
1.6 Ev´enements ind´ependants . . . . . . . .
1.7 Compl´ements . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

5
5
7
8
10
12
14
15

2 Variables al´
eatoires discr`
etes
2.1 Variables al´eatoires discr`etes . . . . . . . . . . . . . . .
2.2 Couple de variables al´eatoires discr`etes . . . . . . . . . .
2.3 Esp´erance et variance . . . . . . . . . . . . . . . . . . .
2.4 Ind´ependance et covariance de deux variables al´eatoires
2.5 Lois discr`etes classiques . . . . . . . . . . . . . . . . . .
2.5.1 Loi uniforme sur un ensemble fini . . . . . . . . .
2.5.2 Loi de Bernouilli . . . . . . . . . . . . . . . . . .
2.5.3 Loi binomiale . . . . . . . . . . . . . . . . . . . .
2.5.4 Loi hyperg´eom´etrique . . . . . . . . . . . . . . .
2.5.5 Tableau r´ecapitulatif . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

17
17
19
20
22
25
25
26
26
28
28

3 Variables al´
eatoires d´
enombrables
3.1 Variable al´eatoire d´enombrable .
3.2 Lois g´eom´etriques . . . . . . . . .
3.3 Loi de Poisson . . . . . . . . . .
3.4 Tableau r´ecapitulatif . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

29
29
30
33
35

4 Variables al´
eatoires r´
eelles
4.1 Densit´e . . . . . . . . . . . . . . . .
4.2 Esp´erance, variance et ind´ependance
4.3 Lois continues classiques . . . . . . .
4.3.1 Loi uniforme . . . . . . . . .
4.3.2 Loi de Cauchy . . . . . . . .
4.3.3 Loi exponentielle . . . . . . .
4.3.4 Loi normale . . . . . . . . . .
4.3.5 Tableau r´ecapitulatif . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

37
37
39
40
40
42
43
45
48

5 Couple de variables al´
eatoires r´
eelles
5.1 Densit´e et fonction de r´epartition . .
5.2 Lois marginales . . . . . . . . . . . .
5.3 Couple de v.a.r. ind´ependantes . . .
5.4 Densit´e de Ψ(X, Y ) . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

49
49
51
53
55

.
.
.
.

3

`
TABLE DES MATIERES

4
6 Fonctions caract´
eristiques
6.1 Fonction caract´eristique . . . . . . . . .
6.2 Lois usuelles . . . . . . . . . . . . . . . .
6.3 Propri´et´es des fonctions caract´eristiques
6.4 Convergence en loi . . . . . . . . . . . .
6.5 Fonction caract´eristique d’un couple . .

.
.
.
.
.

59
59
60
63
67
70

7 intervalle de confiance
7.1 In´egalit´e de Bienaym´e-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Intervalle de confiance par le TCL . . . . . . . . . . . . . . . . . . . . . . . . . .

75
75
77
79

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Chapitre 1

Ev´
enements et probabilit´
es
Avant de parler des probabilit´es proprement dites, il faut mettre en place la notion d’´ev´enement
et le vocabulaire associ´e.

1.1

Ev´
enements


efinition 1.1.1 On appelle ´epreuve E toute exp´erience probabiliste, c’est-`
a-dire dont le r´esultat
d´epend du hasard.
Cette d´efinition est assez intuitive. Par exemple, une ´epreuve peut ˆetre : lancer un d´e (dans la
suite, les exemples se rapporteront a` cette ´epreuve).

efinition 1.1.2 On appelle ´ev´enement li´e a
` une ´epreuve E toute proposition qui pourra ˆetre
d´eclar´ee vraie ou fausse lorsque l’exp´erience sera r´ealis´ee.
Par exemple, “obtenir un deux”, “obtenir un chiffre pair” ou encore “obtenir un chiffre plus petit
que z´ero”.
On va maintenant d´efinir plusieurs ´ev´enements particuliers et importants :
1. Un ´ev´enement certain est un ´ev´enement qui est toujours r´ealis´e (not´e Ω en g´en´eral).
Par exemple, “obtenir un chiffre plus grand que z´ero” est un ´ev´enement certain.
2. Un ´ev´enement impossible est un ´ev´enement qui n’est jamais r´ealis´e (not´e ∅ en g´en´eral).
Par exemple, “obtenir un chiffre plus petit que z´ero” est un ´ev´enement impossible.
3. L’´ev´enement contraire d’un ´ev´enement A (not´e A ou A c , appel´e non A) d´esigne l’´ev´enement qui est r´ealis´e si et seulement si A ne l’est pas.
Par exemple, si A est l’´ev´enement “obtenir 1, 4 ou 5”, A est l’´ev´enement “obtenir 2, 3 ou 6”.
Remarque : On peut consid´erer les ´ev´enements d’une mˆeme ´epreuve comme des sous-ensembles
d’un ensemble Ω.
Dans ce cas, un ´ev´enement certain correspond a` l’ensemble Ω, un ´ev´enement impossible correspond a` l’ensemble vide et le contraire d’un ´ev´enement correspond au compl´ementaire du
sous-ensemble associ´e.
En poussant l’analogie, si A et B sont deux ´ev´enements li´es a` une mˆeme ´epreuve, on obtient les
notions suivantes :
1. l’intersection de A et B (not´ee A ∩ B, appel´ee A et B) est l’´ev´enement qui est r´ealis´e si et
seulement si A et B sont r´ealis´es.
Par exemple, l’intersection de “obtenir 1 ou 2” et de “obtenir 2 ou 3” est l’´ev´enement
“obtenir 2”.
5

´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

6

2. la r´eunion de A et B (not´ee A ∪ B, appel´ee A ou B) est l’´ev´enement qui est r´ealis´e si A
ou B est r´ealis´e.
Avec l’exemple pr´ec´edent, A ∪ B est l’´ev´enement “obtenir 1, 2 ou 3”.
3. B implique A (not´e B ⊂ A) si A est r´ealis´e chaque fois que B l’est.
Par exemple, “obtenir un 3” implique “obtenir un 2 ou un 3”.

4. A et B sont ´egaux (not´e A = B) si A ⊂ B et B ⊂ A.
Par exemple, “obtenir un 1 ou un 5” est ´egal a` “obtenir un diviseur de 65”.
5. A et B sont incompatibles (ou disjoints) s’ils ne peuvent ˆetre r´ealis´es en mˆeme temps,
c’est-`a-dire si A ∩ B = ∅.
Par exemple, “obtenir un 2” et “obtenir un 3” sont incompatibles.
Le lien avec la th´eorie des ensembles permet de retrouver, pour les ´ev´enements, les mˆemes
r´esultats qu’avec les ensembles.
Proposition 1.1.3 Soit A, B et C des ´ev´enements li´es a
` une mˆeme ´epreuve. Les propri´et´es
suivantes sont toujours v´erifi´ees :
A∩A=∅
– A∪A =Ω
A∪B = A∩B
– Lois de Morgan : A ∩ B = A ∪ B
– Distributivit´e : A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
Remarque : Dans la suite, chaque fois qu’on consid`ere plusieurs ´ev´enements, on supposera implicitement qu’ils sont li´es a` une mˆeme ´epreuve.
On peut ´egalement d´efinir une notion semblable a` celle de plus petit sous-ensemble (c’est-`a-dire
r´eduit a` un ´el´ement de Ω).

efinition 1.1.4 On dira qu’un ´ev´enement A est ´el´ementaire si A n’est pas un ´ev´enement
impossible et s’il n’existe aucun ´ev´enement B qui implique A.
On appelle ensemble ´el´ementaire de l’´epreuve E l’ensemble de tous les ´ev´enements ´el´ementaires
de cette ´epreuve.
Par exemple, “obtenir un 3” est un ´ev´enement ´el´ementaire mais pas “obtenir un 2 ou un 3”.
Corollaire 1.1.5 Deux ´ev´enements ´el´ementaires distincts A et B sont toujours incompatibles.
Sinon, on aurait A ∩ B 6= ∅ et A ∩ B ⊂ A, ce qui contredit A ´el´ementaire.
De plus, tout ´ev´enement non ´el´ementaire (et non impossible) est la r´eunion de plusieurs ´ev´enements ´el´ementaires.
La r´eunion de tous les ´ev´enements ´el´ementaires est le plus grand des sous-ensembles de Ω. De
plus, il contient tous les autres sous-ensembles li´es a
` l’´epreuve E. Il correspond donc a
` l’ensemble
Ω.
Enfin, une d´efinition tr`es importante :

efinition 1.1.6 Soit (Ai )i∈I une famile (finie) d’´ev´enements (en g´en´eral non impossibles).
On dira que cette famille forme un syst`eme complet d’´ev´enements si :
[
Ai = Ω
et
Ai ∩ Aj = ∅, ∀i 6= j,
i∈I

c’est-`
a-dire si les Ai sont deux a
` deux incompatibles et si la r´eunion des A i est l’´ev´enement
certain.

´
1.2. PROBABILITES

7

L’exemple le plus simple d’un syst`eme complet d’´ev´enements est le couple (A, A) o`
u A est un
´ev´enement quelconque.
Un autre exemple de syst`eme complet d’´ev´enements est l’ensemble ´el´ementaire.

1.2

Probabilit´
es

Avant de d´efinir les probabilit´es, nous avons besoin d’introduire la notion de tribu, n´ecessaire
a` une d´efinition rigoureuse de la probabilit´e.

efinition 1.2.1 Une famille S de parties d’un ensemble Ω est appel´ee tribu ou σ-alg`ebre si
elle v´erifie les propri´et´es suivantes :
– Ω ∈S.
S
– Si (An )n est une suite (´eventuellement finie) d’´el´ements de S, alors An ∈ S.
n

– Si A est un ´el´ement de S, alors A ∈ S.

Remarque : Une tribu S est toujours incluse dans l’ensemble des parties de Ω, not´e P (Ω).

Corollaire 1.2.2 Si S est une tribu, alors
– ∅ ∈ S.
T
– Si (An )n est une suite d’´el´ements de S, alors An ∈ S.
n

Exemples : l’ensemble des sous-ensembles de Ω, P (Ω), est une tribu (c’est en g´en´eral celle sur
laquelle on travaille), l’ensemble {Ω, ∅} est ´egalement une tribu.
Remarque : Pour faire le lien avec la partie pr´ec´edente, on appelle ´ev´enements les ´el´ements de
la tribu S et ´ev´enement certain Ω.


efinition 1.2.3 Soit Ω un ensemble muni d’une tribu S.
On appelle probabilit´e toute application P de S dans [0, 1], v´erifiant les propri´et´es :
– P(Ω) = 1.
– Si (An )n est une suite (´eventuellement finie) d’´el´ements de S deux a
` deux incompatibles,
alors :
[
X
P( An ) =
P(An ).
n

n

Le triplet (Ω, S, P) est appel´e espace de probabilit´e.

Remarque : Notons {Xk , k ∈ K} l’ensemble ´el´ementaire (on le suppose au plus d´enombrable). On
a vu que les ´ev´enements ´el´ementaires sont deux a` deux incompatibles. De plus, tout ´ev´enement
A s’´ecrit comme la r´eunion d’un certain nombre d’´ev´enements ´el´ementaires. C’est vrai entre
autre pour Ω, qui est la r´eunion de tous les ´ev´enements ´el´ementaires. Donc, si K est au plus
d´enombrable, grˆace a` la d´efinition des probabilit´es, on a :
P(Ω) = 1 = P(

[

k∈K

Cela d´emontre la proposition suivante :

Xk ) =

X

k∈K

P(Xk ).

´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

8

Proposition 1.2.4 Si l’ensemble ´el´ementaire est au plus d´enombrable, la somme des probabilit´es
de tous les ´ev´enements ´el´ementaires vaut 1, c’est-`
a-dire :
X
P(Xk ) = 1
k∈K

o`
u {Xk , k ∈ K} est l’ensemble ´el´ementaire.
Remarque : On sait que tout ´ev´enement ASs’´ecrit comme la r´eunion des ´ev´enements ´el´ementaires
le composant, ce qu’on peut ´ecrire A =
Xk . Comme les Xk sont deux a` deux incompatibles,
Xk ⊂A
P
P(Xk ). Il suffit donc, pour connaˆıtre la probabilit´e d’une tribu, de connaˆıtre
on a P(A) =
Xk ⊂A

les valeurs des probabilit´es des ´ev´enements ´el´ementaires de la tribu.

Avant de voir les propri´et´es des probabilit´es, essayons de voir de mani`ere intuitive les espaces
de probabilit´e.
1ere mani`ere :
Reprenons notre exp´erience E consistant a` lancer un d´e et r´ep´etons-l`a N fois. On consid`ere la
tribu S = P (Ω). Soit A ∈ S l’´ev´enement “obtenir un 2” et B ∈ S l’´ev´enement “obtenir un 3 ou
un 4”.
L’´ev´enement A ∪ B est “obtenir un 2, un 3 ou un 4”.
On note nA le nombre de fois o`
u A est r´ealis´e et n B le nombre de fois o`
u B est r´ealis´e.
N´ecessairement, 0 ≤ nA ≤ N , nΩ = N et, comme A et B sont incompatibles, n A∪B = nA + nB .
Si on d´efinit la fr´equence de A comme ´etant f A = nA /N , on en d´eduit que 0 ≤ fA ≤ 1, fΩ = 1
et fA∪B = fA + fB .
On peut voir la probabilit´e P(A) comme la limite de la fr´equence f A quand N tend vers l’infini.
On retrouve alors bien les propri´et´es de la d´efinition d’une probabilit´e : 0 ≤ P(A) ≤ 1, P(Ω) = 1
et, si A et B sont disjoints, P(A ∪ B) = P(A) + P(B).
Bien sˆ
ur, il faudrait ´etendre cette derni`ere propri´et´e a` toute famille au plus d´enombrable d’´ev´enements deux a` deux incompatibles. Cela peut se faire via un axiome : si (A n )n est une suite
d’´ev´enements d´ecroissante (au sens de l’inclusion), alors :
\
n

An = ∅ =⇒ lim P(An ) = 0.
n

2eme mani`ere :
Une autre fa¸con intuitive de voir les probabilit´es est de revenir a` l’aspect ensembliste. Dans ce
cadre, on peut consid´erer les probabilit´es comme une mesure des ensembles de la tribu (par
exemple, la tribu serait un ensemble de sous-surfaces d’une surface Ω du plan et la probabilit´e
l’aire d’une telle surface).
La mesure de l’ensemble certain Ω (le plus grand) serait 1 : P(Ω) = 1.
Toute mesure (aire) est positive, et puisque l’ensemble “le plus grand” mesure 1, les autres
ensembles sont de mesure plus petite, donc 0 ≤ P(A) ≤ 1.
Enfin, si on prend deux ensembles A et B disjoints (A ∩ B = ∅), alors la mesure de la r´eunion
est bien la somme des mesures, P(A ∪ B) = P(A) + P(B).

1.3

Propri´
et´
es ´
el´
ementaires des probabilit´
es

On consid`ere un espace de probabilit´e (Ω, S, P).
Proposition 1.3.1 Soit A et B deux ´ev´enements quelconques (ie A ∈ S, B ∈ S). Alors les
propri´et´es suivantes sont toujours vraies :

´ ES
´ EL
´ EMENTAIRES
´
´
1.3. PROPRIET
DES PROBABILITES

9

1. P(A) = 1 − P(A).

2. P(∅) = 0.

3. P(B) = P(A ∩ B) + P(A ∩ B).

4. P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

PREUVE :
1. les ´ev´enements A et A sont incompatibles, donc d’apr`es la d´efinition d’une probabilit´e,
P(A) + P(A) = P(A ∪ A) = P(Ω) = 1.
2. C’est une application directe du r´esultat pr´ec´edent en prenant A = Ω.
P(Ω) + P(Ω) = 1 = P(∅) + 1.
3. Les ´ev´enements B ∩ A et B ∩ A sont incompatibles et de plus B = B ∩ Ω = B ∩ (A ∪ A) =
(B ∩ A) ∪ (B ∩ A). Grˆace a` cela, on obtient :
P(B) = P((B ∩ A) ∪ (B ∩ A)) = P(B ∩ A) + P(B ∩ A).
4. On remarque que les ´ev´enements A et B ∩ A sont disjoints. On a donc :
P(A ∪ B) = P(A ∪ (B ∩ A)) = P(A) + P(B ∩ A).
Grˆace au r´esultat du 3., on a P(B ∩ A) = P(B) − P(A ∩ B) et donc on a bien :
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).

Voyons maintenant une propri´et´e tr`es importante concernant les syst`emes complets d’´ev´enements, qui g´en´eralise le point 3 de la proposition ci-dessus :
Proposition 1.3.2 Soit (Ai )i∈I un syst`eme complet d’´ev´enements et soit B un ´ev´enement quelconque. Alors :
X
P(B) =
P(B ∩ Ai ).
i∈I

La d´emonstration se fait exactement comme celle du point 3.
PREUVE :
S
Puisque (Ai )i∈I forme un syst`eme complet d’´ev´enements,
Ai = Ω. On peut ´ecrire :
i∈I

P(B) = P(B ∩ Ω)
S
= P(B ∩ ( Ai ))
S i∈I
= P( (B ∩ Ai ))
i∈I

Or, par d´efinition d’un syst`eme complet, les A i sont deux a` deux incompatibles. Les B ∩ A i le
sont donc aussi, et on a bien finalement :
X
P(B) =
P(B ∩ Ai ).
i∈I

´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

10


Le point 4 peut aussi se g´en´eraliser. Ici, nous allons ´ecrire son analogue a` trois ´ev´enements :
Proposition 1.3.3 Soient A, B et C trois ´ev´enements dans S. Alors :
P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C).
La formule peut se g´en´eraliser a` n ´ev´enements.
PREUVE :
On sait que :
P(A ∪ B ∪ C) =
=
=
=

P(A) + P(B ∪ C) − P(A ∩ (B ∪ C))
P(A) + P(B) + P(C) − P(B ∩ C) − P((A ∩ B) ∪ (A ∩ C))
P(A) + P(B) + P(C) − P(B ∩ C) − (P(A ∩ B) + P(A ∩ C) − P((A ∩ B) ∩ (A ∩ C)))
P(A) + P(B) + P(C) − P(B ∩ C) − P(A ∩ B) − P(A ∩ C) + P(A ∩ B ∩ C)


Reprenons maintenant notre exp´erience consitant a` lancer un d´e.
Il y a 6 ´ev´enements ´el´ementaires : “obtenir un 1”, “obtenir un 2”, ..., “obtenir un 6”.
Si le d´e est normal, chacun de ces ´ev´enements a une probabilit´e de 1/6.
Du coup, grˆace aux propri´et´es vues ci-dessus, on peut calculer toutes les probabilit´es possibles
pour cette exp´erience. Par exemple,
P(“obtenir un 1 ou un 2”) = P(“obtenir un 1” ∪ “obtenir un 2”) =
= P(“obtenir un 1”) + P(“obtenir un 2”)=2/6.
En fait, chaque probabilit´e d’un ´ev´enement A peut s’´ecrire sous la forme :
P(A) =

nombre de r´esultats favorables
nombre de r´esultats favorables
=
.
6
nombre de r´esultats possibles

Ce genre de formule est possible car nous sommes ici dans un cas dit ´equiprobable.
Si maintenant on suppose que le d´e est truqu´e et que chaque ´ev´enement ´el´ementaire a une
probabilit´e de 1/10, sauf l’´ev´enement “obtenir un 1” qui a une probabilit´e 1/2. Alors, on aura :
P(“obtenir un 1 ou un 2”) = P(“obtenir un 1”) + P(“obtenir un 2”) = 1/10 + 1/2 = 6/10.
Dans ce cas, la formule ne marche plus car les cas ne sont pas ´equiprobables (on a plus de chance
d’obtenir 1 que 2, 3, 4, 5 ou 6).
Il est int´eressant de regarder de plus pr`es le cas ´equiprobable.

1.4

Le cas ´
equiprobable ; combinatoires

Nous nous pla¸cons toujours dans le cas d’un espace de probabilit´e (Ω, S, P).
Nous supposerons que l’ensemble fondamental est fini.
Notons {X1 , X2 , ..., Xn } l’ensemble fondamental.
On a d´ej`a vu que connaˆıtre la probabilit´e P revient a` connaˆıtre les valeurs P(X k ) pour tout k.
Notons pk = P(Xk ).

´
1.4. LE CAS EQUIPROBABLE
; COMBINATOIRES

11


efinition 1.4.1 On dit qu’on se trouve dans un cas ´equiprobable si tous les ´ev´enements ´el´ementaires ont mˆeme valeur de probablit´e.
Dans le cas ´equiprobable, on a donc p k = p pour tout k. Comme il y a n ´ev´enements ´el´ementaires
et que la somme de leur probabilit´e doit ˆetre 1, on a p = 1/n.
Du coup, on peut ´ecrire :
P(A) =

X

P(Xk ) =

Xk ⊂A

X 1
#A
#A
=
=
.
n
n
#Ω

Xk ⊂A

On peut encore l’´ecrire, comme on l’avait fait dans l’exemple du d´e :
P(A) =

nombre de cas favorables
.
nombre de cas possibles

Remarque : ATTENTION, cette formule n’est valable que pour les cas ´equiprobables. Elle fonctionne dans l’exemple du d´e normal, mais pas dans celui du d´e truqu´e.
On voit qu’il faut pouvoir, pour calculer ces probabilit´es, calculer le nombre d’´el´ements d’un
ensemble. L’analyse combinatoire peut y aider dans certains cas.
Prenons l’exemple d’une urne contenant n jetons num´erot´es. On en tire k (0 ≤ k ≤ n) sans
remise.
Supposons qu’on tienne compte de l’ordre dans lequel on les tire. Il y a n fa¸cons d’obtenir
le premier jeton. Il ne reste alors que n − 1 jetons dans l’urne. Il y a donc n − 1 fa¸cons d’obtenir
le second jeton, etc. Il y a finalement n − k + 1 fa¸cons d’obtenir le k eme jeton.
n!
Au final, il y a n(n − 1)(n − 2)...(n − k + 1) =
tirages diff´erents.
(n − k)!

efinition 1.4.2 On appelle arrangement de k objets pris parmi n (0 ≤ k ≤ n) l’entier
Akn =

n!
= n(n − 1)...(n − k + 1).
(n − k)!

Si k = n, par convention, on posera 0! = 1 et dira que A nn = n!. C’est ce qu’on appelle le nombre
de permutations de n.
Remarque : Lorsqu’on tire k objets parmi n sans remise et en tenant compte de l’ordre, on a A kn
tirages possibles.
Supposons maintenant que l’on ne tienne pas compte de l’ordre de tirage des jetons. Combien de tirages possibles y-a-t-il ?
On a tir´e k jetons. Le plus petit jeton a pu ˆetre tir´e a` k moments distincts (en premier, en
second, ..., en dernier). Le second jeton n’a alors pu ˆetre tir´e qu’`a k − 1 moments distincts, etc.
Il y a donc k(k − 1)(k − 2)...1 = k! fa¸cons possibles d’avoir tir´e les mˆemes jetons. Au final, on a
Ak
donc n tirages diff´erents. On peut montrer que ce quotient donne un r´esultat entier.
k!

efinition 1.4.3 On appelle combinaison de k objets parmi n (0 ≤ k ≤ n) l’entier
Cnk =

n!
.
(n − k)! k!

´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

12

Remarque : Lorsqu’on tire k objets parmi n sans remise et en ne tenant pas compte de l’ordre,
on a Cnk tirages possibles.
Reprenons une derni`ere fois l’exp´erience de tirer k jetons, mais supposons qu’on remette le jeton
dans l’urne apr`es le tirage. Il y a alors n fa¸cons de tirer le premier jeton, puis encore n fa¸cons
de tirer le second, etc. Il y a donc nk tirages possibles avec ordre.
Remarque : Lorsqu’on tire k objets parmi n avec remise et en tenant compte de l’ordre, on a n k
tirages possibles.

1.5

Probabilit´
es conditionnelles

Reprenons l’exemple du d´e. Notons A l’´ev´enement “on obtient un 2” et B l’´ev´enement “on
n’obtient pas 1”.
L’´ev´enement A ∩ B est ´egal a` A car si on obtient 2 et pas 1, c’est qu’on a obtenu 2 tout court.
Donc P(A ∩ B) = 1/6. De plus, P(B) = 5/6 car il y a 5 r´esultats favorables sur 6 si on n’obtient
pas 1.
Supposons maintenant qu’on sache que B est v´erifi´e, c’est-`a-dire qu’on a pas obtenu 1. Dans ce
cas, la probabilit´e d’obtenir 2 est de 1/5, car il n’y a plus que 5 r´esultats possibles ( et on est
toujours dans un cas ´equiprobable).
On remarque que cette probabilit´e vaut exactement P(A ∩ B)/P(B). C’est ce qu’on appelle une
probabilit´e conditionnelle.

efinition 1.5.1 Soit A et B deux ´ev´enements tels que P(B) 6= 0. On appelle probabilit´e conditionnelle de A sachant B (c’est-`
a-dire sachant que B est r´ealis´e), not´ee P(A/B) le quotient :
P(A/B) =

P(A ∩ B)
.
P(B)

Proposition 1.5.2 Soit B un ´ev´enement de probabilit´e P(B) non nulle. Alors Q(A) = P(A/B)
est une probabilit´e sur S.
PREUVE :
Il suffit de montrer que Q v´erifie bien les propri´et´es de la d´efinition d’une probabilit´e.
– Soit A ∈ S ; on a alors
0 ≤ Q(A) = P(A/B) ≤ 1


car P(B) = P(A ∩ B) + P(A ∩ B) ≥ P(A ∩ B).
Q(Ω) = P(Ω/B) =

P(Ω ∩ B)
P(B)
=
= 1.
P(B)
P(B)

– Soit (An )n une famille d’´ev´enements deux a` deux incompatibles.
Q(

S
n

An ) = P((

S

P((
=

n
S
n

An )/B)
An ) ∩ B)

P(B)
X P(An ∩ B)
=
P(B)
n

=
=

S
P( (An ∩ B))
n

P(B)

X

P(An /B)

n

On a bien v´erifi´e toutes les propri´et´es, donc Q est une probabilit´e sur S.


´ CONDITIONNELLES
1.5. PROBABILITES

13

Nous allons maintenant voir une proposition tr`es pratique pour calculer des probabilit´es conditionnelles.
Proposition 1.5.3 Soit (Ai )i∈I un syst`eme complet d’´ev´enements et B un ´ev´enement v´erifiant
P(B) 6= 0 et P(Ai ) 6= 0 ∀ i ∈ I. Alors,
1.
P(B) =

X

P(B/Ai )P(Ai ).

i∈I

2. Formule de Bayes :
P(Ak )P(B/Ak )
P(Ak /B) = P
P(Ai )P(B/Ai )

∀ k ∈ I.

i∈I

On a un corollaire imm´ediat :
Corollaire 1.5.4 Soit A et B deux ´ev´enements v´erifiant P(B) 6= 0 et 0 < P(A) < 1. Alors :
P(A/B) =

P(B/A)P(A)
.
P(A)P(B/A) + P(A)P(B/A)

D´emontrons la proposition pr´ec´edente.
PREUVE :
1. On a vu (prop 1.3.2) que :
P(B) =

X
i∈I

Puisque P(B/Ai ) =

P(B ∩ Ai ).

P(B ∩ Ai )
, on a bien :
P(Ai )
P(B) =

X

P(B/Ai )P(Ai ).

i∈I

2. Par d´efinition des probabilit´es conditionnelles, P(A k /B) =

P(Ak ∩ B)
. On peut donc
P(B)

´ecrire, en utilisant le mˆeme raisonnement que ci-dessus :
P(Ak /B) =

P(B/Ak )P(Ak )
.
P(B)

En utilisant le r´esultat du 1. et en rempla¸cant P(B), on obtient bien :
P(Ak )P(B/Ak )
.
P(Ak /B) = P
P(Ai )P(B/Ai )
i∈I



´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

14

1.6

Ev´
enements ind´
ependants

Revenons a` l’urne contenant des jetons num´erot´es. Consid´erons les ´ev´enements A = “obtenir le
jeton 1 au premier tirage” et B = “obtenir le jeton 1 au deuxi`eme tirage”.
Si les tirages se font sans remise et que l’´ev´enement A est r´ealis´e, l’´ev´enement B ne peut pas
ˆetre r´ealis´e.
Par contre, si les tirages se font avec remise, le fait que l’´ev´enement A soit r´ealis´e ou non n’influe
pas sur la probabilit´e que B soit r´ealis´e et vice-versa. C’est ce qu’on appelle des ´ev´enements
ind´ependants.
Proposition 1.6.1 Soit A et B deux ´ev´enements de probabilit´e non nulle. Alors les trois ´enonc´es suivants sont ´equivalents :
1. P(A/B) = P(A)
2. P(B/A) = P(B)
3. P(A ∩ B) = P(A)P(B).
PREUVE :
Elle se fait facilement par succession d’´equivalence :
P(A ∩ B)
= P(A)
P(B)
⇐⇒ P(A ∩ B) = P(A)P(B)
P(B ∩ A)
⇐⇒
= P(B)
P(A)
⇐⇒ P(B/A) = P(B)

P(A/B) = P(A) ⇐⇒


Remarque : La derni`ere formule de la proposition reste valable si A ou B sont de probabilit´e
nulle, ce qui n’est pas le cas des deux autres.

efinition 1.6.2 Deux ´ev´enements A et B sont dits ind´ependants (not´e A
si :
P(A ∩ B) = P(A)P(B).

`

B) si et seulement

L’ind´ependance poss`ede quelques propri´et´es simples :
Proposition 1.6.3 Soit A et B deux ´ev´enements. Alors on a :
`
1. A A ⇐⇒ P(A) = 0 ou P(A) = 1.
`
`
`
`
2. A B ⇐⇒ A B ⇐⇒ A B ⇐⇒ A B.
PREUVE :
`
1. A A ⇐⇒ P(A ∩ A) = P2 (A) ⇐⇒ P(A)(1 − P(A)) = 0 ⇐⇒ P(A) = 0 ou P(A) = 1.
2. Il suffit de montrer la premi`ere ´equivalence, les
`
A B ⇐⇒ P(A ∩ B) = P(A)P(B)
⇐⇒ P(A)P(B) = P(A) − P(A ∩ B)
⇐⇒ P(A)P(B) = P(A ∩ B)

autres sont alors automatiques.

⇐⇒ P(A ∩ B) = P(A)(1 − P(B)
⇐⇒ P(A)P(B) = P(A ∩ B) + P(A ∩ B) − P(A ∩ B)
`
⇐⇒ A B.


´
1.7. COMPLEMENTS

15

On peut ´etendre cette notion d’´ev´enements ind´ependants a` une famille :


efinition 1.6.4 Une famille d’´ev´enements (A i )i∈I est dite ind´ependante si pour toute sousfamille finie (Ai1 , Ai2 , ..., Ain ) de cette famille, on a :

P(

n
\

A ij ) =

n
Y

P(Aij ).

j=1

j=1

On retrouve les mˆemes propri´et´es que pour deux ´ev´enements ind´ependants. Par exemple :

Proposition 1.6.5 L’ind´ependance d’une famille d’´ev´enements est pr´eserv´ee si on remplace un
nombre quelconque d’entre eux par leur compl´ementaire.

1.7

Compl´
ements

Nous pr´esentons ici, ind´ependament de toute notion de probabilit´e, un certain nombre de r´esultats utiles (dans ce cours mais aussi ailleurs).
1. Les Cnk peuvent se calculer facilement grˆace au triangle de Pascal, obtenu par la formule :
k−1
k
pour tout 1 ≤ k ≤ n. Cette formule se v´erifie simplement par calcul :
Cnk = Cn−1
+ Cn−1
k−1
k
Cn−1
+ Cn−1
=

(n − 1)!
(n − 1)!
+
k!(n − k − 1)! (k − 1)!(n − k)!

=

(n − 1)!(n − k) + (n − 1)!k
k!(n − k)!

=

(n − 1)!(n − k + k)
k!(n − k)!

=

n(n − 1)!
n!
=
= Cnk
k!(n − k)!
k!(n − k)!

2. Soit 0 ≤ k ≤ n. Alors, Cnk = Cnn−k . Il suffit d’´ecrire la d´efinition d’une combinaison pour
le voir.
3. Soit a et b deux r´eels. La formule du triangle de Pascal permet d’obtenir, par une r´ecurrence
simple, la formule du binˆome pour tout n ≥ 0 :
(a + b)n =

n
X

Cnk an−k bk .

k=0

La formule est vraie pour n = 0 car (a + b) 0 = 1 et

0
P

k=0

C0k a0−k bk = 1.

´
´
CHAPITRE 1. EVENEMENTS
ET PROBABILITES

16

Supposons qu’il existe n ∈ IN tel que la formule soit vraie pour ce n. Alors :
(a + b)n+1 = (a + b)(a + b)n
n
P
= (a + b)
Cnk an−k bk
n
P

=

k=0

k=0

Cnk

an+1−k bk +

= Cn0 an+1 b0 +

n
P

k=0

k=1

an+1 + bn+1 +

=
=

n+1
P

=

k=0

+

bn+1

+

Cnk an−k bk+1

Cnk an+1−k bk + Cnn a0 bn+1 +

n
P

k=1

an+1

n
P

n
P

k=1

n−1
P
k=0

Cnk an−k bk+1

(Cnk an+1−k bk + Cnk−1 an−k+1 bk )

k
Cn+1
an+1−k bk

k
Cn+1
an+1−k bk

La formule est donc vraie pour tout n ∈ IN.
4. Rappel : si p et q sont deux entiers, p < q, on a

q
X

k=

k=p

En particulier, si p = 1 et q = n,

n
X

k=1

(p + q)(q − p + 1)
.
2

(n + 1)n
k=
.
2

5. On a une formule ´equivalente pour la somme des carr´es :
n
X

k2 =

k=1

n(n + 1)(2n + 1)
.
6

La d´emonstration se fait de la fa¸con suivante : en utilisant la formule du binˆome, on obtient
(k + 1)3 = k 3 + 3k 2 + 3k + 1.
Ecrivons, sur n + 1 lignes, ces forumles pour 0 ≤ k ≤ n, puis sommons ces lignes. On
trouve :
(n + 1)3
= n3
3
(n − 1 + 1) = (n − 1)3
.
..
.
= ..
(k + 1)3
= k3
.
..
.
= ..

+ 3n2
+ 3n
+ 3(n − 1)2 + 3(n − 1)
.
.
+ ..
+ ..
+ 3k 2
+ 3k
..
.
+ .
+ ..

+ 1
+ 1
.
+ ..

13

= 03

+ 1

(n + 1)3

= 0

+ 3 × 02
n
P
+ 3
k2
k=1

+ 3×0
n
P
+ 3
k

+ 1
.
+ ..
+ n+1

k=1

Les termes cubiques se simplifient tous, sauf (n + 1) 3 .
n
P
k, on a :
En rempla¸cant (n + 1)3 et
k=1

n3 + 3n2 + 3n + 1 = 3

n
X

k=1

Ce qui nous donne :
n
P

k2 =

k=1

=
=

k2 +

3n(n + 1)
+ n + 1.
2

2(n3 + 3n2 + 3n + 1) − 3n(n + 1) − 2n − 2
6
2n3 + 6n2 + 6n + 2 − 3n2 − 3n − 2n − 2
6
2n3 + 3n2 + n
n(n + 1)(2n + 1)
=
6
6

Chapitre 2

Variables al´
eatoires discr`
etes
Reprenons l’exemple du chapitre pr´ec´edent : on lance un d´e et on regarde le r´esultat, qu’on note
X.
Ce r´esultat X d´epend du hasard, c’est ce qu’on appelle une variable al´eatoire (discr`ete car X ne
peut prendre qu’un nombre fini de valeurs).
Chaque ´ev´enement li´e a` cette exp´erience peut ˆetre exprim´e en fonction des valeurs de X. Par
exemple, l’´ev´enement A : “obtenir un r´esultat pair” peut s’´ecrire X ∈ {2, 4, 6}.
Il suffit donc de connaˆıtre les valeurs des probabilit´es pour chacune des valeurs que peut prendre
X pour connaˆıtre toutes les probabilit´es de tous les ´ev´enements. Cela revient a` connaˆıtre les
valeurs des probabilit´es des ´ev´enements ´el´ementaires.
On peut voir, en fait, X comme une fonction sur les ´ev´enements ´el´ementaires.
A partir de l`a, on peut d´efinir d’autres notions comme la fonction de r´epartition, la moyenne ou
la variance.

2.1

Variables al´
eatoires discr`
etes


efinition 2.1.1 Soit I = {x1 , x2 , ..., xn } un sous-ensemble fini de IR.
On appelle variable al´eatoire discr`ete X toute grandeur (fonction) dont les valeurs prises x i ∈ I
d´ependent du hasard, c’est-`
a-dire du r´esultat d’une ´epreuve.
X est d´efinie sur l’ensemble fondamental Ω de l’´epreuve. A tout ´ev´enement ´el´ementaire ω est
asssoci´e une des valeurs xi , ce qu’on note X(ω) = xi .
Remarque : En g´en´eral, on notera plus simplement X = x i , l’´ev´enement ω ´etant sous-entendu.

efinition 2.1.2 On appelle loi de probabilit´e de X la donn´ee des valeurs x i prises par X et
des probabilit´es pi associ´ees :
pi = P(X = xi ) = P(ω ∈ Ω/X(ω) = xi ).
Remarque : D’apr`es les propri´et´es vues dans le chapitre pr´ec´edent, on sait que

n
P

pi = 1.

i=1

Pour reprendre l’exemple, nous avons donc X la valeur obtenue en jetant un d´e (qu’on suppose
non truqu´e). Les valeurs que peut prendre X (c’est-`a-dire les x i ) sont 1, 2, 3, 4, 5 et 6.
Comme chacune de ces valeurs est ´egale et que leur somme fait 1, on a donc :
pi = P(X = i) =

1
6

∀ 1 ≤ i ≤ 6.

Nous allons maintenant d´efinir la fonction de r´epartition, qui est une caract´erisation de la loi de
probabilit´e.
17

´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

18


efinition 2.1.3 On appelle fonction de r´epartition de X la fonction F d´efinie sur IR par
F (x) = P(X ≤ x).
Exemple : si X est la valeur obtenue en lan¸cant un d´e, on obtient la fonction de r´epartition de
X suivante :

1
1/6

5/6
1/6

2/3
1/6

1/2
1/6

1/3
1/6

1/6
1/6

0

1

2

3

4

5

6

Cette fonction est obtenue en calculant les P(X ≤ x) pour tout x ∈ IR. Si on prend 2 ≤ x < 3,
alors :
F (x) = P(X ≤ x) = P(X = 1 ∪ X = 2) = P(X = 1) + P(X = 2) = 1/6 + 1/6 = 1/3.
La fonction de r´epartition d’une variable al´eatoire poss`ede des propri´et´es simples qui d´ecoulent
de celles des lois de probabilit´es (donc par extension des probabilit´es).
Proposition 2.1.4 Soit F la fonction de r´epartition d’une variable al´eatoire discr`ete X. Les
propri´et´es suivantes sont toujours vraies :
– La fonction F est a
` valeurs dans [0, 1].
– F croissante (car si x < y, P(X ≤ x) ≤ P(X ≤ y)).
– Pour tout x et y r´eels tels que x < y, on a P(x < X ≤ y) = F (y) − F (x).

lim F (x) = 0
lim F (x) = 1.
x7→−∞

x7→+∞

– Cette fonction est continue a
` droite et en escalier.
– Pour tout x ∈ IR, on a P(X = x) = F (x) − F (x − ).
Cette derni`ere propri´et´e permet de caract´eriser la loi de probabilit´e de X. En effet, d’apr`es sa
d´efinition, si on connait la loi, on connait F .
Si on connait F , on peut retrouver la loi.
Les valeurs que peut prendre X (c’est-`a-dire les x i ) sont tous les endroits o`
u la fonction fait un
saut, et la valeur de probabilit´e a` cet endroit (c’est-`a-dire p i ) est la hauteur du saut.
En conclusion, la connaissance de la loi ou de la fonction de r´epartition permet de tout connaitre.

´
`
2.2. COUPLE DE VARIABLES ALEATOIRES
DISCRETES

2.2

19

Couple de variables al´
eatoires discr`
etes

On reprend une nouvelle fois l’exemple du d´e. On note Y la variable qui vaut 1 si le r´esultat est
impair et 2 si le r´esultat est pair et Z la variable qui vaut 0 si le r´esultat est 1, 1 si le r´esultat
est 6 et 2 sinon. Alors
P(Y
P(Y
P(Y
P(Y
P(Y
P(Y

=1∩Z
=1∩Z
=1∩Z
=2∩Z
=2∩Z
=2∩Z

= 0)
= 1)
= 2)
= 0)
= 1)
= 2)

=
=
=
=
=
=

P(X = 1) = 61
P(∅) = 0
P(X = 3 ∪ X = 5) =
P(∅) = 0
P(X = 6) = 61
P(X = 2 ∪ X = 4) =

2
6

=

1
3

2
6

=

1
3

On obtient alors le tableau des pi,j = P(Y = i ∩ Z = j).
H

Z

HH

HH 0
H

1

2

1

1
6

0

2
6

1
2

2

0

1
6

2
6

1
2

1
6

1
6

4
6

1

Y

On remarque que si on fait la somme de la premi`ere ligne, on obtient P(Y = 1).
De mˆeme, si on fait la somme de la seconde colonne, on obtient P(Z = 1).
Connaˆıtre la loi d’un couple permet de connaˆıtre la loi de chacune des 2 variables du couple (on
verra que la r´eciproque est fausse).

efinition 2.2.1 Soit E = {x1 , . . . , xn } et F = {y1 , . . . , ym } deux ensembles finis.
La loi d’un couple de variables al´eatoires discr`etes (X, Y ) a
` valeurs dans E × F est caract´eris´ee
par la donn´ee de E × F et des n × m nombres p i,j = P(X = xi ∩ Y = yj ) (not´e souvent
P(X = xi , Y = yj )) pour 1 ≤ i ≤ n et 1 ≤ j ≤ m.
Remarque : On a n´ecessairement

X

pi,j = 1.

1≤i≤n
1≤j≤m


efinition 2.2.2 On appelle premi`ere loi marginale (resp : deuxi`eme loi marginale) la loi de la
premi`ere composante X (resp : deuxi`eme composante Y ).

Elle est caract´eris´ee par les n (resp : m) nombres p i = P(X = xi ) resp : qj = P(Y = yj ) .

Il existe, comme on l’a vu dans l’exemple, des relations entre les p i , les qj et les pi,j .
En effet, la famille des {Y = yj }1≤j≤m forme, comme on l’a d´ej`a vu, un syst`eme complet
d’´ev´enements.
Donc, ∀ 1 ≤ i ≤ n,
pi = P(X = xi ) =

m
X

P(X = xi , Y = yj ) =

qi =

pi,j

j=1

j=1

De mˆeme, ∀ 1 ≤ j ≤ m,

m
X

n
X

pi,j

i=1

Donc, si on connait la loi du couple, on connait les lois marginales. Il suffit de faire les sommes
sur les lignes et les colonnes, ce qui donne la proposition :

´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

20

Proposition 2.2.3 On peut retrouver les lois marginales d’un couple par les formules suivantes :
pi =
qj =

m
P

j=1
n
P

pi,j

∀1≤i≤n

pi,j

∀1≤j≤m

i=1

Par contre, la r´eciproque est en g´en´eral fausse (sauf dans le cas particulier o`
u les variables X et
Y sont ind´ependantes, on le verra par la suite). En effet, si on regarde l’exemple ci-dessus, il ne
semble pas y avoir de rapport entre p i,j et (pi ,qj ) (et il n’y en a effectivement pas).

2.3

Esp´
erance et variance

Nous allons d’abord d´efinir la notion d’esp´erance math´ematique ou moyenne, qui repr´esente la
valeur moyenne obtenue lors d’une exp´erience.

efinition 2.3.1 On appelle esp´erance math´ematique ou valeur moyenne de X le nombre r´eel
E(X) :
n
X
xi P(X = xi ).
E(X) =
i=1

Plus g´en´eralement, si ϕ est une fonction r´eelle, on note :
E(ϕ ◦ X) =

n
X

ϕ(xi ) P(X = xi ).

i=1

Par exemple, si on veut calculer l’esp´erance de X 2 , on a par d´efinition :
E(X 2 ) =

n
X

x2i P(X = xi ).

i=1

Exemple, le lanc´e de d´e :
E(X) =

6
X

j P(X = j) =

6
X
j
j=1

j=1

6

=

21
7
=
6
2

Cette formule se g´en´eralise pour un couple.

efinition 2.3.2 Soit X et Y deux variables al´eatoires.
Si ϕ est d´efinie sur E × F alors :
X

E ϕ ◦ (X, Y ) =
ϕ(xi , yj ) pi,j
1≤i≤n

1≤j≤m

Par exemple,
E(X + Y ) =

X

(xi + yj ) P(X = xi , Y = yj )

1≤i≤n
1≤j≤m

E(XY ) =

X

1≤i≤n
1≤j≤m

(xi yj ) P(X = xi , Y = yj )

´
2.3. ESPERANCE
ET VARIANCE

21

Proposition 2.3.3 L’esp´erance est lin´eaire, c’est a
` dire que pour toutes variables al´eatoires X
et Y et pour tout r´eel a, on a :
E(X + Y ) = E(X) + E(Y )
E(aX) = a E(X)
PREUVE :
La d´emonstration se fait facilement par calcul :
X
E(X + Y ) =
(xi + yj ) P(X = xi , Y = yj )
1≤i≤n

1≤j≤m

X

=

=
=

1≤i≤n

1≤i≤n

1≤j≤m

1≤j≤m

X

1≤i≤n
X

xi

X

X

pi,j +

1≤j≤m X

xi pi +

1≤i≤n

E(aX) =

X

xi P(X = xi , Y = yj ) +

X

1≤j≤m

yj

X

yj P(X = xi , Y = yj )

pi,j

1≤i≤n

yj qj = E(X) + E(Y )

1≤j≤m

a x i pi

1≤i≤n
X

=a

xi pi = a E(X)

1≤i≤n


Il d´ecoule de cette proposition et de la d´efinition deux autres r´esultats :
Proposition 2.3.4 Soit X une variable al´eatoire discr`ete, a et b deux r´eels. Alors on a :
E(b) = b

et

E(aX + b) = a E(X) + b.

PREUVE :
Consid´erons une variable al´eatoire Z qui vaut b avec une probabilit´e de 1. Alors :
E(b) = E(Z) = b × P(Z = b) = b × 1 = b.
L’autre formule d´ecoule de la lin´earit´e de l’esp´erance :
E(aX + b) = E(aX) + E(b) = a E(X) + b.

Nous allons maintenant d´efinir un autre param`etre, la variance.

efinition 2.3.5 Soit m = E(X), on appelle variance de X le nombre positif

V (X) = E (X − m)2
n
X
(xi − m)2 P(X = xi ).
=
i=1

Proposition 2.3.6 Il existe une formule pratique pour tout variable al´eatoire X :
2
V (X) = E(X 2 ) − E(X) .

´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

22

La preuve se fait simplement en d´eveloppant la d´efinition.
La variance permet de caract´eriser la fa¸con dont les valeurs prises par X sont dispers´ees autour de la moyenne de X. Elle correspond a` la distance moyenne entre les valeurs prises par X
et E(X).
Exemple : on reprend notre exemple habituel du d´e :
V (X) = E(X 2 ) − E(X)
=

6
X
j=1

2

j 2 P(X = j) −

2
7
2

=

1
(1 + 4 + 9 + 16 + 25 + 36) −
6

=

91 49
182 − 147
35

=
=
6
4
12
12



49
4



Plus la variance est grande, plus les valeurs sont dispers´ees autour de la moyenne.
Proposition 2.3.7 Si a et b sont des r´eels, V (aX + b) = a 2 V (X).
PREUVE :

2
V (aX + b) = E (aX + b)2 − E(aX + b)

2
= E a2 X 2 + 2abX + b2 − a E(X) + b
2
= a2 E(X 2 ) + 2ab E(X) + b2 − a2 E(X) − 2ab E(X) − b2

2
= a2 E(X 2 ) − E(X)
= a2 V (X).


Remarque : TOUTES LES PROPOSITIONS VUES ICI SONT VALABLES POUR TOUTE
VARIABLE ALEATOIRE X, MEME SI ELLE N’EST PAS DISCRETE.

2.4

Ind´
ependance et covariance de deux variables al´
eatoires

On a vu dans le premier chapitre l’ind´ependance de deux ´ev´enements. On peut ´etendre cette
notion a` deux variables al´eatoires. On reprendra les notations utilis´ees ci-dessus.

efinition 2.4.1 Deux variables al´eatoires X et Y sont dites ind´ependantes si et seulement si
pour tout 1 ≤ i ≤ n et 1 ≤ j ≤ m, on a pi,j = pi qj , c’est-`
a-dire :
P(X = i, Y = j) = P(X = i) P(Y = j).
On le notera X⊥
⊥Y .
On a un corollaire imm´ediat :
Corollaire 2.4.2 S’il existe un 1 ≤ i ≤ n et un 1 ≤ j ≤ m tels que p i,j 6= pi qj , alors X et Y
ne sont pas ind´ependantes.

´
´
2.4. INDEPENDANCE
ET COVARIANCE DE DEUX VARIABLES AL EATOIRES

23

Il y a un autre corollaire imm´ediat :
Corollaire 2.4.3 Soit X et Y deux variables al´eatoires ind´ependantes.
Si A est une partie de E = {x1 , ..., xn } et B une partie de F = {y1 , ..., ym } alors les
´ev´enements (X ∈ A) et (Y ∈ B) sont ind´ependants.
Ce corollaire vient des propri´et´es des probabilit´es.
Th´
eor`
eme 2.4.4 Si X et Y sont deux variables discr`etes ind´ependantes, alors E(XY ) = E(X) E(Y ).
PREUVE :
La d´emonstration se fait sans difficult´e par le calcul :
E(XY ) =
=
=

P

i,
Pj

i, j
n
P

xi yj P(X = xi , Y = yj )
xi yj P(X = xi ) P(Y = yj )
xi P(X = xi )

i=1

= E(X) E(Y )

m
P

yj P(Y = yj )

j=1


Remarque : ATTENTION, la r´eciproque n’est pas vraie. Il existe des variables X et Y non
ind´ependantes telles que E(XY ) = E(X) E(Y ).


efinition 2.4.5 On appelle covariance du couple (X, Y) le r´eel :
cov(X, Y ) = E(XY ) − E(X) E(Y ).
On dit que les variables X et Y sont non corr´el´ees si leur covariance est nulle.

Remarque : On voit facilement que cov(X, X) = V (X).
La d´efinition de la covariance et le th´eor`eme pr´ec´edent ont comme cons´equence imm´ediate le
th´eor`eme suivant :
Th´
eor`
eme 2.4.6 Si X et Y sont ind´ependantes, elles sont non corr´el´ees, c’est-`
a-dire cov(X, Y ) =
0.

Remarque : ATTENTION, la r´eciproque est fausse. Il existe des variables non ind´ependantes
mais dont la covariance est nulle. Vous aurez l’occasion d’en voir en TD.
Th´
eor`
eme 2.4.7 Soient X et Y deux variables al´eatoires quelconques. Alors :
V (X + Y ) = V (X) + V (Y ) + 2 cov(X, Y ).
De plus, si X et Y sont ind´ependantes, alors :
V (X + Y ) = V (X) + V (Y ).

´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

24

PREUVE :
La seconde ´egalit´e est une cons´equence de la premi`ere et du th´eor`eme 2.4.6.
Il reste a` montrer la premi`ere ´egalit´e.
V (X + Y ) =
=
=
=
=

E((X + Y )2 ) − (E(X + Y ))2
E(X 2 + 2XY + Y 2 ) − (E(X) + E(Y ))2
E(X 2 ) + 2E(XY ) + E(Y 2 ) − (E(X))2 − 2E(X) E(Y ) − (E(Y ))2
V (X) + V (Y ) + 2 (E(XY ) − E(X) E(Y ))
V (X) + V (Y ) + 2 cov(X, Y ).


Voyons maintenant les propri´et´es de la covariance.
Proposition 2.4.8 Soient X, X1 , X2 , Y , Y1 et Y2 des variables al´eatoires quelconques, a, b, c
et d des r´eels. Alors, les propri´et´es suivantes sont toujours vraies :
1. cov(X, Y ) = cov(Y, X).
2. cov(aX1 + bX2 , Y ) = a cov(X1 , Y ) + b cov(X2 , Y ).
3. cov(X, cY1 + dY2 ) = c cov(X, Y1 ) + d cov(X, Y2 ).
4. cov(aX1 +bX2 , cY1 +dY2 ) = ac cov(X1 , Y1 )+ad cov(X1 , Y2 )+bc cov(X2 , Y1 )+bd cov(X2 , Y2 ).
5. cov(aX + b, cY + d) = ac cov(X, Y ).

Remarque : Les points 1 a` 4 sont des propri´et´es d’un produit scalaire (bilin´earit´e).
PREUVE :
D´emontrons les propri´et´es par simple utilisation de la d´efinition de covariance et des propri´et´es
de l’esp´erance math´ematique :
1. cov(X, Y ) = E(XY ) − E(X) E(Y ) = cov(Y, X).
2.

cov(aX1 + bX2 , Y ) =
=
=
=

E((aX1 + bX2 )Y ) − E(aX1 + bX2 ) E(Y )
E(aX1 Y + bX2 Y ) − (a E(X1 ) + b E(X2 )) E(Y )
a E(X1 Y ) + b E(X2 Y ) − a E(X1 ) E(Y ) − b E(X2 ) E(Y )
a cov(X1 , Y ) + b cov(X2 , Y ).

3. Cette propri´et´e est une cons´equence directe des deux premi`eres.
4. Cette propri´et´e d´ecoule des deux pr´ec´edentes.
5.

cov(aX + b, cY + d) = E (aX + b)(cY + d) − E(aX + b) E(cY + d)
= E(acXY + adX + bcY + bd) − (aE(X) + b)(cE(Y ) + d)
= ac E(XY ) + ad E(X) + bc E(Y ) + bd
−ac E(X) E(Y ) − ad E(X) − bc E(Y ) − bd
= ac E(XY ) − ac E(X) E(Y ) = ac cov(X, Y )

Nous allons maintenant voir quelques lois classiques de variables al´eatoires discr`etes.

`
2.5. LOIS DISCRETES
CLASSIQUES

2.5
2.5.1

25

Lois discr`
etes classiques
Loi uniforme sur un ensemble fini

L’exemple type d’une variable suivant ce type de loi est X le r´esultat d’un lanc´e de d´e.


efinition 2.5.1 Soit X une variable al´eatoire prenant ses valeurs dans l’ensemble {x 1 , x2 , ..., xn }.
1
On dira que X suit une loi discr`ete uniforme si P(X = x i ) = pour tout 1 ≤ i ≤ n.
n
Si xi = i pour tout 1 ≤ i ≤ n, on dira que X suit la loi uniforme discr`ete de param`etre n, not´e
X ∼ U(n).
Cela correspond en fait au cas ´equiprobable. Les probabilit´es valent 1/n car leur somme doit
faire 1 (voir chapitre 1). On peut calculer l’esp´erance et la variance d’une telle loi :
Proposition 2.5.2 Si X ∼ U(n) alors :
E(X) =

n+1
2

et

V (X) =

n2 − 1
.
12

PREUVE :
La d´emonstration se fait simplement par le calcul.
E(X) =

n
X

k P(X = k)

k=1

=

n
X
k
k=1

=

n

n

=

1X
k
n
k=1

n+1
1 n(n + 1)
=
n
2
2

Pour calculer la variance, il faut d’abord calculer E(X 2 ).
E(X 2 ) =

n
X

k 2 P(X = k) =

k=1

n
X
k2
k=1

n

n

=

1 n
1X 2
k =
(2n + 1) (n + 1)
n
n 6
k=1

=

2n2 + 3n + 1
(2n + 1)(n + 1)
=
6
6

On peut alors calculer la variance :
V (X) = E(X 2 ) − (E(X))2 =

n2 − 1
2n2 + 3n + 1 n2 + 2n + 1

=
.
6
4
12


´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

26

2.5.2

Loi de Bernouilli

On consid`ere une urne contenant a boules marqu´ees A et b boules marqu´ees B (il y a donc a + b
boules dans l’urne).
Soit X la variable al´eatoire qui vaut 0 si on tire une boule B et 1 si on tire une A.
a
b
On a alors P(X = 0) =
et P(X = 1) =
= p. On dit que X suit une loi de Bernouilli
a+b
a+b
de param`etre p.

efinition 2.5.3 On dit qu’une variable al´eatoire X suit une loi de Bernouilli de param`etre p
(0 ≤ p ≤ 1) si X ne prend que deux valeurs, 0 et 1, avec les probabilit´es :
P(X = 1) = p

P(X = 0) = 1 − p.

,

On le note X ∼ B(p).
Souvent, on notera q = 1 − p.
Remarque : On peut ´ecrire la loi de probabilit´e de X avec une seule formule :
P(X = k) = pk + (1 − p)(1 − k)

k = 0 ou 1.

Proposition 2.5.4 Si X suit une loi de Bernouilli de param`etre p, alors :
E(X) = p

et

V (X) = p(1 − p).

PREUVE :
Comme pour la loi uniforme, on calcul d’abord l’esp´erance :
E(x) = 0 × P(X = 0) + 1 × P(X = 1) = p
puis l’esp´erance de X 2 :
E(X 2 ) = 02 × P(X = 0) + 12 × P(X = 1) = p
et enfin la variance :
V (X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p).


2.5.3

Loi binomiale

Reprenons l’´epreuve ci-dessus et r´ep´etons-l`a n fois, en remettant la boule tir´ee dans l’urne a`
chaque fois. On note X le nombre de boules A tir´ees (on ne s’int´eresse donc pas a` l’ordre).
On peut voir X comme une somme de variables al´eatoires :
X=

n
X

Xj

j=1

o`
u Xj est la variable qui vaut 1 si on tire une boule A au j eme tirage et 0 sinon. Comme chaque
tirage est ind´ependant des autres (puisqu’on remet la boule tir´ee), on peut consid´erer que les
variables Xj sont ind´ependantes.
De plus, elles suivent toutes une mˆeme loi de Bernouilli de param`etre p.
On dit alors que X suit une loi binomiale de param`etre n (nombre de tirages) et p (probabilit´e
de r´eussir l’´epreuve).

`
2.5. LOIS DISCRETES
CLASSIQUES

27


efinition 2.5.5 Une variable al´eatoire X suit une loi binomiale de param`etres n et p (not´e
n
X
Xj o`
u les Xj sont n variables al´eatoires ind´ependantes suivant une
X ∼ b(n, p)) si X =
j=1

mˆeme loi de Bernouilli de param`etre p.
Dans ce cas, X prend les valeurs 0, 1, ..., n avec la probabilit´e :
P(X = k) = Cnk pk (1 − p)n−k

∀ 0 ≤ k ≤ n.

En effet, si on tire k boules A, il y a Cnk fa¸cons de les tirer (on ne s’int´eresse pas a` l’ordre) et
chacune de ces boules a une probabilit´e p d’ˆetre tir´ee. Il reste les n − k boules B, qui ont une
probabilit´e 1 − p d’ˆetre tir´ee chacune. D’o`
u la d´efinition.
Grˆace a` la formule du binˆome, on a bien :
n
X

P(X = k) =

k=0

n
X
k=0

Cnk pk (1 − p)n−k = (p + 1 − p)n = 1.

Proposition 2.5.6 Si X ∼ b(n, p), alors :
E(X) = np

et

V (X) = np(1 − p).

PREUVE :
On utilise les propri´et´es de l’esp´erance et la d´efinition d’une loi binomiale :


n
n
n
X
X
X
p = np.
E(Xj ) =
Xj  =
E(X) = E 
j=1

j=1

j=1

De mˆeme, comme les variables Xj sont ind´ependantes,


n
n
n
X
X
X


p(1 − p) = np(1 − p).
V (Xj ) =
Xj =
V (X) = V
j=1

j=1

j=1


Pour la loi binomiale, il existe une propri´et´e de stabilit´e, ce qui n’est pas vrai en g´en´eral pour
les autres lois.
Proposition 2.5.7 Soient X et Y deux variables al´eatoires suivant respectivement une loi binomiale b(n, p) et b(m, p) (les deux variables ont le mˆeme param`etre p). Si X et Y sont ind´ependantes, alors X + Y suit une loi binomiale b(n + m, p).
PREUVE :
On peut voir X comme la somme de n variables (X i )1≤i≤n de mˆeme loi de Bernouilli de param`etre
p, ind´ependantes.
De mˆeme, on peut voir Y comme la somme de m variables (X i )n+1≤i≤n+m de mˆeme loi de
Bernouilli de param`etre p, ind´ependantes.
Comme X et Y sont ind´ependantes, les (X i )1≤i≤n+m sont ind´ependantes, et toutes de mˆeme loi
de Bernouilli de param`etre p.
n+m
P
Xi , par d´efinition, X + Y suit une loi binomiale de param`etre n + m et p.
De plus, X + Y =
i=1


On verra une autre preuve de cette proposition dans un chapitre ult´erieur.

´
`
CHAPITRE 2. VARIABLES ALEATOIRES
DISCRETES

28

2.5.4

Loi hyperg´
eom´
etrique

Reprenons l’´epreuve : on tire n boules dans l’urne. Mais cette fois, on suppose qu’on le fait sans
remise.
Dans le cas de la loi binomiale, on pouvait faire autant de tirage qu’on voulait. Ici, on ne peut
pas en faire plus de a + b, le nombre de boules dans l’urne, c’est-`a-dire 1 ≤ n ≤ a + b.
Notons X le nombre de boules A tir´ees. Cette variable prend les valeurs enti`eres plus petites
que a (on ne peut pas tirer plus de boules A qu’il n’y en a dans l’urne) ; de plus, n − X doit ˆetre
plus petit que le nombre de boules B. On a alors :
P(X = k) =

Cak Cbn−k
n
Ca+b

∀ 0 ≤ k ≤ a et 0 ≤ n − k ≤ b.


efinition 2.5.8 Soit a, b et n dans IN ∗ tels que n ≤ a+b. Une variable al´eatoire X suit une loi
hyperg´eom´etrique de param`etres n, a et b (not´e X ∼ H(n, a, b)) si elle prend ses valeurs k entre
C k C n−k
max(0, n − b) et min(a, n) et si P(X = k) = a n b
pour tout max(0, n − b) ≤ k ≤ min(a, n).
Ca+b
On peut calculer l’esp´erance et la variance de cette loi.
Proposition 2.5.9 Si X ∼ H(n, a, b), alors :
E(X) =
o`
u p=

na
= np
a+b

et

V (X) =

nab a + b − n
a+b−n
= np(1 − p)
2
(a + b) a + b − 1
a+b−1

a
.
a+b

La d´emonstration est complexe (surtout celle de la variance), on ne la fera pas.
Elle se fait en introduisant des variables E j suivant des lois de Bernouilli, qui valent 1 si on
a
X
1Ej puis on ´evalue le param`etre de
a tir´e la boule A num´ero j. On montre alors que X =
j=1

Bernouilli de ces variables.

2.5.5

Tableau r´
ecapitulatif

Nous pr´esentons dans ce tableau les r´esultats des principales variables al´eatoires classiques a`
connaˆıtre (uniforme, Bernouilli, binomiale et hyperg´eom´etrique) et l’hyperg´eom´etrique.
Loi de X

Valeurs de X

P(X = k)
E(X)
1
n+1
U(n)
{1, 2, ..., n}
n
2
B(p)
{0, 1}
p si k = 1, 1 − p si k = 0
p
b(n, p)
{0, 1, ..., n}
Cnk pk (1 − p)n−k
np
n−k
k
Ca Cb
na
H(n, a, b) max(0, n − b) ≤ k ≤ min(a, n)
n
Ca+b
a+b

V (X)
n2 − 1
12
p(1 − p)
np(1 − p)
nab a + b − n
(a + b)2 a + b − 1

Chapitre 3

Variables al´
eatoires d´
enombrables
Dans le chapitre 2, nous avons trait´e des cas o`
u une variable al´eatoire X prenait un nombre fini
de valeurs.
Mais il peut arriver qu’une variable prenne un nombre infini de valeurs.
Par exemple, on lance un d´e jusqu’`a ce qu’on obtienne 1. On note X le nombre de lanc´es
n´ecessaires. Alors, X peut prendre n’importe quelle valeur de IN ∗ .

3.1

Variable al´
eatoire d´
enombrable


efinition 3.1.1 Soit (xk )k∈IN une suite de r´eels et (pk )k∈IN une
Xsuite de r´eels distincts dans
[0, 1] telle que la s´erie de terme g´en´eral p k converge vers 1 (i.e.
pk = 1).
k∈IN

On dit que X est une variable al´eatoire d´enombrable de loi de probabilit´e {(x k )k∈IN , (pk )k∈IN } si
X prend les valeurs xk avec une probabilit´e pk , c’est-`
a-dire si :
P(X = xk ) = pk

∀ k ∈ IN.

Il faut que la somme des probabilit´es des ´ev´enements ´el´ementaires soit ´egale a` 1. D’o`
u la condin
X
X
tion
pk = 1 (c’est-`a-dire lim
pk = 1). On pourra voir le cours de M8 pour plus
k∈IN

n7→+∞

k=0

d’informations sur les s´eries.


efinition 3.1.2 On appelle fonction de r´epartition de X la fonction F d´efinie sur IR par
F (x) = P(X ≤ x).
La fonction de r´epartition d’une variable al´eatoire d´enombrable poss`ede les mˆemes propri´et´es
que celle d’une variable al´eatoire discr`ete. On ne distinguera donc pas les deux cas.
Proposition 3.1.3 Soit F la fonction de r´epartition d’une variable al´eatoire d´enombrable X.
Les propri´et´es suivantes sont toujours vraies :
– La fonction F est a
` valeurs dans [0, 1].
– F croissante (car si x < y, P(X ≤ x) ≤ P(X ≤ y)).
– Pour tout x et y r´eels tels que x < y, on a P(x < X ≤ y) = F (y) − F (x).

lim F (x) = 0
lim F (x) = 1.
x7→−∞

x7→+∞

– Cette fonction est continue a
` droite et en escalier.
– Pour tout x ∈ IR, on a P(X = x) = F (x) − F (x − ).
29

´
´
CHAPITRE 3. VARIABLES ALEATOIRES
DENOMBRABLES

30

Comme pour le cas discret, la connaissance de la loi de probabilit´e permet de connaˆıtre la fonction de r´epartition, et r´eciproquement.
On peut d´efinir l’esp´erance et la variance :

efinitionX
3.1.4 Une variable al´eatoire d´enombrable X admet une esp´erance si et seulement
si la s´erie
xk pk converge. Dans ce cas,
k∈IN

E(X) =

X

xk pk =

k∈IN

X

xk P(X = xk ).

k∈IN


efinition 3.1.5 Une variable al´eatoire
Xd´enombrable X admet une variance si et seulement si
elle admet une esp´erance et si la s´erie
x2k pk converge. Alors :
k∈IN


V (X) = E (X − E(X))2 = E(X 2 ) − (E(X))2 .

ATTENTION, dans le cas d’une variable al´eatoire d´enombrable, l’esp´erance et la variance
n’existent pas forc´ement. De plus, la variance peut ne pas exister alors que l’esp´erance existe.
On peut d´efinir, de la mˆeme fa¸con que dans le chapitre 2, l’ind´ependance de deux variables
al´eatoires.

efinition 3.1.6 Deux variables al´eatoires d´enombrables X et Y (prenant les valeurs (x k )k∈IN
et (yl )l∈IN respectivement) sont dites ind´ependantes si, pour tout k ∈ IN et tout l ∈ IN, on a :
P(X = xk , Y = yl ) = P(X = xk ) P(Y = yl ).
L’esp´erance et la variance d’une variable al´eatoire d´enombrable ont les mˆemes propri´et´es que
celles vues dans le chapitre 2.
Proposition 3.1.7 Soit X et Y deux variables al´eatoires d´enombrables, a et b deux r´eels. Si
les esp´erances et les variances utilis´ees existent, les propri´et´es suivantes sont vraies :
1. E(X + Y ) = E(X) + E(Y ).
2. E(aX + b) = a E(X) + b.
3. V (aX + b) = a2 V (X).
4. Si X⊥
⊥Y alors E(XY ) = E(X) E(Y ).

5. Si X⊥
⊥Y alors V (X + Y ) = V (X) + V (Y ).

La preuve des points 1 et 4 se fait comme celle du chapitre 2, en rempla¸cant les sommes finies
par des s´eries.
Les points 2, 3 et 5 se d´emontrent exactement de la mˆeme fa¸con qu’au chapitre 2.
Nous allons maintenant voir les lois habituelles d´enombrables.

3.2

Lois g´
eom´
etriques

Reprenons l’exemple du d´ebut.
Supposons qu’on obtienne 1 pour la premi`ere fois au k eme tirage (k ≥ 1). On a alors :
T
T
er tirage
eme tirage
P(X = k) = P(ne
pas
obtenir
1
au
1
ne
pas
obtenir
1
au
2
...
T
T
eme
eme
... ne pas obtenir 1 au k − 1
tirage obtenir 1 au k
tirage)

´
´
3.2. LOIS GEOM
ETRIQUES

31

Comme les tirages sont ind´ependants, on peut supposer que les ´ev´enements ci-dessus le sont
aussi et donc :
P(X = k) = P(ne pas obtenir 1 au 1er tirage) P(ne pas obtenir 1 au 2eme tirage)...
...P(ne pas obtenir 1 au k − 1eme tirage) P(obtenir 1 au k eme tirage)
5 5
5 1
=
× × ... × ×
6 6
6 6
k−1


5
1
1 k−1 1
=
= 1−
.
6
6
6
6

efinition 3.2.1 Une variable al´eatoire X suit une loi g´eom´etrique de param`etre p (0 < p < 1)
a
` valeurs dans IN∗ si, pour tout k ∈ IN∗ ,
P(X = k) = (1 − p)k−1 p.
On le note X ∼ G∗ (p).
Remarque : On peut v´erifier que la somme des probabilit´es ´el´ementaires fait un bien 1 :
+∞
X

P(X = k) = p

+∞
X
k=1

k=1

= p

+∞
X
k=0

= p×
= 1.

(1 − p)k−1
(1 − p)k

1
1 − (1 − p)

(car − 1 < 0 < p < 1)

Remarque : Si on note X le nombre de fois o`
u on r´ep`ete l’exp´erience avant de la r´eussir et si p
est la probabilit´e de r´eussite de cette exp´erience, alors X ∼ G ∗ (p).
Il arrive qu’on ait besoin de prendre en compte toutes les valeurs enti`eres positives, 0 compris. Dans ce cas, soit Y la variable al´eatoire d´efinie par Y = X − 1 o`
u X ∼ G ∗ (p). On dira que
Y ∼ G(p).

efinition 3.2.2 On dit qu’une variable al´eatoire Y suit une loi g´eom´etrique de param`etre p
(0 < p < 1) a
` valeurs dans IN si Y + 1 = X avec X ∼ G ∗ (p), c’est-`
a-dire si, pour tout k ∈ IN,
on a :
P(Y = k) = P(X = k + 1) = (1 − p)k p.
On le note Y ∼ G(p).

Proposition 3.2.3 Si X ∼ G∗ (p) et Y ∼ G(p), X et Y admettent une esp´erance valant :
E(X) =

1
p

et

E(Y ) =

1−p
.
p

PREUVE :
Montrons que E(X) existe :
+∞
X
k=1

k P(X = k) =

+∞
X

k (1 − p)k−1 p

k=1
+∞
X

= p

k=1

= p×

k (1 − p)k−1

1
1
=
2
(1 − (1 − p))
p

´
´
CHAPITRE 3. VARIABLES ALEATOIRES
DENOMBRABLES

32
+∞
X

1
(qui converge uniform´ement sur tout [a, b], −1 < a < b < 1)
1−x
k=0
est d´erivable terme a` terme sur ] − 1, 1[ et par d´erivation on obtient :
car la s´erie enti`ere

xk =

+∞
X

k xk−1 =

k=1

1
(1 − x)2

∀ − 1 < x < 1.

On pourra voir le cours de M8 pour plus de d´etails.
1
Donc E(x) existe et vaut . Par cons´equent, grˆace aux propri´et´es de l’esp´erance,
p
E(Y ) = E(X − 1) = E(X) − 1 =

1
1−p
−1=
.
p
p


Proposition 3.2.4 Si X ∼ G∗ (p) et Y ∼ G(p), X et Y admettent une variance valant :
V (X) = V (Y ) =

1−p
.
p2

PREUVE :
Nous avons vu, dans la proposition pr´ec´edente, que E(X) =
existe bien :
+∞
X

k 2 P(X = k) =

+∞
X
k=1

k=1

=

(k 2 − k + k) P(X = k)

+∞
X

k P(X = k) + p

k=1

Or, comme on l’a vu ci-dessus, la s´erie enti`ere
] − 1, 1[. Elle l’est mˆeme deux fois, et on a :

k=2

On a donc :

+∞
X

k=1

k(k − 1)xk−2 =

+∞
X
k=2

= E(X) + p(1 − p)

+∞
X

+∞
X

+∞
X

k=2

xk =

k=0

2
(1 − x)3

k (k − 1) (1 − p)k−1

k (k − 1) (1 − p)k−2
1
est d´erivable terme a` terme sur
1−x

∀ − 1 < x < 1.

k 2 P(X = k) = E(X) + p (1 − p)

Donc E(X 2 ) existe et vaut

1
. Il reste a` v´erifier que E(X 2 )
p

=

1 2(1 − p)
+
p
p2

=

2−p
p2

2
(1 − (1 − p))3

2−p
; on en d´eduit que la variance de X existe et vaut :
p2

V (X) = E(X 2 ) − (E(X))2 =

1
1−p
2−p
− 2 =
.
p2
p
p2

33

3.3. LOI DE POISSON
Grˆace aux propri´et´es de la variance, on obtient aussi celle de Y :
V (Y ) = V (X − 1) = V (X) =

1−p
.
p2


3.3

Loi de Poisson


efinition 3.3.1 On dit que X suit une loi de Poisson de param`etre λ (λ > 0) si X prend ses
valeurs dans IN et si, pour tout k ∈ IN, on a :
P(X = k) =

λk −λ
e .
k!

On le note X ∼ P(λ).
Remarque :

X xk
k≥0

k!

est la s´erie enti`ere de ex et est de rayon de convergence infini. Donc :

X

P(X = k) = e−λ

k≥0

X λk
k≥0

k!

= e−λ eλ = 1.

Dans quels cas utilise-t-on une loi de Poisson ? La plupart du temps, comme approximation
d’une loi binomiale, grˆace a` la proposition suivante :
Proposition 3.3.2 Soit (Xn )n∈IN une suite de variables al´eatoires suivant une loi binomiale
b(n, pn ), telles que lim n pn = λ avec λ > 0. Alors, pour tout k ∈ IN,
n7→+∞

lim P(Xn = k) =

n7→+∞

λk e−λ
= P(Y = k)
k!

o`
u Y ∼ P(λ).
PREUVE :
Soit n ≥ k. On a :

P(Xn = k) = Cnk pkn (1 − pn )n−k
n!
=
pk (1 − pn )n−k
k!(n − k)! n
1 (n − k + 1)(n − k + 2)...(n − 1) n
(n pn )k (1 − pn )n−k
=
k!
nk

Or, quand n tend vers l’infini ; n(n − 1)...(n − k + 1) ∼ n k . On en d´eduit la limite :
nk
(n − k + 1)...(n − 1) n
=
lim
= 1.
n7→+∞ nk
n7→+∞
nk
lim

Par hypoth`ese, lim n pn = λ. Donc :
n7→+∞

lim (n pn )k = λk .

n7→+∞

Il ne reste plus qu’`a d´eterminer la limite de (1 − p n )n−k = e(n−k) ln(1−pn ) .
Or, vu que lim n pn = λ, on a n´ecessairement lim pn = 0, donc quand n tend vers l’infini,
n7→+∞

n7→+∞

ln(1 − pn ) ∼ −pn . D’o`
u:
lim (1 − pn )n−k = lim e−(n−k)

n7→+∞

n7→+∞

pn

= lim e−n
n7→+∞

p n k pn

e

= e−λ e0 = e−λ .

´
´
CHAPITRE 3. VARIABLES ALEATOIRES
DENOMBRABLES

34
Au final, on a donc :

lim P(Xn = k) =

n7→+∞

1
λk −λ
× 1 × λk × e−λ =
e .
k!
k!


En pratique, si on a X ∼ b(n, p) avec n grand et p petit (par exemple, n > 50 et p < 0, 1), on
peut remplacer X par Y ∼ P(np) dans les calculs. C’est-`a-dire, pour tout 0 ≤ k ≤ n,
P(X = k) ' P(Y = k) =

(np)k −np
e
.
k!

C’est en g´en´eral plus facile a` calculer.
On reparlera de cette approximation dans un chapitre ult´erieur.
Proposition 3.3.3 Soit X ∼ P(λ). Alors X admet une esp´erance et une variance et :
E(X) = V (X) = λ.
PREUVE :
Montrons que l’esp´erance de X existe.
+∞
X

k P(X = k) =

k=0

+∞
X

k=1
+∞
X

k P(X = k)

λk −λ
e
k!
k=1
+∞
X
λk−1
= λe−λ
(k − 1)!
k=1
+∞
X λl
= λe−λ
avec l = k − 1
l!
=

k

l=0

= λe−λ eλ = λ.

Donc l’esp´erance de X existe et vaut bien λ. Montrons maintenant que l’esp´erance de X 2 existe
aussi.
+∞
+∞
X
X
λk −λ
k2
k 2 P(X = k) =
e
k!
k=1
k=0
+∞
X
λk −λ
e
=
(k 2 − k + k)
k!
k=1
+∞
+∞
X
λk −λ X λk −λ
k (k − 1)
=
k
e +
e
k!
k!
k=2
k=1
+∞
k−2
X
λ
+ E(X)
= λ2 e−λ
(k − 2)!
k=2

= λ2 e−λ eλ + λ = λ2 + λ.

L’esp´erance E(X 2 ) est bien d´efinie, donc la variance de X l’est aussi :
V (X) = E(X 2 ) − (E(X))2 = λ2 + λ − λ2 = λ.


´
3.4. TABLEAU RECAPITULATIF

35

La loi de Poisson pouvant ˆetre consid´er´ee comme la “limite” d’une loi binomiale, il parait raisonnable de penser qu’elle poss`ede, comme la loi binomiale, une propri´et´e de stabilit´e. C’est
effectivement le cas :
Proposition 3.3.4 Soient X et Y deux variables al´eatoires suivant les lois de Poisson respectives P(a) et P(b).
Alors, si X et Y sont ind´ependantes, X + Y suit une loi de Poisson P(a + b), c’est-`
a-dire :
X⊥
⊥Y =⇒ X + Y ∼ P(a + b).
PREUVE :
Puisque X et Y sont a` valeurs dans IN, leur somme X + Y l’est aussi.
Soit n ∈ IN.
P(X + Y = n) = P

n
[

(X = k ∩ Y = n − k)

k=0

=
=
=
=
=
=

n
X

k=0
n
X

k=0
n
X



P(X = k ∩ Y = n − k)
P(X = k) P(Y = n − k)
e−a

k=0
e−(a+b)

n!

par incompatibilit´e
car X⊥
⊥Y

ak −b bn−k
e
k!
(n − k)!
n
X
n!
ak bn−k
k!(n − k)!
k=0
n
X
Cnk ak bn−k

e−(a+b)
n!
k=0
(a + b)n −(a+b)
e
n!

(formule du binˆome)

On a donc bien X + Y ∼ P(a + b).


3.4

Tableau r´
ecapitulatif

On r´esume ici les r´esultats des lois g´eom´etriques et de Poisson :
Loi de X Valeurs de X
G∗ (p)

IN∗

G(p)

IN

P(λ)

IN

P(X = k)

E(X) V (X)
1
1−p
(1 − p)k−1 p
p
p2
1

p
1
−p
(1 − p)k p
p
p2
k
λ −λ
λ
λ
e
k!

36

´
´
CHAPITRE 3. VARIABLES ALEATOIRES
DENOMBRABLES

Chapitre 4

Variables al´
eatoires r´
eelles
Commen¸cons par un exemple.
On note X la dur´ee d’une conversation t´el´ephonique. La variable X peut prendre n’importe
quelle valeur dans IR∗+ . Cependant, on sent instinctivement qu’il n’y a aucune chance pour que
X soit de 2 minutes exactement.
Par contre, il y a des chances que X soit comprise entre 1 minute 50 et 2 minutes 10.
On dit que X est une variable al´eatoire a` densit´e, ou continue ou r´eelle.

4.1

Densit´
e


efinition 4.1.1 Soit f : IR → IR, on dit que f est une densit´e de probabilit´e si les conditions
suivantes sont v´erifi´ees :
1. f est continue par morceaux sur IR.
2. f (t) ≥ 0
∀ t ∈ IR.
+∞
Z
f (t) dt = 1.
3.
−∞

La densit´e est l’analogue d’une loi de probabilit´e dans le cas discret ou d´enombrable. Les termes
sont positifs et leur “somme” vaut 1.
Attention, cependant, f (t) n’est pas une loi de probabilit´e. Par exemple, on peut avoir f (t) > 1,
ce qui n’est pas le cas avec une probabilit´e. En effet, si on prend l’exemple suivant : soit n ∈ IN ∗ :

−1
2

≤t≤0
si

 n t+n
n
1
fn (t) =
−n2 t + n
si 0 ≤ t ≤


n

0
sinon

Cette fonction fn est bien une densit´e des probabilit´e (elle v´erifie toutes les propri´et´es), mais
fn (0) = n.

efinition 4.1.2 Soit f une densit´e de probabilit´e. On dit qu’une variable al´eatoire X est de
densit´e de probabilit´e f si, pour tout a et b r´eels tels que a ≤ b,
P(a ≤ X ≤ b) =

Zb

f (t) dt.

a

On dit alors que X est une variable al´eatoire a
` densit´e ou continue ou encore r´eelle (ce qu’on
notera X v.a.r.).
37

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

38

Remarque : Soit a ∈ IR. On a, d’apr`es la d´efinition :
P(X = a) = P(a ≤ X ≤ a) =

Za

f (t) dt = 0.

a

C’est une distinction importante du cas discret ou d´enombrable. Ici, la probabilit´e que X prenne
une valeur particuli`ere est forc´ement nulle. On calcule les probabilit´es que X soit dans un
intervalle ou un sous-ensemble de IR non d´enombrable.
Remarque : Une cons´equence imm´ediate est que, dans le cas continu, les in´egalit´es strictes ou
larges sont indiff´erentiables.
C’est-`a-dire, si X est une v.a.r., et si a ≤ b r´eels,
P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a ≤ X < b) = P(a < X < b).

efinition 4.1.3 On appelle fonction de r´epartition d’une v.a.r. X de densit´e f la fonction F
d´efinie sur IR par :
Zx
f (t) dt.
F (x) = P(X ≤ x) =
−∞

On aurait pu la d´efinir par F (x) = P(X < x), mais il est pr´ef´erable de garder la d´efinition d´ej`a
vue pr´ec´edement par soucis de coh´erence.
La fonction de r´epartition est d´efinie par l’int´egrale de la densit´e, on paut donc la voir comme
l’aire de la surface d´elimit´ee par l’axe des abcisses, la courbe de la densit´e et un segment d´ependant de x. Par contre, les propri´et´es diff`erent quelque peu par rapport aux cas discret et
d´enombrable.
Proposition 4.1.4 Soit F la fonction de r´epartition d’une v.a.r. X de densit´e f . Alors :
1. F est a
` valeurs dans [0, 1].
2. F est croissante sur IR.
3. Pour tout a ≤ b r´eels, P(a < X ≤ b) = F (b) − F (a).
4.

lim F (x) = 0 et lim F (x) = 1.

x7→−∞

x7→+∞

5. F est continue sur IR.

6. F est d´erivable sur IR, sauf en au plus un nombre d´enombrable de points, et F 0 (x) = f (x)
si F d´erivable en x.
En fait, seules les deux derni`eres propri´et´es changent.
F est maintenant continue au lieu d’ˆetre juste continue a` droite. C’est ce qui permet de distinguer
la fonction de r´epartition d’une v.a.d. de celle d’une v.a.r.
Le dernier point permet d’obtenir la densit´e lorsqu’on connait la fonction de r´epartition :
– Si on connait f , on obtient F en int´egrant.
– Si on connait F , on obtient f en d´erivant.
La relation entre F et f est utile lorsqu’on cherche la densit´e d’une variable ϕ(X), o`
u ϕ est une
fonction continue sur IR.
Th´
eor`
eme 4.1.5 Si ϕ est une fonction continue sur IR et si X est une v.a.r., alors Y = ϕ(X)
est une v.a.r.
On ne va pas d´emontrer ce th´eor`eme, juste donner la technique qui permet d’obtenir la densit´e
de Y .

´
´
4.2. ESPERANCE,
VARIANCE ET INDEPENDANCE

39

Notons FX la fonction de r´epartition de X et F Y celle de Y .
Soit x ∈ IR.
FY (x) = P(Y ≤ x)
= P(ϕ(X) ≤ x)
= P(ϕ(X) ∈] − ∞, x])
= P X ∈ ϕ−1 (] − ∞, x])

Il suffit d’exprimer P X ∈ ϕ−1 (] − ∞, x]) en fonction de FX puis de d´eriver pour obtenir la
densit´e de Y .
Par exemple, si ϕ(X) =

2X − 3
= Y , alors pour tout x ∈ IR,
5
FY (x) = P(ϕ(X) ≤ x)
2X − 3
≤x
5



5x + 3
= P X≤
2



= P




= FX
donc si FX

4.2



5x + 3
2



5x + 3
5
est d´erivable en
, fY (x) = FY0 (x) = fX
2
2




5x + 3
.
2

Esp´
erance, variance et ind´
ependance

+∞
Z

efinition 4.2.1 Soit X une v.a.r. de densit´e f . Si
x f (x) dx existe, X admet une esp´erance
−∞

d´efinie par :

+∞
Z
x f (x) dx.
E(X) =

De plus, si ϕ est une fonction r´eelle,

−∞

+∞
Z
ϕ(x) f (x) dx
E(ϕ(X)) =
−∞

si elle existe.
C’est l’analogue du cas d´enombrable. Au lieu d’avoir des sommes, on a des int´egrales.
+∞
Z
(x − m)2 f (x) dx

efinition 4.2.2 Soit X une v.a.r. de densit´e f et d’esp´erance m. Si

existe, alors X admet une variance d´efinie par :
+∞
Z
V (X) =
(x − m)2 f (x) dx = E(X 2 ) − (E(X))2
−∞

+∞
Z
o`
u E(X ) =
x2 f (x) dx.
2

−∞

−∞

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

40

Remarque : De la mˆeme fa¸con que pour les lois d´enombrables, l’esp´erance et la variance d’une
v.a.r. n’existent pas forc´ement.

efinition 4.2.3 Soit X et Y deux v.a.r. On dit que X et Y sont ind´ependantes (not´e X⊥
⊥Y )
si, pour tout x et y r´eels,
P(X ≤ x, Y ≤ y) = P(X ≤ x) P(Y ≤ y).
On peut aussi d´efinir la covariance par cov(X, Y ) = E(XY ) − E(X) E(Y ).
On ´etudiera plus pr´ecisement les couples de v.a.r. dans le prochain chapitre.
On retrouve les propri´et´es de l’esp´erance et de la variance.
Proposition 4.2.4 Soit X et Y deux v.a.r. et a et b deux r´eels.
Si les esp´erances et les variances utilis´ees existent, alors :
1. E(X + Y ) = E(X) + E(Y ).
2. E(aX + b) = a E(X) + b.
3. Si X⊥
⊥Y , alors E(XY ) = E(X) E(Y ).
4. V (aX + b) = a2 V (X).

5. Si X⊥
⊥Y , alors V (X + Y ) = V (X) + V (Y ).
La d´emonstration se fait comme dans le chapitre 2, en utilisant des int´egrales, sauf les propri´et´es
1 et 3 qui utilisent des notions du prochain chapitre sur les couples. On l’admettra en attendant.
Pour reprendre la structure des chapitres 2 et 3, nous allons maintenant voir les lois continues
classiques.

4.3

Lois continues classiques

A la diff´erence des autres lois d´ej`a vues, il n’y aura pas d’exemple type d’application des lois
(sauf pour un cas particulier).

4.3.1

Loi uniforme


efinition 4.3.1 Soit a et b deux r´eels tels que a < b.
On dit qu’une v.a.r. X suit la loi uniforme sur ]a, b[ (not´e X ∼ U(]a, b[)) si elle a pour densit´e
de probabilit´e la fonction :

 1
si a < x < b
f (x) =
b−a
 0
sinon
C’est l’analogue de la loi uniforme discr`ete en continue.

Proposition 4.3.2 Si X ∼ U(]a, b[), alors X a pour fonction de r´epartition :


 0x − a
F (x) =

 b−a
1

si x ≤ a

si a < x < b

si b ≤ x

41

4.3. LOIS CONTINUES CLASSIQUES
PREUVE :
Etudions les 3 cas :
Si x ≤ a,

Zx

F (x) =

f (t) dt =

−∞

Zx

0 dt = 0.

Zx

1
dt
b−a

−∞

Si a < x < b,
F (x) =

Za

0 dt +

−∞



t
= 0+
b−a
x−a
.
=
b−a
Si b ≤ x,

Za

F (x) =

f (t) dt +

Zb

a

x
a

f (t) dt +

a

−∞

Zx

f (t) dt

b

b−a
= 0+
+ 0 = 1.
b−a



Proposition 4.3.3 Si X ∼ U(]a, b[), X admet une esp´erance et une variance :
a+b
2

E(X) =

et

V (X) =

(a − b)2
.
12

PREUVE :
V´erifions l’existence de E(X) :
+∞
Z
Zb
x f (x) dx =
a

−∞

=

b2

x
dx =
b−a
a2


2(b − a)



x2
2(b − a)

b

a

(b + a)(b − a)
a+b
=
.
2(b − a)
2

=

a+b
.
2
Montrons que E(X 2 ) existe aussi :
Donc E(X) existe et vaut

+∞
Z
Zb
x2
2
dx
x f (x) dx =
b−a

−∞

a

b3

a3

=


3(b − a)

=

a2 + ab + b2
3

=
=



x3
3(b − a)

(b −

b

a)(b2

a

+ ab + a2 )
3(b − a)

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

42
Donc V (X) existe et :

V (X) = E(X 2 ) − (E(X))2
=

a2 + ab + b2 (b + a)2

3
4

=

4a2 + 4ab + 4b2 − 3b2 − 6ab − 3a2
12

=

(a − b)2
a2 − 2ab + b2
=
.
12
12


4.3.2

Loi de Cauchy


efinition 4.3.4 On dit qu’une v.a.r. X suit la loi de Cauchy si sa densit´e de probabilit´e est
la fonction :
1
∀ x ∈ IR.
f (x) =
π(1 + x2 )
Cette loi n’a pas de param`etre, c’est pour cela qu’on parle de la loi de Cauchy, et pas d’une loi
de Cauchy.
Proposition 4.3.5 Si X suit la loi de Cauchy, elle a pour fonction de r´epartition la fonction :
F (x) =
PREUVE :
Soit x ∈ IR :

1
π
arctan(x) +
π
2

F (x) =

Zx

∀ x ∈ IR.

f (t) dt

−∞
Zx

1
dt
π(1 + t2 )
−∞

x
1
=
arctan(t)
π
−∞

1
−π
) .
=
arctan(x) − (
π
2
=


Proposition 4.3.6 Si X suit une loi de Cauchy, elle n’a ni esp´erance ni variance.
Cette loi est le seul cas, parmi les lois classiques, qui ne poss`ede pas d’esp´erance.
PREUVE :
Montrons que l’esp´erance n’existe pas.
+∞
+∞
Z
Z
x f (x) dx =

−∞

−∞

x
dx.
π(1 + x2 )

43

4.3. LOIS CONTINUES CLASSIQUES
Or, quand x 7→ ±∞,

x
1
se comporte comme qui n’est pas int´egrable a` l’infini.
2
1+x
x

+∞
Z
x f (x) dx n’existe pas, et l’esp´erance non plus.
Donc
−∞

De mˆeme,
+∞
+∞
Z
Z
2
x f (x) dx =
−∞

−∞

Or, quand x 7→ ±∞,

x2
dx.
π(1 + x2 )

x2
se comporte comme 1 qui n’est pas int´egrable a` l’infini.
1 + x2

+∞
Z
x2 f (x) dx n’existe pas, et la variance non plus.
Donc
−∞



4.3.3

Loi exponentielle


efinition 4.3.7 Soit λ > 0.
On dit qu’une v.a.r. X suit une loi exponentielle de param`etre λ (not´e X ∼ E(λ)) si sa densit´e
de probabilit´e est :

0
si x ≤ 0
f (x) =
λ e−λx si 0 < x
Proposition 4.3.8 Si X ∼ E(λ), X a pour fonction de r´epartition la fonction :
F (x) =
PREUVE :
Si x ≤ 0,
F (x) =



Zx

0
si x ≤ 0
1 − e−λx si 0 < x

f (t) dt =

−∞

Zx

0 dt = 0.

−∞

Si x > 0,
F (x) =

Z0

f (t) dt +

−∞

= 0+
=

h

−e

Zx

Zx

f (t) dt

0

λ e−λt dt

0 i
x
−λt
0

= 1 − e−λx .


Proposition 4.3.9 Si X ∼ E(λ), alors X admet une esp´erance et une variance et :
E(X) =

1
λ

et

V (X) =

1
.
λ2

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

44

PREUVE :
Montrons que l’esp´erance existe. Il faut faire une int´egration par parties :
+∞
Z
x f (x) dx =

+∞
Z
λ x e−λx dx

−∞

0

h

=

−x e

−λx

i+∞
0

−e−λx
= 0+
λ
1
e0
= .
= 0+
λ
λ


+∞
Z
+
e−λx dx

+∞

0

0

1
.
λ
Pour montrer que l’esp´erance de X 2 existe, on va encore faire une int´egration par parties.

Donc l’esp´erance existe et vaut

+∞
Z
x2 f (x) dx =

−∞

=

+∞
Z
λ x2 e−λx dx
0

h

2

−x e

−λx

i+∞
0

+∞
Z
+2
x e−λx dx

2
2
= 0 + E(X) = 2 .
λ
λ

0

Alors, la variance existe et vaut :
V (X) = E(X 2 ) − (E(X))2 =

1
1
2

= 2.
λ2 λ2
λ


La loi exponentielle a une propri´et´e sp´eciale : l’absence de m´emoire, ou processus sans m´emoire.
C’est cette caract´eristique qui fait qu’on l’utilise en g´en´eral pour simuler des temps d’attente
(d’un bus, dur´ee d’une conversation t´el´ephonique, etc).
Soit X ∼ E(λ). On suppose que X > x (la conversation, par exemple, dure depuis x minutes).
On veut calculer la probabilit´e que X < y (o`
u x < y).
P(X < y/X > x) =

P(X < y, X > x)
P(X > x)

=

P(x < X < y)
P(x < X < +∞)

=

F (y) − F (x)
1 − F (x)

=

1 − e−λy − 1 + e−λx
1 − 1 + e−λx

= 1 − e−λ(y−x) = F (y − x) = P(X < y − x).
D’o`
u la proposition :

45

4.3. LOIS CONTINUES CLASSIQUES
Proposition 4.3.10 Si X ∼ E(λ), alors pour tous r´eels x et y tels que 0 < x < y, on a :
P(X < y/X > x) = P(X < y − x).

C’est ce qu’on appelle ph´enom`ene sans m´emoire : qu’on consid`ere que le ph´enom`ene d´emarre a`
l’instant ou qu’on suppose qu’il a d´emarrer depuis un temps x revient au mˆeme.

4.3.4

Loi normale


efinition 4.3.11 On dit qu’une v.a.r. X suit la loi normale de param`etres 0 et 1 (not´e X ∼
N(0, 1)) si sa densit´e est la fonction :
x2
1
f (x) = √ e− 2


∀ x ∈ IR.

Il est int´eressant de v´erifier que l’int´egrale de la densit´e sur IR vaut bien 1.
+∞
Z
x2
e− 2 dx :
Calculons I =
−∞

 +∞
  +∞

Z
Z
ZZ
2
2
2
− x2
− y2




I =
dx
dy =
e
e
−∞

−∞

IR2

e−

x2 +y 2
2

dxdy.

On proc`ede a` un changement de variables : on passe en coordonn´ees polaires :


x = r cos(θ)
y = r sin(θ)

avec



r ∈ ]0, +∞[
θ ∈ [0, 2π[

et dxdy = rdrdθ.

Avec ce changement de variables, I 2 devient :
I2

+∞
Z2π Z
r2
=
e− 2 rdrdθ

=

0 0
+∞
Z

re

2

− r2

dr

Z2π



0
+∞ 0
r2
= −e− 2
× [θ]2π
0
0

= (0 + 1) × 2π = 2π.

Donc on a I =


2π car I > 0 et par cons´equent l’int´egrale de la densit´e vaut bien 1.

Remarque : Pour tout x ∈ IR,
1
P(X ≤ x) = √

t2

Zx

t2

e− 2 dt.

−∞

On ne sait pas calculer de primitive de e − 2 , et donc de mani`ere g´en´erale on ne peut pas calculer
explicitement P(X ≤ x). Il n’y a donc pas de formule pour la fonction de r´epartition de la loi
normale N(0, 1).
Pour les calculer, on utilise des tables dites de la loi normale qui donne des valeurs approch´ees

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

46

de P(0 ≤ X ≤ x) pour certains x. Ensuite, grˆace aux propri´et´es du calcul int´egrale et au fait
que la densit´e est paire, on obtient les r´esultats suivants :
P(X ≤ 0) = P(0 ≤ X) =

1
2

P(X ≤ x) = P(X ≤ 0) + P(0 ≤ X ≤ x) =

1
+ P(0 ≤ X ≤ x)
2

si x ≥ 0

P(X ≤ x) = P(X ≤ 0) − P(x ≤ X ≤ 0) =

1
− P(0 ≤ X ≤ −x)
2

si x ≤ 0

P(X ≥ x) = P(X ≥ 0) − P(x ≥ X ≥ 0) =

1
− P(0 ≤ X ≤ x)
2

si x ≥ 0

P(X ≥ x) = P(X ≥ 0) + P(0 ≥ X ≥ x) =

1
+ P(0 ≤ X ≤ −x)
2

si x ≤ 0


efinition 4.3.12 Soit m ∈ IR et σ ∈ IR∗+ .
On dit qu’une v.a.r. X suit une loi normale de param`etres m et σ (not´e X ∼ N(m, σ)) si
suit la loi normale de param`etres 0 et 1, c’est a
` dire :
X ∼ N(m, σ) ⇐⇒

X −m
σ

X −m
∼ N(0, 1).
σ

On peut, a` partir de la d´efinition, calculer la densit´e d’une loi normale N(m, σ).
Proposition 4.3.13 Si X ∼ N(m, σ) o`
u m ∈ IR et σ ∈ IR ∗+ , X a pour densit´e la fonction :
(x−m)2
1
e− 2σ2
f (x) = √
σ 2π

∀ x ∈ IR.

PREUVE :
On va appliquer la technique vue a` la fin de la premi`ere partie (dans la preuve du th´eor`eme
4.1.5).
On sait, d’apr`es la d´efinition, que :
X ∼ N(m, σ) ⇐⇒ Y =

X −m
∼ N(0, 1).
σ

Donc, pour tout x ∈ IR :


x−m
X −m
FX (x) = P(X ≤ x)
= P



σ
σ
x−m
x−m
= P Y ≤
= FY
.
σ
σ



Comme FY est d´erivable sur IR, FX l’est aussi et, pour tout x ∈ IR,


1
x−m
fX (x) = FX0 (x) = fY
.
σ
σ
x−m 2 1
1
1
e−( σ ) 2
×√
=
σ

(x−m)2
1

e− 2σ2 .
=
σ 2π


47

4.3. LOIS CONTINUES CLASSIQUES
Proposition 4.3.14 Si X ∼ N(m, σ), alors X admet une esp´erance et une variance :
E(X) = m

V (X) = σ 2 .

et


efinition 4.3.15 De mani`ere g´en´erale, on appelle ´ecart-type d’une variable al´eatoire X la
racine carr´ee de sa variance (si elle existe) :
p
σX = V (X).
D´emontrons la proposition :

PREUVE :
On va d’abord montrer la proposition quand m = 0 et σ = 1, c’est-`a-dire quand X ∼ N(0, 1).
Commen¸cons par calculer l’esp´erance :
+∞
Z
x f (x) dx =

+∞
Z

x2
x

e− 2 dx

−∞

+∞
2
− x2
−e

=  √
= 0.


−∞

−∞

Donc l’esp´erance existe et E(X) = 0 = m.
Montrons que E(X 2 ) existe ; on va devoir int´egrer par parties :
+∞
Z
x2 f (x) dx =

−∞

+∞
Z

x 2 − x2

e 2 dx

−∞
+∞ +∞

2
Z − x2
− x2
x
e
e 2


dx
+
= − √



= 0+1 =1

−∞

−∞

Donc la variance existe et :
V (X) = E(X 2 ) − (E(X))2 = 1 − 02 = 1.
La variance vaut donc V (X) = 1 = σ 2 .
Donc la proposition est vraie si X ∼ N(0, 1).
Supposons maintenant que X suit une loi normale quelconque : X ∼ N(m, σ).
X −m
Alors, par d´efinition, Y =
∼ N(0, 1).
σ
On sait, d’apr`es ce qui pr´ec`ede, que E(Y ) = 0 et V (Y ) = 1. De plus, X = σY + m. D’apr`es la
lin´earit´e de l’esp´erance, on a donc :
E(X) = E(σY + m) = σ E(Y ) + m = m
et d’apr`es les propri´et´es de la variance,
V (X) = V (σY + m) = σ 2 V (Y ) = σ 2 .

Comme pour la loi binomiale et la loi de Poisson, la loi normale poss`ede une propri´et´e de
stabilit´e :

´
´
CHAPITRE 4. VARIABLES ALEATOIRES
REELLES

48

Proposition 4.3.16 Soit X ∼ N(m1 , σ1 ) et Y ∼ N(m2 , σ2 ).
p
Si X et Y sont ind´ependantes, alors X + Y suit la loi normale N(m 1 + m2 , σ12 + σ22 ), c’est-`
adire :
q
X⊥
⊥Y =⇒ X + Y ∼ N(m1 + m2 , σ12 + σ22 ).
La preuve de cette proposition sera faite dans le chapitre 6. On l’admettra pour l’instant.

4.3.5

Tableau r´
ecapitulatif

Voici un tableau pr´esentant les principaux r´esultats de cette partie :
Loi de X
U(]a, b[)
Cauchy
E(λ)
N(m, σ)

f (x)
1
b−a
0

si a < x < b
sinon

1
π(1 + x2 )
0
si x ≤ 0
λ e−λx si 0 < x
(x−m)2
1

e− 2σ2
σ 2π

F (x)
0
si x ≤ a
x−a
si a < x < b
b−a
1
si b ≤ x
π
1
arctan(x) +
π
2
0
si x ≤ 0
1 − e−λx si 0 < x
Zx
(t−m)2
1

e− 2σ2 dt
σ 2π

−∞

E(X)

V (X)

a+b
2

(a − b)2
12

/

/

1
λ

1
λ2

m

σ2

Chapitre 5

Couple de variables al´
eatoires r´
eelles
Dans tout ce chapitre, X et Y seront des variables al´eatoires r´eelles de densit´e respective f X et
fY , et de fonction de r´epartition respective F X et FY .

5.1

Densit´
e et fonction de r´
epartition

Comme on l’a fait pour une v.a.r., on peut d´efinir la densit´e et la fonction de r´epartition d’un
couple de v.a.r. Il suffit de passer de la dimension 1 a` la dimension 2, c’est-`a-dire de IR a` IR 2 .

efinition 5.1.1 Soit f une fonction d´efinie sur IR 2 , a
` valeurs r´eelles. On dit que f est une
densit´e de probabilit´e sur IR2 si :
1. f est continue “par morceaux” sur IR 2 .
2. f ≥ 0 sur IR2 .
ZZ
3.
f (x, y) dxdy = 1.
IR2

On retrouve la d´efinition de la densit´e du chapitre pr´ec´edent, adapt´ee a` la dimension 2.

efinition 5.1.2 Soit f une densit´e sur IR 2 .
On dira que le couple de v.a.r. (X, Y ) a pour densit´e f si, pour tout couple de r´eels (x, y), on
a:


Zx Zy

P(X ≤ x, Y ≤ y) =
f (u, v) dv  dv
=

−∞
Zy

−∞

−∞x

Z

f (u, v) du dv.
−∞

De mani`ere g´en´erale, quel que soit le domaine B ⊂ IR 2 ,
ZZ
f (u, v) dudv.
P((X, Y ) ∈ B) =
B

Faisons un exemple. Consid´erons la densit´e du couple (X, Y ) suivante :

4uv si (u, v) ∈ C
f (u, v) =
0
sinon.
o`
u C est le domaine de IR2 correspondant au carr´e unit´e, C = {(u, v) ∈ IR 2 : 0 < u < 1 et
0 < v < 1}.
On veut calculer P((X, Y ) ∈ B) o`
u B est le triangle suivant :
49

´
´
CHAPITRE 5. COUPLE DE VARIABLES AL EATOIRES
REELLES

50

v

1
C
B

0

−1

1

u

La seule partie qu’il est n´ecessaire d’´etudier est celle o`
u la densit´e est non nulle, c’est-`a-dire
l’intersection de B et de C ; il faut alors param´etrer B ∩ C :

P((X, Y ) ∈ B) =

ZZ

=

ZZ

f (u, v) dudv

B

f (u, v) dudv +

B∩C

=

ZZ

ZZ

f (u, v) dudv

B∩C

0 dudv +

ZZ

4uv dudv

B∩C

B∩C



Z1/2 1−2v
Z

= 0+
4uv du dv
0

=

Z1/2

0

=

2vu2

0

1−2v
0

dv


1/2
Z1/2
8v 3
1
2
2
4
2v(1 − 2v) dv = v −
+ 2v
= .
3
24
0
0

Ici, on a choisi d’int´egrer d’abord par rapport a` u, puis par rapport a` v. On peut ´evidemment
le faire dans l’autre sens, en obtenant le mˆeme r´esultat (heureusement !) :


Probas.pdf - page 1/80
 
Probas.pdf - page 2/80
Probas.pdf - page 3/80
Probas.pdf - page 4/80
Probas.pdf - page 5/80
Probas.pdf - page 6/80
 




Télécharger le fichier (PDF)


Probas.pdf (PDF, 408 Ko)

Télécharger
Formats alternatifs: ZIP



Documents similaires


probas
cours1 prob et stoch sma s6
1 probabiliteselementaires
50594352 int poly 4
3 probabiliteselementaires
cmd060902

Sur le même sujet..