cours proba Pastor .pdf



Nom original: cours-proba-Pastor.pdf

Ce document au format PDF 1.4 a été généré par / Aladdin Ghostscript 6.01, et a été envoyé sur fichier-pdf.fr le 29/09/2012 à 12:34, depuis l'adresse IP 41.141.x.x. La présente page de téléchargement du fichier a été vue 1332 fois.
Taille du document: 1.5 Mo (247 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)










Aperçu du document


Cours de Probabilités

par

Dominique PASTOR

Département Signal et Communications
Technopôle Brest-Iroise, CS 83818, 29238 Brest Cedex
e-mail : dominique.pastor@enst-bretagne.fr
Tél : 02 98 00 14 87
Fax : 02 98 00 10 98

Septembre 2003

Objectifs pédagogiques
Les probabilités interviennent dans tous les domaines de l’ingénierie. En télcommunications, on est amené à traiter des données qui par nature sont aléatoires.
Il va falloir par exemple calculer la probabilité d’erreur d’une transmission lorsqu’on transmet des séquences de valeurs binaires et .


Ainsi, un cours de probabilité est incontournable dans toute école d’ingénieur
et en particulier, ici, à l’ENST Bretagne.
Les objectifs pédagogiques du cours supporté par ce polycopié sont alors les
suivants en terme de "être capable de" et "être sensibilisé à". Pour chaque objectif
listé ci-dessous, nous pointons vers le chapitre où l’étudiant trouvera les informations nécessaires permettant de remplir l’objectif pédagogique.

i

Objectif : être capable de
Donner la définition d’un espace probabilisé
Effectuer des calculs combinatoires de probabilités
Calculer des probabilités conditionnelles élémentaires
Donner la définition de l’indépendance entre événements
Calculer des lois conditionnelles
Donner la définition correcte d’une variable aléatoire réelle ou généralisée
Donner les théorèmes de convergence monotone et de convergence dominée
Donner la définition de l’espérance d’une variable aléatoire
Donner la définition des moments d’ordre supérieur
Donner la définition de la fonction caractéristique
Donner la définition de la fonction de répartition et d’une densité de probabilité
Donner la définition des variables aléatoires absolument continues et celle
des variables discrètes
Savoir calculer les fonctions de répartitions et les densités de probabilités
des variables aléatoires absolument continues
Donner la définition d’un vecteur aléatoire
Donner la définition de l’espérance d’un vecteur aléatoire
Donner la définition de la fonction de répartition d’un vecteur aléatoire
Donner la définition des lois conjointes
Manipuler les densités de probabilité conditionnelles
Utiliser le théorème de changement de variable et le théorème de transfert
pour les calculs usuels (notamment, différentes méthodes de calcul de la
densité d’une somme de variables aléatoires)
Savoir définir et manipuler les matrices de covariance
Donner la définition des vecteurs aléatoires gaussiens et leurs propriétés
élémentaires
Donner l’inégalité de Bienaymé-Chebyshev (version probabiliste)
Connaître et d’utiliser le théorème de la limite centrale
TAB . 1 – Objectifs "être capable de".

ii

Voir
Chapitre 1
Chapitre 2
Chapitre 3
Chapitre 3
Chapitre 12
Chapitre 4
Chapitre 5
Chapitre 9
Chapitre 9
Chapitre 9
Chapitre 10
Chapitre 10
Chapitre 10
Chapitre 12
Chapitre 12
Chapitre 12
Chapitre 12
Chapitre 12
Chapitre 12

Chapitre 12
Chapitre 13
Chapitres 9 et 15
Chapitre 15

Objectif : être sensibilisé à
Aux principales lois utilisées dans la pratique et les phénomènes qu’elles modélisent
A la théorie de la mesure et de l’intégration
Aux notions de "presque partout" et de "presque sûrement"
Aux extensions des théorèmes de convergence de la théorie
de Lebesgue
Au théorème de Fubini et son application
Aux relations entre intégrales de Lebesgue et de Riemann
Au théorème de Radon-Nikodym
A la théorie des variables aléatoires conditionnelles (par
rapport à un événement, une tribu, une variable aléatoire)
A la théorie des variables aléatoires complexes
Aux différents modes de convergence des variables aléatoires
Aux méthodes de génération des variables aléatoires
TAB . 2 – Objectifs "être sensibilisé à".

iii

Voir
Chapitre 11
Chapitre 5
Chapitre 6
Chapitres 5 et 6
Chapitre 7
Chapitre 8 et Annexe C
Chapitre 10
Chapitre 10 et Annexe D
Chapitre 14
Chapitre 15
Chapitre 16

Guide de lecture de la bibliographie
Vous trouverez en fin de ce polycopié une bibliographie complète du cours de
probabilité. Nous donnons ici un guide de lecture de cette bibliographie.
[10] est un livre ancien qui présente les probabilités selon le point de vue des
statisticiens. Les outils mathématiques utilisés y sont essentiellement l’algèbre et
l’analyse élémentaire. Cette référence n’utilise pas la théorie de la mesure. Etant
court et très concis, il permet au lecteur de retrouver très rapidement les résultats
classiques de la théorie. C’est donc un excellent aide-mémoire qui permet aussi
d’éclairer certains aspects de la théorie sous un angle pratique et applicatif. Son
défaut : l’ouvrage étant ancien, il est parfois difficile à trouver.
La présentation des probabilités dans [3] est, dans une certaine mesure, une extension de celle de [10] où on retrouve l’axiomatique de Kolmogorov basée sur la
théorie de la mesure. Cet ouvrage est court et permet aussi au lecteur de retrouver
très facilement les résultats classiques de la théorie. Cet ouvrage donne aussi un
éclairage statistique de la théorie des probabilités et de nombreux exemples. A la
différence de [10], on le trouve beaucoup plus facilement dans les bibliothèques.
Les ouvrages [18, 19, 6, 7] s’adressent aux étudiants ayant besoin d’un cours
plus approfondi pour le reste de leur formation à l’école. Ce sont aussi des références classiques pour les ingénieurs en traitement du signal et télécommunications. Dans les références [6, 7, 19], on peut trouver, en plus des démonstrations théoriques des résultats fondamentaux, des exercices et problèmes résolus
ou commentés.
[8] (Tomes 1 et 2) est une référence incontournable en théorie des probabilités.
Ouvrage mathématique, il expose la théorie dans toute sa complexité. On y trouve
des extensions des théorèmes des grands nombres. Il est adapté aux travaux de
recherche.
[11] et [24] sont les ouvrages préférés de l’auteur de ce polycopié. Ils représentent l’école russe dans toute sa subtilité. Ce sont des ouvrages mathématiques.
Ils sont parfois difficiles car utilisent des éléments de théorie de la mesure peu
connus des ingénieurs. Le polycopié que nous vous fournissons, souvent influencé
par ces références, devrait vous donner les clefs suffisantes pour exploiter ces ouvrages. Ceci dit, ces oeuvres s’adressent principalement aux chercheurs, voire aux
ingénieurs de recherche.
[20] est un ouvrage remarquable, mais très spécialisé, sur les mesures conditionnelles. On y voit que la théorie des probabilités conditionnelles est un domaine
iv

très complexe que nous nous contentons d’effleurer. Cet ouvrage s’adresse avant
tout à des mathématiciens. Après avoir lu l’annexe D, le lecteur ne devrait cependant n’avoir aucune difficulté à lire les quatre premiers chapitres de ce livre.
[21, 12, 22] sont des ouvrages de référence en théorie de la mesure. La présentation donnée dans ce cours concernant la théorie de la mesure est très influencée
par ces ouvrages. La présentation de l’intégrale de Lebesgue que nous donnons au
chapitre 5 et que nous précisons à l’annexe ?? est fortement influencée par [21]
et [22]. La présentation de l’intégrale de Lebesgue-Stieltjes à l’annexe B est issue
de [12]. Le premier chapitre de [22] devrait au moins être lu une fois par tout
étudiant.
[16] et [1] sont des ouvrages incontournables tant en analyse, en algorithmie qu’en probabilités. Ils contiennent énormément de résultats utiles en calcul
et notamment des descriptions détaillées des fonctions spéciales qu’il arrive de
rencontrer au détour de problèmes qui ne sont pas seulement académiques.
Qui dit probabilités dit aussi statistiques. Vous trouverez trois références essentielles dans le domaine ([17, 2, 15]). [17] est une extension de [2]. Dans ces
ouvrages, on trouvera énormément de résultats et de lois dérivant des lois Gaussiennes multidimensionnelles. [15] est une des ouvrages les plus connus dans le
domaine. Il pourra notamment servir ceux qui seront confrontés à des problèmes
d’estimation statistique (maximum de vraisemblance, moindres carrés, etc.).
Les références [14, 5] se rapportent à la théorie de la mesure. Ce sont des
polycopiés ENSTB très synthétiques qui présentent les résultats principaux de la
théorie.
Nous recommendons aussi la lecture de [9, 4, 13, 23, 5] qui sont des polycopiés de l’ENSTB. En particulier, [5] et [23] sont d’excellents documents de
synthèses qui mettent en évidence les principaux résultats de la théorie des probabilités. Dans [4], on trouvera aussi un exposé très complet des différents types de
convergence.

v

Remerciements
Je remercie Samir Saoudi et Thierry Chonavel, professeurs à l’ENST de Bretagne pour m’avoir fourni leurs polycopiés ([23], [5]) et leurs planches de présentation. Leur travail m’a fortement guidé et inspiré dans la rédaction du présent
document et des notes de cours.
Je remercie aussi Karine Amis, Maître de Conférences à l’ENST de Bretagne,
pour sa contribution à l’élaboration, l’organisation du cours et ses ajouts et commentaires sur différents chapitres de ce polycopié.
Enfin, je remercie mon ami et professeur Roger Gay qui a bien voulu prendre
sur son temps pour relire et corriger certains passages de ce document et qui m’a
fait connaître et apprécier bon nombre des références que je recommande à mon
tour.

vi

Table des matières
1 Espace probabilisable et Espace probabilisé
1.1 Idées fondamentales sur les espaces de probabilité
1.2 Espace probabilisable ou mesurable . . . . . . .
1.3 Tribu des boréliens de
. . . . . . . . . . . . .
1.4 Tribu des boréliens de
. . . . . . . . . . . . .
1.5 La tribu des boréliens de la droite réelle étendue .
1.6 Mesure positive . . . . . . . . . . . . . . . . . .
1.7 La mesure de Lebesgue . . . . . . . . . . . . . .
1.8 Définition d’une probabilité . . . . . . . . . . . .
1.9 Espace produit . . . . . . . . . . . . . . . . . .
1.10 Exercice corrigé . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

1
. . . . . . .
1
. . . . . . .
5
. . . . . . .
6
. . . . . . .
8
. . . . . . .
8
. . . . . . .
9
. . . . . . . 10
. . . . . . . 12
. . . . . . . 13
. . . . . . . 13

2 Calcul combinatoire des probabilités
2.1 Généralités . . . . . . . . . . .
2.2 Rappels d’analyse combinatoire
2.3 Exemple . . . . . . . . . . . . .
2.4 Exercice corrigé . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

15
15
15
16
16

3 Probabilités conditionnelles et indépendance
3.1 Probabilités conditionnelles . . . . . . . . . . .
3.1.1 Définition . . . . . . . . . . . . . . . .
3.1.2 Formule de Bayes . . . . . . . . . . .
3.2 Evénéments indépendants . . . . . . . . . . . .
3.2.1 Indépendance de deux événements . . .
3.2.2 Indépendance d’une suite d’événements
3.2.3 Théorème de Borel-Cantelli . . . . . .
3.3 Indépendance de tribus . . . . . . . . . . . . .
3.4 Exercice corrigé . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

19
19
19
20
20
20
21
22
22
22

vii

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

4 Variables aléatoires (réelles et généralisées)
4.1 Applications mesurables . . . . . . . . . . . . . . .
4.2 Variables aléatoires réelles et généralisées . . . . . .
4.3 Critères de mesurabilité . . . . . . . . . . . . . . . .
4.4 Propriétés élémentaires des applications mesurables
riables aléatoires réelles . . . . . . . . . . . . . . . .
4.5 Limites de variables aléatoires . . . . . . . . . . . .

. . . .
. . . .
. . . .
et des
. . . .
. . . .

. . .
. . .
. . .
va. . .
. . .

25
26
26
28
30
31

5 Intégration des variables aléatoires réelles et généralisées (intégrale
de Lebesgue)
5.1 La construction usuelle de l’intégrale des variables aléatoires
réelles g´néralisées positives . . . . . . . . . . . . . . . . . . . . .
5.2 Une construction algorithmique de l’intégrale des variables aléatoires réelles g´néralisées positives . . . . . . . . . . . . . . . . .
5.2.1 Intégration des applications à valeurs sur la demi droite
réelle étendue . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Le théorème de la convergence monotone . . . . . . . . .
5.2.3 Où l’on retrouve la définition classique de l’intégrale des
fonctions à valeurs réelles positives . . . . . . . . . . . .
5.2.4 Quelques propriétés utiles de l’intégrale des variables
aléatoires positives . . . . . . . . . . . . . . . . . . . . .
5.2.5 Intégrale des variables aléatoires généralisées de signe
quelconque . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Théorèmes de convergence . . . . . . . . . . . . . . . . . . . . .
5.4 Inégalité de Bienaymé-Chebyshev . . . . . . . . . . . . . . . . .
5.5 Intégration sur une partie mesurable . . . . . . . . . . . . . . . .

50
56
58
60

6 Ensembles négligeables et compléments sur l’intégration
6.1 Ensembles négligeables et mesure complète . . . . . . . . .
6.2 Le "presque partout" et le "presque sûrement" . . . . . . . .
6.3 Complétée d’une tribu . . . . . . . . . . . . . . . . . . . .
6.4 Mesure complétée . . . . . . . . . . . . . . . . . . . . . .
6.5 Le cas de la mesure de Lebesgue . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . .
6.6 L’ espace
6.7 La version définitive du théorème de la convergence dominée

.
.
.
.
.
.
.

63
64
65
66
67
69
69
71

7 Intégration sur les espaces produits
7.1 Tribu produit : définition et premières propriétés . . . . . . . . . .

73
73

viii

.
.
.
.
.
.
.

.
.
.
.
.
.
.

34
35
37
43
44
47
49

7.2
7.3
7.4
7.5

Mesurabilité des applications définies sur un produit cartésien . .
Mesure produit ou produit tensoriel de mesures . . . . . . . . . .
Le théorème de Tonelli-Fubini . . . . . . . . . . . . . . . . . . .

La mesure de Lebesgue sur
et application aux calculs des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

75
76
77
79

8 Lebesgue et Riemann : éléments de synthèse
8.1 Apport de la théorie de Lebesgue en théorie des probabilités
8.2 Comparaison des intégrales de Riemann et de Lebesgue . . .
8.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

81
82
82
88
88

9 Fonctions et paramètres d’une variable aléatoire
9.1 Espérance mathématique . . . . . . . . . . . . . . . . .
9.2 Moments d’ordre supérieur . . . . . . . . . . . . . . . .
9.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Inégalité de Markov et de Bienaymé-Tchebychev . . . .
9.4.1 Expression générale de l’inégalité de Tchebychev
9.4.2 Inégalité de Markov . . . . . . . . . . . . . . .
9.4.3 Inégalité de Bienaymé-Tchebychev . . . . . . .
9.5 Fonction caractéristique . . . . . . . . . . . . . . . . . .
9.6 Fonction génératrice . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

92
92
93
94
94
94
94
95
95
96

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

10 Loi d’une variable aléatoire réelle
10.1 Mesure ou loi image et théorème de transfert . . . . . . . . . . .
10.2 Application à une mesure de probabilité . . . . . . . . . . . . . .
10.3 Fonction de répartition d’une variable aléatoire réelle . . . . . . .
10.4 Les densités de probabilité . . . . . . . . . . . . . . . . . . . . .
10.5 Variables aléatoires absolument continues . . . . . . . . . . . . .
10.6 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . .
10.7 Exercices corrigés . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1 Exercice corrigé 1 . . . . . . . . . . . . . . . . . . . . .
10.7.2 Exercice corrigé 2 : variable aléatoire discrète de Poisson .
10.7.3 Exercice corrigé 3 : le cas de la loi absolument continue
dite exponentielle . . . . . . . . . . . . . . . . . . . . . .
10.7.4 Mesure absolument continue par rapport à une autre . . .
10.7.5 Le théorème de Radon-Nikodym . . . . . . . . . . . . . .

ix

97
97
100
100
104
105
107
109
109
110
111
112
113

10.7.6 Application aux probabilités : variables aléatoires absolument continues . . . . . . . . . . . . . . . . . . . . . . . 114
11 Exemples de lois
11.1 La loi de Bernouilli . . . . . . . . . . . . . . . . . .
11.2 La loi géométrique . . . . . . . . . . . . . . . . . .
11.3 La loi binomiale . . . . . . . . . . . . . . . . . . . .
11.4 La loi de Poisson . . . . . . . . . . . . . . . . . . .
11.5 La loi uniforme . . . . . . . . . . . . . . . . . . . .
11.6 La loi normale (ou loi de Gauss) . . . . . . . . . . .
11.7 La loi Log Normale . . . . . . . . . . . . . . . . . .
11.8 La loi Exponentielle . . . . . . . . . . . . . . . . . .
11.9 La loi du . . . . . . . . . . . . . . . . . . . . . .
11.10La loi du non centrée de paramètre de décentrage
11.11La loi de Rayleigh . . . . . . . . . . . . . . . . . . .
11.12La loi de Rice . . . . . . . . . . . . . . . . . . . . .
11.13La loi Gamma . . . . . . . . . . . . . . . . . . . . .
11.14La loi de Cauchy . . . . . . . . . . . . . . . . . . .
11.15La loi Beta . . . . . . . . . . . . . . . . . . . . . . .
11.16Loi de Student . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

116
116
116
117
117
119
119
121
121
122
124
125
125
126
127
127
128

12 Vecteurs aléatoires
130
12.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
12.2 Intégration des vecteurs aléatoires . . . . . . . . . . . . . . . . . 130
12.3 Mesure image et théorème de transfert . . . . . . . . . . . . . . . 131
12.4 Loi de probabilité et espérance mathématique d’un vecteur aléatoire132
12.5 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . 133
12.6 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
12.7 Formule du changement de variables . . . . . . . . . . . . . . . . 135
12.7.1 Cas bijectif . . . . . . . . . . . . . . . . . . . . . . . . . 136
12.7.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . 136
12.8 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . 136
12.9 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . 137
12.10Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 138
12.11Covariance et Matrice de covariance . . . . . . . . . . . . . . . . 140
12.11.1 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . 140
12.11.2 Matrice de covariance . . . . . . . . . . . . . . . . . . . 141
12.12Droite et courbe de régression . . . . . . . . . . . . . . . . . . . 141
x

12.12.1 Droite de régression . . . . . . . . . . .
12.12.2 Courbe de régression . . . . . . . . . . .
12.13Exercice corrigé . . . . . . . . . . . . . . . . . .
12.14Problème corrigé : somme de variables aléatoires
densité conjointe . . . . . . . . . . . . . . . . .
12.15Problème corrigé : somme de variables aléatoires
n’admettant pas de densité conjointe . . . . . . .
13 Vecteurs gaussiens
13.1 Définition . . . . . . . . . . . . . . . .
13.2 Quelques propriétés du vecteur gaussien
13.3 Quelques figures . . . . . . . . . . . .
13.4 Exercice corrigé . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
admettant une
. . . . . . . . .
indépendantes
. . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

142
142
143
145
148
151
151
151
152
157

14 Variables aléatoires complexes
161
14.1 Variable aléatoire complexe : paramètres . . . . . . . . . . . . . . 161
14.2 Vecteur aléatoire complexe . . . . . . . . . . . . . . . . . . . . . 162
14.3 Vecteur aléatoire complexe gaussien . . . . . . . . . . . . . . . . 162
15 Convergence des variables aléatoires
165
15.1 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . 165
15.2 Convergence en moyenne d’ordre et loi faible des grands nombres165
15.3 Convergence presque sûre et loi forte des grands nombres . . . . . 166
15.3.1 Inégalité de Kolmogorov . . . . . . . . . . . . . . . . . . 166
15.3.2 Convergence presque sûre . . . . . . . . . . . . . . . . . 167
15.3.3 Loi forte des grands nombres de Kolmogorov . . . . . . . 167
15.4 Convergence en Loi, théorème de la limite centrale et théorème
de Lyapounov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.5 Exemple d’utilisation du théorème de la limite centrale . . . . . . 169
15.6 Exercice corrigé . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
16 Génération de variables aléatoires

. . . . . . . . . .
16.1 Génération de la distribution uniforme sur
16.1.1 Méthode de congruences multiplicatives de Lehmer . . . .
16.2 Génération de variables aléatoires de loi de probabilité quelconque
16.2.1 Génération par inversion de la loi de répartition . . . . . .
16.2.2 Génération par changement de variables . . . . . . . . . .
16.2.3 Génération par convergence en loi . . . . . . . . . . . . .


xi

173
173
174
174
174
174
175

16.2.4 Autres méthodes . . . . . . . . . . . . . . . . . . . . . . 175
Bibliographie

175

A Mesurabilité dans

178

B La mesure et l’intégrale de Lebesgue-Stieltjes
B.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2 Un théorème fondamental d’extension . . . . . . . . . . . . . . .
B.3 La construction de Caratheodory . . . . . . . . . . . . . . . . . .
B.3.1 Les mesures extérieures et le théorème d’extension de Caratheodory . . . . . . . . . . . . . . . . . . . . . . . . .
B.3.2 Construction d’une mesure sur un anneau par extension
d’une mesure sur un semi-anneau . . . . . . . . . . . . .
B.3.3 Application à la preuve du théorème d’extension . . . . .
B.4 La tribu et la mesure de Lebesgue-Stieltjes . . . . . . . . . . . . .
B.5 L’intégrale de lebesgue-Stieltjes . . . . . . . . . . . . . . . . . .
B.6 Le cas de la mesure de Lebesgue . . . . . . . . . . . . . . . . . .
B.7 Complément . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

182
183
184
185
185
188
190
191
193
194
195

C Compléments sur la comparaison des intégrales de Riemann et de Lebesgue
197
D Probabilités conditionnelles
D.1 Un résultat préliminaire . . . . . . . . . . . . . . . . . . . . . . .
D.2 Conditionnement par rapport à un événement . . . . . . . . . . .
D.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . .
D.3 Conditionnement par rapport à une tribu . . . . . . . . . . . . . .
D.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . .
D.3.2 Propriétés de l’espérance conditionnelle . . . . . . . . . .
D.3.3 L’espérance contitionnelle par rapport à une tribu est une
projection orthogonale . . . . . . . . . . . . . . . . . . .
D.3.4 Théorèmes de convergence . . . . . . . . . . . . . . . . .
D.4 Conditionnement par rapport à une variable aléatoire . . . . . . .
D.4.1 Conditionnement par rapport à une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
D.4.2 Application aux variables aléatoires absolument continues
D.4.3 Courbe de régression . . . . . . . . . . . . . . . . . . . .

xii

201
203
204
204
210
210
212
214
215
217
222
224
228

Table des figures
5.1
5.2
5.3
5.4

Intégration de Lebesgue-1
Intégration de Lebesgue-2
Intégration de Lebesgue-3
Intégration de Lebesgue-4

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

38
39
41
42

. . . . . . . . . 117

. . . . . . 118



. . . . . . . . . 118






. . .. .. .. .. .. .. .. 120


120





et
(trait
. . . . . . . . . 121
"
!
. . . . . . . . . 122
$#
#
. . . . . . . . . 123


. . . . . . . . . 123

&%
. . . . . . . . . 124
' (
. . . . . . . . . 126
) * ,+ 0/ 1 et + / ( ( - . 127
et
.
. . . . . . . . . 128
43 5
. . . . . . . . . 129

.
Distribution de la loi géométrique avec
Distribution de la loi Binomiale avec

. .et. .
Distribution de la loi de Poisson
. . . . .
Distribution de la loi Uniforme

Distribution de la loi Normale :
et
Distribution de la loi Log Normale :
,
continue) ou . . . . . . . . . . . . . . . . . . .

..
11.7 Distribution de la loi Exponentielle
11.8 Distribution de la loi du Chi- :
. . . .
11.9 Distribution de la loi du Chi- :
. . . . . .
11.10Distribution de la loi du Chi- :
. . . . . .

..
11.11Distribution de la loi Rayleigh :




11.12Distribution de la loi Gamma :
avec


avec
11.13Distribution de la loi de Cauchy :
ou . . . . . . . . . . . . . . . . . . . . . . . .

et
11.14Distribution de la loi Beta :
11.1
11.2
11.3
11.4
11.5
11.6

.
.
.
.























2



76 78



9 ;:









12.1 Nuage de points représentant 1000 réalisations d’un couple gauset
) . . . . . . . . . . . . . . 142
sien corrélées (


9

< < =6

>8

13.1 Loi gaussienne bidimensionnelle avec
,
,
et
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.2 Contours correspondant à la figure 13.1 . . . . . . . . . . . . . . 153

xiii





9 ;:

13.3 Loi gaussienne bidimensionnelle avec
. . . . . . . . . . . . . . . . .
13.4 Contours correspondant à la figure 13.3
13.5 Loi gaussienne bidimensionnelle avec
. . . . . . . . . . . . . . . . . .
13.6 Contours correspondant à la figure 13.5
13.7 Loi gaussienne bidimensionnelle avec
. . . . . . . . . . . . . . . . .
13.8 Contours correspondant à la figure 13.7

9

9 ;:

xiv

< < , =6
. . .
. . .
,
. . .
. . .
,
. . .
. . .

. . .
. . .

,
. .
. .
,
. .
. .
,
. .
. .


>8

. . .
. . .



< < =6 >8
. . .
. . .

. . .
. . .

< < =6 >8
. . .
. . .



. . .
. . .



et
. . .
. . .
et
. . .
. . .
et
. . .
. . .

154
154
155
155
156
156

Liste des tableaux
1
2

Objectifs "être capable de". . . . . . . . . . . . . . . . . . . . . .
Objectifs "être sensibilisé à". . . . . . . . . . . . . . . . . . . . .

ii
iii

12.1 Exemple de loi dont les lois marginales ne permettent pas de retrouver la loi conjointe . . . . . . . . . . . . . . . . . . . . . . . 134

xv

Chapitre 1
Espace probabilisable et Espace
probabilisé
1.1 Idées fondamentales sur les espaces de probabilité
Le but de ce paragraphe est d’introduire le concept d’espace probabilisable.
En théorie générale de la mesure et de l’intégration, on parle d’espece mesurable,
mais les deux notions sont totalement identiques, comme nous le verrons.
Une expérience de physique est toujours assujettie à des conditions expérimentales. Ces conditions expérimentales limitent les expériences que l’on peut
réaliser. Pour un jeu de conditions expérimentales données, on parlera donc d’expérience possible ou, de manière abrégée, de possible, par contraste avec toutes
les expériences qui sont impossibles relativement à ces mêmes conditions.
Prenons un exemple classique qui servira de fil conducteur dans la suite. Supposons que nous disposions d’un dé à six faces. Lancer ce dé et noter le chiffre sur
la face supérieure de ce dé est évidemment une expérience possible relativement
aux conditions expérimentales que nous nous sommes données. Une expérience
qui n’est pas possible sous cette condition expérimentale serait celle consistant à
jeter deux dés à faces en même temps puisque nous ne disposons que d’un seul
dé.
Soit maintenant une expérience possible. Une réalisation de cette expérience
est appelée une épreuve. Le résultat de cette épreuve est aléatoire. Le but d’une
épreuve est d’observer la réalisation (ou la non-réalisation) d’un événement
donné. Un événement peut être observable lors de la réalisation d’une expérience
1

possible ; d’autres événements ne seront pas observables. Ainsi, si nous considérons de nouveau notre expérience consistant à jeter un dé à faces et à noter le
chiffre qui apparaît sur la face supérieure, les événements



le numéro sortant est le ,
le numéro sortant est le ,
,
le numéro sortant est le ,

' (





sont trivialement des événements observables (ou observables, en abrégé). Par
contre, l’événement le numéro sortant est le n’est pas un obervable.

, nous voyons que chaque événement obSi nous posons
servable que nous venons de citer correspond, de manière unique, à un singleton
. Mais les événements observables pour cette expérience ne se limitent pas à
ceux que nous venons de citer. Un événement observable est par exemple Le numéro sortant n’est pas le , qui correspond à la négation logique de l’événement
de , c’estLe numéro sortant est le , soit encore au sous-ensemble


à-dire le complémentaire de
dans .
Un autre événement que l’on peut considérer est Le numéro sortant est pair.

de , c’est-à-dire,
Cet événement corrrespond au sous-ensemble


trivialement, à l’union des trois singletons
,
,
ou, de manière équivalente, au "OU" logique ( )





, 2

2














Le numéro sortant est le



Le numéro sortant est le





Le numéro sortant est le .

2

2

Un autre événement observable est Le numéro sortant est un multiple de autre

de . Là encore, cet événeque , qui correspond au sous-ensemble
ment correspond au "OU" logique


Le numéro sortant est le



2

Le numéro sortant est le
Nous pouvons alors considérer l’événement Le numéro sortant est pair et multiple

de , ce qui correspond au singleton
, mais aussi au "ET" logique ( )

2

Le numéro sortant est pair



2

Le numéro sortant est un multiple de autre que
2







.
Cet événement correspond aussi à l’intersection
Ces quelques exemples nous conduisent à munir l’ensemble des événements
observables d’une structure logique qui obéit à des conditions de stabilité par rapport aux opérations logiques fondamentales , et la négation. En théorie des
probabilités, on préfère l’interprétation ensembliste des événements telle que nous
l’avons proposé sur notre exemple de base. Chaque événement observable à l’is
sue d’un possible sera identifié à une partie d’un ensemble . Soit alors l’ensemble
de ces observables. Cet ensemble sera alors identifié à un ensemble d’ensembles

puisque chaque observable est lui-même une partie de . On préfèrera parler de la
collection des observables. Conformément aux remarques précédentes, l’axiomatique de la théorie des probabilités consiste à munir cette collection de conditions
de stabilité par rapport aux opérations fondamentales sur les ensembles que sont
l’union ( ), l’intersection ( ) et le complémentaire.
Ainsi, si est un événement observable, nous ferons l’hypothèse que est
aussi un événement observable. Si et sont deux événements observables,
et seront eux-aussi des événements observables. Si dénote la collection des événements observables, une axiomatique permettant de rendre compte

des remarques précédentes consiste donc à supposer que est stable par complémentarité, union et intersection finie.
Les jeux de hasard tels que celui de pile ou face, les jeux de dés, de cartes ou

la loterie fournissent des exemples d’expériences aléatoires pour lesquelles est
fini. Il nous faudra cependant aller un peu plus loin car l’expérience qui consiste
à observer le nombre d’appels passant par un central téléphonique par jour, fourni


un ensemble infini dénombrable ( ).

, l’événement observable "le nombre d’appels est " sera
Pour tout

identifié au singleton
. L’événement "le centre de réception a recu plus d’un
appel" se doit d’être observable car c’est le moins que l’on puisse attendre de
l’application de la théorie à l’exemple utilisé. Cet événement sera identifié à l’en
semble qui est une union dénombrable, certes, mais infinie, de singletons
.
Nous sommes donc obligés d’introduire une condition de stabilité par rapport
, est une séquence d’événements
aux unions dénombrables. Si ,
observables, nous ferons donc l’hypothèse que est aussi un événement
observable. Autrement dit, en reprenant les notations précédemment introduites,

on demandera à d’être stable par union dénombrable (et donc par intersection
dénombrable).

Rajoutons à ceci que l’ensemble sera considéré comme un cas trivial d’observable et nous obtenons une définition axiomatique des observables associés


à une expérience possible. C’est une collection de sous-ensembles de qui

+



+

+

+

+

( '



3



contient et qui est stable par complémentarité et union dénombrable. Nous venons de définir la notion de tribu (ou -algèbre dans la littérature anglo-saxonne)
qui est si fondamentale en théorie des probabilités mais aussi en théorie de la mesure.
Nous voyons donc émerger une structure mathématique commode pour dé
crire les événements observables à partir d’un ensemble . Il faut cependant gar
der à l’esprit que toutes les parties de ne sont pas nécessairement observables,

même si l’ensemble des parties de est effectivement une tribu. Parce que l’en
semble des parties de est une tribu, on appellera événement tout sous-ensemble

de . Mais certains de ces événements, répétons-le, seront observables pour une
expérience possible (ils seront membres d’une tribu adaptée à l’expérience que
l’on réalise), d’autres non. Par exemple, pour notre passionnant jeu de dé, nous



pourrions très bien choisir
pour décrire l’expérience en limitant
. L’événeles observables à l’ensemble des parties du sous-ensemble
ne serait pas observable. Evidemment, choisir cet ensemble pour
ment
décrire notre jeu de dé n’est pas bien malin. Par contre, supposons que nous dis
posions aussi d’un dé à 12 faces. Cet espace nous permet donc de décrire tout
aussi bien le jeu de dé à faces (en se limitant à la tribu des observables adéquate)
que le jeu de dé à
faces (en prenant comme tribu des événements l’ensemble

des parties de ). Cet exemple trivial montre aussi, et ceci est particulièrement significatif, que le choix de la tribu est conditionné par l’expérience possible. Cette
notion recevra un traitement mathématique particulier dans la suite.
Pour finir avec cette introduction des idées fondamentales en théorie des probabilités, mentionnons deux conventions de langage et deux éléments supplémentaires de terminologie.
Même si certains événements sont observables et d’autres non, l’usage veut
qu’on omette le qualificatif d’observable pour les éléments de la tribu des observables. Ceci est un abus de langage fort acceptable car ce sont ces événements qui
nous intéressent et non les événements non observables.



Lorsque est fini ou dénombrable, les singletons
,
, sont généralement des événements observables (mais ce n’est pas forcément vrai, nous l’avons
vu). D’où l’usage d’appeler événement élémentaire (ou éventualité) tout élément

de .

L’ensemble est appelé l’événement certain tandis que l’ensemble vide est
l’événement impossible .





( (



( '









4

1.2 Espace probabilisable ou mesurable


De manière générale, on part d’un ensemble arbitraire dont les éléments
sont appelés les événements élémentaires. Par toutes les opérations introduites
d’événements (observables).
précédemment, nous construisons une famille
Cette famille est appelée une tribu , ou -algèbre.









Définition 1 Soit un ensemble, un ensemble de parties de . On dit que


est une tribu de si elle contient et si elle est stable pour les opérations de
complémentation et de réunion dénombrable, soit :
1.
2.
3.













Le couple
définit un espace probabilisable (ou mesurable). On peut véri
fier que la tribu des événements est aussi stable pour l’opération d’intersection
dénombrable.













Exemples de tribus : La collection
est la plus petite tribu possible.

des parties de est aussi
La collection
une tribu et c’est même la

plus grosse possible. De fait, pour tout sous-ensemble de , il existe au moins une


. Comme il est facile de
tribu qui contient ce sous-ensemble, en l’occurrence
vérifier que l’intersection d’une famille quelconque de tribus est aussi une tribu,
la définition suivante a donc un sens.





Définition 2 On appelle tribu engendrée par une classe de parties de la plus
petite tribu contenant , c’est-à-dire l’intersection de toutes les tribus contenant

. La tribu engendrée par est notée .





Il est à noter que l’on peut très bien avoir
pour deux
collections



différentes
de sous-ensembles de . Par exemple, si

et
et




. En effet, la tribu engendrée par
est
où ,

.
















Définition 3 Soit
un espace probabilisable, dénombrable. On dit que la



famille

est un système complet de constituants pour si et seulement si :
a)
b)













"!



5



En particulier,








.

Définition 4 Un événement

.
ou








est élémentaire si et seulement si









Théorème 1 Soit
un espace probabilisable, tel que soit dénombrable.

Alors admet un système complet de constituants formé d’événements élémentaires.
Nous aurons l’occasion de rencontrer aussi la tribu trace d’une tribu. Cette
tribu trace est définie comme suit.










Soit
un espace probabilisable et
soit mesurable. Posons
que le sous-ensemble












. Noter qu’on ne requiert pas



(1.1)



Cette collection d’ensembles est une tribu sur . Nous laissons au lecteur le soin
de le montrer. Ce n’est vraiment pas difficile. Notons seulement que la stabilité
et non dans . On
par complémentarité concerne la complémentarité dans
pose alors la définition suivante.














Définition 5 Soit
un espace probabilisable et
. On appelle tribu


trace de sur , la collection d’ensembles définie par (1.1).



1.3 Tribu des boréliens de



La tribu borélienne (ou de Borel ou des boréliens) d’un espace topologique est
la tribu engendrée par l’ensemble des ouverts de cet espace. Dans ce cours, nous

pour
aurons particulièrement besoin de la tribu borélienne de et de celle

traiter nombre de cas où l’espace est non dénombrable. Expliquons ceci par un
exemple particulier.
Considérons le jeu de fléchette avec une cible circulaire. Si l’on admet que le
point d’impact est localisé de manière aléatoire, nous pouvons considérer que les
événements élémentaires sont représentsés par des points mathématiques situés
à l’intérieur d’un cercle de rayon . Les événements possibles sont également
des ensembles de points à l’intérieur du cercle. Soit un domaine quelconque
l’ensemble des points de la cible appartenant à . On suppose
et soit
6

que le point est uniformément distribué, ce qui signifie que la probabilité de
l’événement est :










où est la surface du domaine . Ceci prouve que tout événement élémentaire
a une probabilité nulle puisque la surface associée à un point est nulle. Ainsi,
tout événement élémentaire est un événement de probabilité nulle, ce qui n’etait

pas le cas pour le jeu de dés où l’ensemble était un ensemble fini. Ainsi dans
le cas continu, le calcul de la probabilité d’un événement arbitraire nécessite des
méthodes mathématiques plus avancées qui vont reposer sur la notion de boréliens
de .


Définition 6 La tribu borélienne de est la tribu engendrée par la famille des
. Un élément de cette tribu sera appelée
ouverts de . Cette tribu sera notée
un borélien ou une partie borélienne de .
Les propositions suivantes résument les propriétes essentielles de cette tribu.
Proposition 1 Tout intervalle (ouvert, fermé ou semi-ouvert) de est un élément
. Il en va de même pour toute réunion finie ou dénombrable d’intervalles.
de


3 5








La démonstration
repose sur le fait que tout intervalle fermé peut
s’écrire









sous la forme
, que tout intervalle
est égal à


et que tout intervalle


.

est la réunion dénombrable


5


5




3 5






Proposition 2 La tribu des boréliens de
cune des familles suivantes :


(i)


(ii)



(iii)



(iv)



(v)








(vi)



(vii)


(viii)



3
43
43
3





On a donc








est aussi la tribu engendrée par cha-




,






La tribu des boréliens n’est pas d´nombrable. Elle a en fait la puissance du
.
continu : il existe une bijection entre et
7


1.4 Tribu des boréliens de

La tribu des boréliens de



se définit de manière analogue à celle de .

, est la tribu engendrée par





.




Définition 7 La tribu borélienne de , notée
la famille des rectangles ouverts ou pavés ouverts



3













n’est pas la

Nous le verrons un peu plus loin : la tribu borélienne de
puissance cartésienne de la tribu des boréliens de .
Proposition 3 On démontre que la tribu
classe des rectangles de la forme





est la tribu engendrée par la

où les
sont réels.

1.5 La tribu des boréliens de la droite réelle étendue
Les détails des résultats donnés ci-dessous sont donnés à l’annexe A.
La topologie usuelle de






est










% 3








et comme nous l’avons dit plus haut, la tribu des boréliens de
par les ouverts de cette topologie usuelle.



est celle engendrée

Pour définir une tribu commode sur , on procède de manière analogue. On
commence par se donner une topologie, dite usuelle, sur , puis on appelle tribu
de , la tribu engendrée par les ouverts de au sens de cette topologie usuelle.
Les détails de cette construction sont donnés à l’annexe A. Le résultat le plus
important est la propostion suivante.
Proposition 4 La tribu des boréliens de
quelconque des collections suivantes :

3

.
.





.
.
On a donc



3























, notée




































est engendrée par l’une



.


Exercice 1 Montrer que la tribu trace de
.
boréliens
8





sur

est exactement la tribu des

1.6 Mesure positive

un espace probabilisable. Une application
Définition
8
Soit

une mesure positive si pour toute suite dénombrable
d’événements
est


mutuellement disjoints (ou incompatibles,

), on a :


















Cette propriété est la propriété dîte de -additivité . Le triplet
espace mesuré.

(1.2)




est appelé

De cette définition, nous pouvons déduire les quelques propriétés suivantes :



1.

2. Soit








une suite d’événements de . Alors :






Si les événements
vient une égalité :

3.
4.





sont de plus mutuellement disjoints, l’inégalité de-



















soit une suite croissante d’événements (au sens de l’inclusion) et
est croissante et converge vers
soit . Alors la suite
quand

.


#
.
soit une suite décroissante d’événements telle que











Soit
est décroissante et converge vers
quand
3 . Alors la. suite






5.









Exemples de mesures :
– La mesure nulle est celle qui vaut pour tout événement.

– La mesure infinie est celle qui vaut
pour tout événement qui n’est pas
vide et zéro pour l’ensemble vide.

9



– La mesure de Dirac en un point








de





est notée et vaut











si
sinon

(1.3)

pour
.
– La mesure de comptage est celle qui associe à un événement son cardinal.

#

Définition 9 Soit
.




un espace mesuré. La mesure



est dite bornée si

Une conséquence immédiate de cette définition est que, dans ce cas, la mesure de

tout événement de la tribu est finie.

1.7 La mesure de Lebesgue
Nous définissons maintenant la mesure qui est la plus importante en analyse et
en probabilités. C’est la mesure de
la longueur dans le cas
Lebesgue qui mesure

de , la surface dans le cas de
, le volume dans
et qui se définit dans tout

,
.






Commençons par muni de sa tribu des boréliens
intervalles est usuelle :





3



que égale







,









,







.

ou





La longueur des






(1.4)



On peut montrer, et ce n’est pas si simple qu’il n’y paraît, que
dès que les sont des intervalles deux à deux disjoints dont l’union
est encore un intervalle. Ceci ressemble à la propriété de -additivité mais il faut
encore travailler car l’ensemble des boréliens de ne se limite pas à l’ensemble
des intervalles ouverts, fermés ou semi-ouverts. Avec beaucoup de sueur, on arrive
à montrer le théorème suivant.








Théorème 2 Il existe une et une seule mesure positive sur
qui vérifie
(1.4). La mesure de Lebesgue est définie comme étant cette unique mesure positive.
Ce résultat est un des plus difficiles à montrer. Nous omettrons donc sa démonstration mais le lecteur intéressé peut se reporter à l’annexe B qui présente
10

une synthèse de la la construction de la mesure de Lebesgue-Stieltjes. Le théorème précédent est un cas particulier de cette construction.
La difficulté majeure est l’existence de la mesure . C’est le théorème de prolongement dont une version plus générale est donnée par le théorème 35 : on
connaît sur la classe des intervalles ouverts à gauche et fermés à droite ; cette
classe engendre bien la tribu des boréliens et la partie difficile est de montrer que
. Il est plus facile de montrer l’unicité.
peut être prolongée à toute la tribu







En fait, la tribu des boréliens n’est pas la plus grande tribu sur laquelle on
peut définir la mesure de Lebesgue et cela apparaît dans la démonstration même
du résultat. Le prolongement qui assure l’existence de la mesure de Lebesgue se
plus grande que . Cette tribu est ce qu’on appelle
fait sur une tribu
. Nous reviendrons sur ce point un peu plus tard. Ce qu’il
la "complétée" de
faut retenir pour l’instant est :
est ce qu’on appelle la tribu de Lebesgue sur ;
(a) Ladite tribu
(b) Même si, par abus de langage, la tribu de Lebesgue est souvent confondue avec la tribu des boréliens pour des raisons que nous expliciterons au
chapitre 6, la tribu des boréliens est strictement incluse dans la tribu de
Lebesgue.
Voici quelques propriétés simples de la mesure de Lebesgue :
– La mesure de Lebesgue est invariante par translation et c’est d’ailleurs la
seule mesure sur qui vérifie cette propriété.
– La mesure de Lebesgue des singletons est nulle.
– Tout ensemble fini ou dénombrable
est un borélien de mesure nulle.

non vide. Cet intervalle est évidem– Considérons un intervalle



.
ment l’union infinie mais non dénombrable des singletons









Cependant, on ne pourra pas écrire
. Ceci pour deux

raisons. La première est que la mesure de chaque singleton est nulle de sorte
que la seule valeur raisonnable que l’on pourrait donner à cette somme serait . La seconde raison est qu’on ne sait pas définir la somme d’une infinité non dénombrable de termes. Ceci explique pourquoi la définition d’une
tribu se limite à des unions au plus dénombrables et pourquoi, par conséquent, la -additivité elle-aussi ne concerne que des réunions dénombrables.









Définissons maintenant la mesure de lebesgue
de
assez direct. Le "volume" d’un rectangle










11










3
















,






. En fait, c’est


est

(1.5)

et nous avons l’analogue du théorème 2 :






Théorème 3 Il existe une et une seule mesure sur
(1.5). cette unique mesure est la mesure de Lebesgue.

qui vérifie

1.8 Définition d’une probabilité
La notion de mesure introduite plus haut nous permet de définir la notion de
probabilité.






Définition 10 Soit
un espace probabilisable. Une probabilité

telle que
mesure positive bornée sur

est une



Nous pouvons donner une autre définition de la probabilité utilisable en pratique.

un espace probabilisable. On appelle probabilité toute
dans telle que :



Définition 11 Soit


application de
1.
2.









(relation de normalisation)




Pour toute suite décroissante d’événements de , notée convergeant
est décroissante et converge vers (relation de
vers , la suite






3. Pour tout couple d’événements disjoints de ,
(relation d’additivité)
4.



continuité)
Exercice 2 Montrer que les définitions 10 et 11 sont effectivement équivalentes.




Le triplet
est un espace mesuré, certes, mais étant muni d’une mesure de probabilité, on préfère parler d’espace probabilisé.
Une probabilité est entièrement définie par la donnée des valeurs prises par
chaque événement d’un système de constituants.
Pour construire une probabilité sur un espace probabilisable dénombrable, on
peut utiliser le théorème ci-dessous.

12







Théorème 4 Soit
un espace probabilisable où est dénombrable. On sup



.
pose que

est un système complet de constituants tel que

, est entièrement connue si on connaît
a) Si est une probabilité sur


les
.


b) Réciproquement, soit une suite

de réels à valeurs dans
telle






vérique


. Alors il existe une unique probabilité sur

fiant


.











1.9 Espace produit
Remarquons qu’à une expérience aléatoire répétée plusieurs fois correspond

un espace produit. Le cas du jeu Pile ou Face répété une infinité de fois donne
comme
élémentaire une suite ordonnée
infinie de Piles et de Faces :


événement
et

.

( (





1.10 Exercice corrigé
Soit l’expérience aléatoire consistant à lancer une pièce jusqu’à l’apparition
qui modélise cette expérience.
de pile. Donner l’espace de probabilité
Réponse :

( ' ( '
est donc dénomL’événement ”Pile n’apparaît jamais” est à considérer.






brable. La tribu peut être choisi comme
. On obtient ainsi un espace




probabilisable. La probabilité





, peut être choisi, comme :





( ' . Pour l’événement élémentaire






( ( , onesta le -uplet



. On peut vérifier que
est une probabilité (la
3



). On obtient ainsi un espace probabilisé.
propriété de la
additivité et








Compléments : Boréliens d’un espace topologique
Le fait que et que puissent être munis de structures topologiques, dites usuelles,
nous permet de rendre ces ensembles mesurables en considérant la tribu engendrée par les

13

éléments de ces topologies. De là, à construire un espace mesurable à partir de tout espace
topologique, il n’y a qu’un pas. En fait, en théorie de l’intégration, on pose la définition
générale suivante.


un espace topologique. La tribu
Définition 12 Soit
espace topologique est la tribu engendrée par les éléments de





des boréliens de cet

:



Exercice 3 Comment peut-on définir la tribu des boréliens de , de

14



où ?

Chapitre 2
Calcul combinatoire des probabilités
2.1 Généralités


Dans ce chapitre, nous considérons des ensembles d’événements élémentaires
finis ou infinis dénombrables munis de la tribu constituée par toutes les parties

. La donnée d’une probabilité sur
est équivalente à la
de :

de nombres
donnée d’une famille finie ou infinie dénombrable


compris entre 0 et 1 telle que
.


Dans le cas d’un fini, un exemple est la probabilité uniforme pour lequel
chaque événement élémentaire a la même probabilité. On a alors :










et




















Nb de cas favorable
Nb de cas possible

(2.1)



(2.2)

Cette probabilité traduit mathématiquement l’expression "au hasard".

2.2 Rappels d’analyse combinatoire
' ( une population formée de individus distincts.
Soit
Un
échantillon
( ( de taille extrait de cette population est une suite ordonnée





de éléments de . Il faut distinguer deux manières de tirer




un échantillon :
15

' (

– tirage avec
remise
:

la suite



peut comporter plusieurs fois le même élément.


On a
et




– tirage sans remise : (
on a :


















(2.3)

),

3 ( ' 3














3


(2.4)

Un tirage dans ce cas est un arrangement.

On peut définir aussi les sous-populations de taille p ( ) de . C’est un

sous-ensemble de comportant éléments distincts pour lequel l’ordre n’intervient plus. Le nombre de tels sous-ensembles est égal au nombre d’échantillons
de taille , sans remise, divisé par qui est le nombre de bijections (on dit aussi
de permutations) d’un ensemble à éléments. On a alors :









5



3


est appelé aussi le nombre de combinaisons de



(2.5)

éléments parmi .

2.3 Exemple
Considérons le jeu de Bridge (jeu à 52 cartes). La distribution des cartes
étant faite au hasard. "La main" d’un joueur
est une sous-population de 13

. Soit l’événement
cartes. Le nombre de "main" possible est


le joueur a exactement
3 As . On a :


.


















2.4 Exercice corrigé
On lance successivement 3 dés distincts équilibrés.



1. Définir l’ensemble des événements élémentaires .
2. Quel est le nombre d’événements élémentaires (ou

16






)?

.

3. Soit

4. Soit

l’événement "obtenir le même résultat pour les trois dés". Calculer



.

l’événement "obtenir trois résultats différents". Calculer

. l’événement "au moins deux dés donnent le même résultat". Calculer

5. Soit

6. Soit l’événement "deux dés parmi les trois donnent le même résultat, le

troisième donnant un résultat différent". Calculer .

Réponse :
1. L’ensemble

2. Il y a
3.







est l’ensemble des triplets d’entiers définis par :



































événements élémentaires ayant la même probabilité

5


Pour obtenir l’événement , il faut obtenir un triplet de la forme












.
et

six situations différentes sont possibles. En conséquence, nous avons :

5 5 2





4. L’événement obtenu lorsque
les trois
résultats sont différents. Ceci peut



s’écrire
sous la forme
avec
distincts. Choisissons tout d’abord




: il y a six possibilités. Nous devons ensuite choisir tel que
, il y

a ainsi
5 choix différents possibles. De même, pour , qui doit être différent


de et , n’a que 4 choix possibles. Nous obtenons par conséquent :



5. Remarquons que








3







5 5 :

, et par suite :





3








3 5:
5:














6. Les événements
prennent la forme
ou
ou

, où correspondants


. Le nombre d’événements distincts de la forme
est évidemment
. En conséquence, la probabilité de l’événement
vaut :


2

: 5
17



5










On
que
et il est évident que tout événement


. Les événements et
vérifie
appartient
à la réunion


,
constituent une partition de . Si on prend comme tribu, l’ensemble








l’ensemble des parties de , on définit ainsi,
, un espace probabilisable (dit
aussi mesurable). Muni de la probabilité uniforme (équiprobabilité entre les

.
événements élémentaires), on obtient un espace probabilisé




18







Chapitre 3
Probabilités conditionnelles et
indépendance
3.1 Probabilités conditionnelles
3.1.1 Définition




un événement de
Définition 13 Etant donné un espace probabilisé
de probabilité non nulle. La probabilité de l’événement etconditionnelllement


à l’événement , notée , est définie par :


5





5





(3.1)

Remarques :
se lit aussi "probabilité de sachant ".
1.
2. Notez que l’on utilise également cette notion sous la forme :

5



que l’on généralise à :



( (



5

5




5 ' ( 5 ( (

3. Nous pouvons aussi déduire ce que l’on appelle la règle de Bayes, écrite
sous la forme :



5



19

5


Proposition 5 L’application :



3



3





).
est une probabilité (sur



3.1.2 Formule de Bayes



Soit
une partition finie ou infinie de
Une telle partition est caractérisée par :
















Nous en déduisons la formule de Bayes :


5












telle que pour tout ,





et

On a alors pour tout événement arbitraire









:




5








5




%

.

(3.2)

5









(3.3)








(3.4)

C’est une conséquence directe de la règle de Bayes.

3.2 Evénéments indépendants
3.2.1 Indépendance de deux événements




Définition 14 Soit
un espace probabilisé et A et B deux événements. On
dit que A et B sont stochastiquement indépendants si et seulement si :



Remarques :










(3.5)

1. Lorsque
sont stochastiquement indépendants si et seule
, A et B, ce
ment si
qui signifie que la probabilité de n’est pas
modifiée par la réalisation de .

5



20

2. La notion d’indépendance dépend de la probabilité . Deux événements
peuvent être indépendants pour une probabilité et pas pour une autre
probabilité .

3. Un événement de probabilité nulle est indépendant de n’importe quel
événement de probabilité non nulle.
4. Si et sont indépendants alors
et ou ( et )).

5. Si et



et

sont indépendants alors :







sont indépendants (idem pour




3




(3.6)





Exemple :

Dans le cas du lancer d’un dé, considérons les deux événements
. Pour la probabilité uniforme, et sont indépendants puisque :
et

2





















2

3.2.2 Indépendance d’une suite d’événements



Définition 15 Soit
une suite (finie ou infinie) d’événements d’un espace pro
. On dit que la suite
est indépendante si et seulement si
babilisé

extraite de la suite
, on a :
pour toute suite finie





' (



















(3.7)





Remarques :
1. Cette définition est équivalente à :

pour tout indices


.


2.


La suite


%


5



( (

( (






deux à deux distincts tels que

est indépendante implique que la suite
ou
) est indépendante.

21







(où
désigne





3.2.3 Théorème de Borel-Cantelli



Soit
une suite d’événements. L’événement “un nombre infini
d’évé

. Dans le
nements a lieu” est appelé limite supérieure de la suite et est noté
même esprit, l’événement “seul un nombre fini d’événements
a lieu” est appelé


.
limite inférieure de la suite et est noté
On peut écrire :



















Ces deux événements étant introduits, nous pouvons énoncer le théorème de
Borel-Cantelli. Ce théorème est utilisé pour démontrer la convergence presque
sûre d’une suite d’événements (cf. section ??).
Théorème 5 (Théorème de Borel-Cantelli)



1. Si une suite d’événements


.







est telle que

2. Si une suite d’événements indépendants




, alors
.












#

est telle que










, alors








3.3 Indépendance de tribus
Pour terminer ce chapitre, nous noterons que l’indépendance s’étend aux tribus :








Définition 16 Soit
un espace probabilisé. Une suite
de sous tribu




de
est dite indépendante si et seulement si pour toute suite d’événements
,


, est indépendante.
telle que


3.4 Exercice corrigé





Dans une population,
des individus sont contaminés par un virus. On dispose d’un test de dépistage qui présente les propriétés suivantes : Parmi les indivi
dus contaminés, le test est positif à
; Parmi les individus non contaminés, le

test est tout de même positif à
(il y a donc des risques de mauvais diagnostic).

2

::

22

1. Quelle est la probabilité, que le test appliqué à un individu pris au hasard
soit positif ?
2. Sachant, pour un individu donné, le test est positif, quelle est la probabilité
que cet individu soit contaminé ?
3. Calculer les probabilités intéressantes pour ce problème et en déduire les
remarques de bon sens que cela vous inspire.
Eléménts de correction de l’exercice :





Définissons les événements dans notre population .
"le test est positif",
"l’individu est contaminé",
Les données de l’énoncé s’interprétent en disant que :
,


,


.



::
5
5
2






5



5 :

1. On a
.


Le fait qu’il y ait beaucoup de gens bien portant fragilise la fiabilité du test.
2.







5


















5








Un tiers (
) des personnes qui ont fait virer le test ne sont pas contaminés.
Il est difficile de faire un test fiable quand la maladie est rare.
3. On peut s’amuser à calculer d’autres probabilités non demandées par
l’énoncé.



5



5

:: :







23

Il est aussi interessant de se poser la question des malades non dépistés par
le test.





5







5









Peu de personnes contaminées ne seront pas dépistées par le test. Faire les
tests dans les populations exposées au virus est une bonne stratégie de politique de santé publique.

24

Chapitre 4
Variables aléatoires (réelles et
généralisées)
Dans de nombreuses expériences physiques ou dans des problèmes de traitement du signal il est nécessaire d’associer une valeur numérique aux résultats d’une épreuve expérimentale. Dans le cas du lancer d’une pièce on pourra

à l’événement élémentaire
Pile et
à
par
exemple décider d’associer

Face.
Nous devons donc savoir comment associer une valeur numérique à chaque


élément de l’ensemble et introduire des applications
prenant des
valeurs réelles. Les notions d’application mesurable, de variable aléatoire et de
variable aléatoire généralisée permettent de poursuivre dans cette voie de façon
satisfaisante.







3



Avant de continuer, donnons quelques précisions d’ordre terminologique. Par

fonction

, nous entendons une correspondance entre et pour
laquelle tout élément de a au plus une image dans . Par application, nous
entendons une fonction pour laquelle tout élément de a une image et une seule
dans .
Cette terminologie n’est pas exactement celle utilisée dans la littérature anglosaxonne. Les termes "function" et "application" se rencontrent dans cette littérature avec le sens que nous venons de donner. En général, cependant, le terme
"map" ou "mapping" est utilisé dans le sens d’application. Le terme de "function"
est alors souvent employé pour désigner une application à valeurs dans , , voire
. Attention donc lors de la lecture d’articles et d’ouvrages.


25

4.1 Applications mesurables

et
deux espaces probabilisables. Soit
Définition 17 Soient




une application de dans , est une application mesurable de dans

si l’image réciproque de tout sous-ensemble mesurable de (id est, tout



élément de ) est un sous-ensemble mesurable de (id est, un élément de ).


On rappelle que si est un sous-ensemble de (non nécessairement mesurable,

est l’ensemble des éléments de dont
notons le), l’image réciproque

l’image par appartient à :






















Ne pas confondre cette notation avec celle utilisée pour désigner la fonction

réciproque ou fonction inverse de lorsque cette fonction est bijective.





appartient à pour tout
Si est mesurable,

















pour signifier que

parfois
rapport aux tribus mises en jeu.




Lorsque

respectives




dans


et on écrit
est mesurable par

et avec

avec leurs tribus boréliennes
respectives, une fonction mesurable de

etest appelée
fonction borélienne.

Exemples : Avec les notations introduites précédemment :



1. Si





de toutes ses parties, toute application de
est muni de la tribu









dans
est mesurable.

2. Toute fonction constante de



dans



est mesurable.

4.2 Variables aléatoires réelles et généralisées
La terminologie que nous utilisons est celle proposée dans [11], qui est une
référence que nous utiliserons pour la présentation des processus aléatoires.
Définition 18 Soit




un espace probabilisable.

(i) On appelle variable aléatoire réelle toute application mesurable de

où désigne la tribu des boréliens de .
dans
26




(ii) On appelle variable aléatoire généralisée toute application mesurable de

dans
où désigne la tribu des boréliens de la droite étendue
.
Remarques :
1. Dans la pratique, les variables aléatoires sont en général suffisantes pour
traiter les problèmes usuels. Nous introduisons les variables aléatoires généralisées car celles-ci interviennent dans certains cas qui ne sont pas pathologiques mais qui jouent un rôle significatif.
2. La définition d’une variable aléatoire, qu’elle soit réelle ou généralisée, ne

demande pas à ce que l’ensemble soit probabilisé ou non. Il faut quand
même que cet ensemble soit muni d’une tribu.
pour désigner les
3. En général, on utilise les lettres majuscules
variables aléatoires réelles ou généralisées.


4. Si
réciproque de par une variable aléatoire


, l’image
est souvent

au lieu de .
notée

( (











Il en va de même si
et
est une variable

aléatoire généralisée.

est un espace
5. A titre d’exercice, le lecteur pourra montrer que si
probabilisable, alors les trois propositions suivantes sont équivalentes :

(i) 1l est une variable aléatoire

)
(ii) est un ensemble mesurable (

(iii) 1l est une variable aléatoire généralisée
Ce résultat illustre la cohérence entre la notion de mesurabilité d’une fonction et celle d’un ensemble.

Il est bon de garder à l’esprit les lemmes suivants, dont les démonstrations
aisées sont laissées au lecteur.


un espace probabilisable,
et la tribu trace de
Lemme 1 Soit
sur , c’est-à-dire la collection

. Soit

ou











et
l’espace mesurable correspondant.


une application mesurable.
(a) Soit

de à définie, pour


(i) La restriction









tout
, est mesurable par rapport aux tribus
et , par
.

















27



(ii) L’application 1l

aux tribus et .




(b) Soit


, désignons par






Alors
















est mesurable par rapport



une application mesurable. Pour tout
l’extension de définie par





si
si






est mesurable par rapport aux tribus

et .






Lemme 2 Soit
un espace probabilisable,



et

pace mesurable correspondant. Soit

est incluse dans :
.
l’image







ou





et
l’es
une application dont

la tribu trace de sur , l’application

En
désignant

par
est mesurable
et si et seulepar rapport aux tribus


est mesurable par rapport aux
ment si l’application



tribus et .



En gardant les notations de ce lemme, celui-ci signifie en particulier que la


entraîne celle de lorsqu’on est
mesurabilité de

considérée comme une application à valeurs dans qui contient .



Aussi, une variable aléatoire réelle est un cas particulier de variable aléatoire
généralisée. Une variable aléatoire réelle est aussi un cas particulier de variable
aléatoire complexe.
De même une variable aléatoire généralisée
positive, c’est-à-dire une variable




















aléatoire
comme une va peut

être
considérée
et une variable

riable aléatoire généralisée.
aléatoire











réelle positive
est aussi un cas particulier de

variable aléatoire et de variable aléatoire généralisée positive.

4.3 Critères de mesurabilité
Le premier critère que nous énonçons ci-dessous est celui que l’on présente
classiquement en théorie de la mesure et de l’intégration. Il n’est ni plus simple,
ni plus compliqué que ses applications aux variables aléatoires réelles et généralisées.
28











où et sont deux espaces proProposition 6 Soit


. Pour que
babilisables. Soit une classe de parties de telle que

appartienne à pour tout élément
soit mesurable, il faut et il suffit que
de .






Nous proposons au lecteur de prouver ce résultat sous forme d’exercice selon
les étapes suivantes.
Exercice :
1. Montrer que la condition est nécessaire
2. Réciproquement, supposons que

dans et considérons













(b) Montrer que



est une tribu de





est inclus








(a) Montrer que





et en déduire que






(c) Conclure
Un critère fort utile dès que l’on considère des applications définies sur un
espace vectoriel de dimension finie et à valeurs dans un autre espace vectoriel de
dimension finie est le suivant.



Proposition 7 Toute application continue de
rélienne.

dans







est bo-

Nous passons maintenant au cas des variables aléatoires réelles grâce à la proposition suivante qui est une application directe des propositions 6 et ??.




Proposition 8 Soit
un espace probabilisable. Pour qu’une application


soit une variable aléatoire, il faut et il suffit qu’elle vérifie l’une
quelconque des conditions suivantes :
(i)
(ii)





#







est un élement de
est un élement de





pour tout

pour tout

29











.
.

Exercice 4 Avec les notations introduites ci-dessus, montrer que pour que


soit une variable aléatoire, il faut et il suffit que l’une quelconque des
conditions suivantes soient réalisées :
(iii)
(iv)

%











est un élement de
est un élement de







pour tout
pour tout









.
.

Exercice
5 Enoncer un critère de mesurabilité basé sur les intervalles




,
,
,
.







,



Exercice 6 Soit
. Montrer que est mesurable lorsque est muni




de la tribu
si et seulement si l’une quelconque des conditions (i-iv) de la
proposition 8 et de l’exercice 4 est vérifiée.
Exercice 7 Montrer que l’on peut remplacer "
énoncés des exercices précédents.






" par "








" dans les

4.4 Propriétés élémentaires des applications mesurables et des variables aléatoires réelles
Les propriétés suivantes sont celles des applications mesurables et sont donc
valables pour les variables aléatoires puisque celles-ci sont les applicationes mesurables à valeurs dans muni de sa tribu des boréliens.







et
,
espaces proProposition 9 Soient

trois


babilisables. Si est une application mesurable de
dans

dans
, alors l’apet
une application mesurable de

dans
plication composée
est une application mesurable de

.





)
Proposition 10 Soient variables aléatoires réelles (











définies sur le même espace probabilisable
et


(
) une fonction borélienne. L’application




définie, pour chaque
, par

dans
.
mesurable de












30



( '

( '







est alors


Nous engageons le lecteur à démontrer ce résultat à titre d’exercice. Pour cela,
il devra utiliser les propositions 3, 8 et 9.
Ce résultat permet de construire énormément d’applications mesurables et de
variables aléatoires. Il est particulièrement utilisé lorsque la fonction ci-dessus
sont des variables aléatoires, les applicaest continue. Ainsi, si
tions suivantes

( '

(i)




(ii)
(iii)








où les
sont réels,







où chaque
est un entier relatif, non nul si












( (

et

' (




peut s’annuler,

sont aussi des variables aléatoires réelles.
Exercice 8 Soient et
,

ensembles
considérer l’application



deux variables aléatoires réelles. Montrer que les
# et sont mesurables. (Indication :
3 ).

Exercice 9 Le rapport de deux variables aléatoires étant nul par convention lorsque le numérateur et le dénominateur le sont simultanément, montrer
qu’avece cette convention, le rapport de deux variables aléatoires réelles est
une variable aléatoire généralisée.

68

Cet exercice nous donne un premier exemple de l’importance des variables
aléatoires généralisées.

4.5 Limites de variables aléatoires
une séquence à valeurs dans

Soit
. Posons
( ( pour + ( ( . Il est facile de voir ou


que la séquence
est décroissante. A ce titre, elle admet donc une limite dans qui peut donc être
3 . Posons /
( (
. La valeur / est appelée limite
supérieure de la séquence et l’on écrit
/




























ou encore

















/




31





La limite inférieure de la suite est définie de manière analogue. Si


pour
, la séquence
on considère la suite

est croissante et admet donc une limite dans . On pose donc


. La valeur est appelée limite inférieure de la sé

quence et l’on écrit





( (

+

( (

( (

















ou encore







On peut remarquer que













3





43












On montrera à titre d’exercice
que pour que
la suite








.
et il suffit que





(4.1)




converge il faut



Ce que nous venons de rappeler pour les séquences de valeurs réelles peut
s’appliquer à des séquences d’applications à valeurs dans ou à valeurs dans
. Nous pouvons, en particulier, appliquer ces notions aux variables aléatoires

un espace
réelles et aux variables aléatoires généralisées. En effet, soit
une séquence de variables aléatoires réelles ou généprobabilisable et

(resp. comme l’apralisées. Nous pouvons alors définir



, associe la valeur
plication définie
sur et à valeurs dans qui, à tout








), c’est-à-dire la limite supérieure (resp. la

(resp.

.
limite inférieure) de la suite

et

Nous sommes obligés de considérer les applications


comme des applications à valeurs dans et non pas simplement dans
pour la simple et bonne raison que les limites supérieures et inférieures d’une
séquence de réels, même si elles existent toujours, ne sont pas nécessairement
finies.


Proposition 11 Soit
néralisées.
(i) Les applications
(ii) Les applications
néralisées.










une séquence de variables aléatoires réelles ou gé-



et






et




sont des variables aléatoires généralisées.


32





sont des variables aléatoires gé-

(iii) Si la suite
généralisée.



converge simplement, sa limite est une variable aléatoire

Cette proposition nous montre, une fois de plus, que les variables aléatoires
généralisées ne sont pas curiosités pathologiques mais interviennent de manière
naturelle dans la théorie.





une suite de variables aléatoires réelles, montrer que
Exercice 10 Soit


converge est mesurable (utiliser le
l’ensemble des
où la suite
résultat de l’exercice 8). En est-il de même si la séquence est une suite de variables
aléatoires généralisées ?

Compléments : variable aléatoire complexe









et sont mesurables. D’où la définition
et de dire que est mesurable si
suivante.
est une variable
Définition 19 Soit
un espace mesurable. On dit que
aléatoire complexe si les parties réelles et imaginaires de sont des variables aléatoires




Soit

un espace mesurable et
. Comment peut-on définir une notion
de mesurabilité pour
à partir de celle qui
a été introduite précédemment
? C’est
très





facile. Il suffit d’écrire sous la forme
sont les parties réelles et imaginaires respectives de définies pour tout
par :


























réelles.

33



Documents similaires


coursjacod
ent loisdensite
cours echantillonnage et estimations
polycopie belhoussaine
td 6proba stat partie i 2012
quelques corriges


Sur le même sujet..