Proba RappelsCours .pdf


Nom original: Proba-RappelsCours.pdf

Ce document au format PDF 1.5 a été généré par LaTeX with hyperref package / pdfTeX-1.40.17, et a été envoyé sur fichier-pdf.fr le 04/02/2018 à 14:00, depuis l'adresse IP 176.187.x.x. La présente page de téléchargement du fichier a été vue 254 fois.
Taille du document: 311 Ko (4 pages).
Confidentialité: fichier public


Aperçu du document


Claire Dandine-Roulland, Sarah Flora Jonas, Émeline Courtois

Rappels de cours de Probabilités
Chapitre 1 : Élément du calcul des probabilités
Si A et B sont deux évènements (ex : avoir au moins un patient guéri dans l’échantillon, n’avoir aucune guérison...)
• On appelle intersection des évènements A et B l’ensemble des résultats de l’expérience qui réalise A et
B. On le note A ∩ B.
• L’union des évènements A et B est l’ensemble des résultats de l’expérience qui réalisent A, B ou les deux.
On le note A ∪ B.
• Si la réalisation de l’évènement A implique la non-réalisation de de l’évènement B, alors A et B sont
incompatibles et A ∩ B = ∅ .
• L’évènement complémentaire de A, noté A est l’ensemble des résultats de l’expérience qui ne réalisent pas
A.
• P (A|B) est la probabilité de l’évènement A avec une information supplémentaire : l’évènement B s’est
réalisé. On parle de « A sachant B ».
P (A) = 1 − P (A)

P (∅) = 0
P (A ∩ B) Bayes P (B|A)P (A)
=
P (B)
P (B)
P (A ∩ (B ∪ C)) = P ((A ∩ B) ∪ (A ∩ C))
P (B|A)P (A)
P (A|B) =
P (B|A)P (A) + P (B|A)P (A)

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

P (A|B) =

P (A ∪ (B ∩ C)) = P ((A ∪ B) ∩ (A ∪ C))
P (A ∩ B) = P (B ∩ A) = P (A|B)P (B) = P (B|A)P (A)
P (A ∩ B) = P (B)P (A) ⇒ A et B sont indépendants
Probabilités totales : P (A) =

P

i P (A

∩ Bi ) =

P (B|A) = P (B|A) = P (B) ⇒ A et B sont indépendants
P

i P (A|Bi )P (Bi )

avec (Bi ) une partition de l’univers.

Chapitre 2 : Variables aléatoires
Associer à chaque évènement élémentaire d’une expérience aléatoire un nombre permet de définir une variable
aléatoire.
• Variable aléatoire X discrète : les (valeurs prises par X sont finies ou infinies et dénombrables. La loi de
x1 , x2 , ...(réalisations)
probabilité de X est donnée par :
p1 = P (X = x1 ), p2 , ...(probabilités associées)
• Variable aléatoire X continue : X peut prendre théoriquement un nombre infini de valeurs réelles qui forment
un ensemble continu (ex : la taille...). Elle admet une densité de probabilité fX et une fonction de
répartition F .
R +∞
F (x) = P (X ≤ x)
−∞ fX (x)dx = 1 et ∀x, fX (x) ≥ 0
P (a ≤ X ≤ b) =

Z b

fX (x)dx = F (b) − F (a)

a

• Espérance : E(X) = µ =

X
|

• Variance : V (X) =

E(X 2 )

Z +∞

xi P (X = xi ) ou E(X) =
{z

}

cas discret
2

− (E(X)) =

X
|

−∞

|

x2i

xfX (x)dx
{z

cas continu



}

2

P (X = xi ) − µ ou V (X) =
{z

cas discret

}

Z +∞
−∞

|

x2 fX (x)dx − µ2
{z

cas continu

Calculs sur la variance et l’espérance : soient a et b deux réels, X et Y deux variables aléatoires.
E(aX + b) = aE(X) + b

V ar(aX + b) = a2 V ar(X)

E(X + Y ) = E(X) + E(Y )

V ar(X + Y ) = V ar(X) + V ar(Y ) + 2cov(X, Y )

E(X − Y ) = E(X) − E(Y )

cov(X, Y ) = E(XY ) − E(X)E(Y )
cov(X, Y ) = 0 si X et Y sont indépendantes
cov(X, X) = V ar(X)

}

Claire Dandine-Roulland, Sarah Flora Jonas, Émeline Courtois

Chapitres 3 et 4 : Loi binomiale et loi de Poisson
• Épreuve de Bernoulli : expérience aléatoire ayant deux résultats possibles : succès avec une probabilité associée
p et échec avec une probabilité associée 1 − p.
Réalisations
X = 0 ou X = 1

Probabilités
P (X = 1) = p et P (X = 0) = 1 − p

Espérance
E(X) = p

Variance
V ar(X) = p(1 − p)

• Distribution binomiale : somme de n variables de Bernoulli, on note X ∼ B(n, p)
Probabilités
n!
P (X = k) =
pk (1 − p)n−k
k!(n − k)!
→ probabilité d’avoir k succès parmi n essais

Espérance

Variance

E(X) = np

V ar(X) = np(1 − p)

• Distribution de Poisson : décrit le comportement du nombre d’évènements se produisant dans un intervalle de
temps fixé, permet de caractériser les évènements rares. On note X ∼ P(λ) où λ est le nombre moyen d’occurrences
dans un intervalle fixé.
Probabilités
λk −λ
e
P (X = k) =
k!
→ probabilité d’observer k évènements

Espérance

Variance

E(X) = λ

V ar(X) = λ

Chapitre 5 : Loi Normale, TCL et lois associées
• Loi Normale : X ∼ N (µ, σ 2 ), la variable X a une probabilité de 95% d’être comprise entre µ + 2σ et µ − 2σ.
— Sa densité est symétrique par rapport à l’axe vertical y = µ
— Par symétrie de sa densité, on déduit
F (−z) = 1 − F (z) ⇔ P (X ≤ −z) = P (X ≥ z)
— Pour X ∼ N (µ, σ 2 ) on a Z = X−µ
σ ∼ N (0, 1)
• Théorème Limite Centrale : Soient X1 , X2 , .., Xn des variables aléatoires de même loi, indépendantes, de
moyenne µ et de variance σ 2 . Pour n suffisamment grand, la moyenne de ces variables a une distribution normale,
peu importe la loi suivie par ces variables.
1X
X=
Xi ∼ N
n

σ2
µ,
n

!

X −µ
⇒ q 2 ∼ N (0, 1)
σ
n

• Loi du Khi-deux (χ2 ) : Soient X1 , X2 , .., Xn n variables normales centrées réduites indépendantes, la somme de
leur carré suit une loi du χ2 à n degrés de liberté (ddl). On note Z = X12 + X22 + ... + Xn2 ∼ χ2n . Plus généralement,
si X1 , X2 , .., Xn sont n variables normales N (µ, σ 2 ) indépendantes alors on a :

n
X
Xi − µ 2
i=1

σ

∼ χ2n

• Loi de Student : Soient Z ∼ N (0, 1) et U ∼ χ2k deux variables aléatoires indépendantes.
Z
T = q ∼ loi de Student à k degrés de liberté
U
k

→ voir le test de Student pour une application pratique.

Claire Dandine-Roulland, Sarah Flora Jonas, Émeline Courtois

Chapitre 6 : Estimation
Soient X1 , X2 , .., Xn des variables aléatoires i.i.d. de moyenne µ et de variance σ 2 .
• Estimation de µ
Pn
b=X=
µ

E(X) = µ
V ar(X) =

i=1 Xi

n

X est un estimateur sans
biais (et convergent) de µ

σ2
n

• Estimation de σ
b2
σ

Pn

=

P 2
− X)2
1
(
=
Xi −
n−1
n−1

P

i=1 (Xi

Xi )2
n

!

b 2) = σ2
E(σ
b2) =
V ar(σ
|

b 2 est un estimateur sans
σ

2σ 4

n − 1}
{z

biais (et convergent) de σ 2

pourX∼N (µ,σ 2 )

b = E(θ)
b − θ ⇒ θb est sans biais si E(θ)
b =θ
Biais d’un estimateur : On définit le biais de l’estimateur θb par B(θ)

Intervalles de confiance au niveau 1 − α
• d’une moyenne (variance connue) : (Xn )n>1 n normales, n > 30 et εα/2 quantile d’une loi normale
σ
IC1−α (µ) = X ± εα/2 √
n




n−1
quantile d’une loi de Student à
• d’une moyenne (variance inconnue) : (Xn )n>1 n normales, n > 30 et tα/2
n − 1 ddl.



s

n−1
IC1−α (µ) = X ± tα/2



b2
σ

n

• d’un pourcentage : (Xn )n>1 n Bernoulli de paramètre θ et εα/2 quantile d’une loi normale


IC1−α (θ) = X ± εα/2

s



X(1 − X) 
n

Chapitre 7 : Maximum de vraisemblance (Facultatif)
On cherche à écrire la vraisemblance des données observées en fonction du (ou des) paramètre(s) d’intérêt, puis à
la maximiser afin d’estimer ce (ces) paramètre(s).
• Écriture de la vraisemblance
Exemple : Pièce de monnaie avec pile et face. Je lance 10 fois ma pièce, je tombe deux fois sur pile. Je cherche le
meilleur estimateur pb pour décrire ma probabilité de tomber sur pile. Si je choisis pb = 0, 6, je suis loin de la réalité
et la probabilité d’obtenir des données identiques à mon expérience est faible. Un pb = 0, 6 est peu vraisemblable.
Dans ce cas, pb = 0, 2 est plus vraisemblable. C’est l’estimateur du maximum de vraisemblance.
— Vraisemblance d’une observation discrète : Pθ (X = x) ←− probabilité où θ apparait
— Vraisemblance d’un observation continue : fθ (x) ←− densité de X où θ apparait
— Vraisemblance d’un échantillon : Pθ (X = x1 ) × Pθ (X = x2 ) × ... × Pθ (X = xn ) dans le cas discret et
Q
fθ (x1 ) × fθ (x2 ) × .... × fθ (xn ) = ni=1 fθ (xi ) dans le cas continu
• Maximisation de la vraisemblance : on cherche le θb tel que la dérivée de la vraisemblance s’annule (dérivée
b
nulle en θb ⇒ changement de variation de la fonction ⇒ présence d’un maximum (où d’un minimum) en θ)
— passage à la log-vraisemblance (dérivation plus simple) l = log(L)
∂l
— estimation θb du maximum de vraisemblance : solution de l’équation ∂θ
=0
Exemple : Loi de Poisson P (X = k) =

θx θ
x! e .

Pour n observations indépendantes, la vraisemblance de l’échantillon
P
P
x
∂l
est L(θ) = Q x ! e−nθ , la log-vraisemblance est l(θ) =
xi ln(θ) − nθ + cste, sa dérivée est ∂θ
= θ i − n et
θΣxi

i

θbM V =

P

xi
n

Claire Dandine-Roulland, Sarah Flora Jonas, Émeline Courtois

Chapitre 8 : Tests d’hypothèses
• Avant de faire un test statistique, il est nécessaire de :
— poser l’hypothèse nulle H0 et l’hypothèse alternative H1 ,
— décider de la valeur du risque de première espèce α.
• Risque α : probabilité de rejeter H0 si H0 est vraie, PH0 (H0 ∈ Rejet)
Risque β : probabilité de ne pas rejeter H0 si H1 est vraie, PH1 (H0 ∈
/ Rejet)
Puissance : probabilité de rejeter H0 si H1 est vraie = 1 − β, PH1 (H0 ∈ Rejet) ⇒ on cherche à ce quelle soit
la plus grande possible
Test bilatéral

Test unilatéral

ex : H0 : µ1 = µ2
H1 : µ1 6= µ2
Ici on prend α/2 de chaque côté
ce qui fait α en tout

ex : H0 : µ1 = µ2
H1 : µ1 > µ2
Pour un risque unilatéral, je prends
α du côté qui m’intéresse

• Comparaison d’un pourcentage observé p0 à un pourcentage théorique p, pour np et n(1 − p) ≥ 5 (pour que
l’approximation par la loi normale soit possible).
|p0 − p|
ε= q

p(1−p)
n

— si ε < 1, 96 → la différence n’est pas significative à 5%
— si ε ≥ 1, 96 → la différence est significative
• Comparaison d’une moyenne observée m à une moyenne théorique µ
t=

|m − µ|
q

b
σ2
n

avec m =

P

xi
n .

1. Distribution normale ou grands échantillons de distribution quelconque avec variance inconnue
→ il faut comparer t à la valeur lue dans la table de la loi de Student à n − 1 ddl pour une valeur fixée de
α
2. Distribution normale ou grands échantillons de distribution quelconque avec variance connue
→ S 2 vaut donc σ 2 et il faut comparer t à la valeur lue dans la table de la loi normale N (0, 1) pour une
valeur fixée de α


Aperçu du document Proba-RappelsCours.pdf - page 1/4

Aperçu du document Proba-RappelsCours.pdf - page 2/4

Aperçu du document Proba-RappelsCours.pdf - page 3/4

Aperçu du document Proba-RappelsCours.pdf - page 4/4




Télécharger le fichier (PDF)


Proba-RappelsCours.pdf (PDF, 311 Ko)

Télécharger
Formats alternatifs: ZIP



Documents similaires


rappel proba
proba rappelscours
lecture 6
statistics equations answers quickstudy
td 6proba stat partie i 2012
calcul differentiel et integral tome2 n piskounov mir

Sur le même sujet..