Fichier PDF

Partage, hébergement, conversion et archivage facile de documents au format PDF

Partager un fichier Mes fichiers Convertir un fichier Boite à outils PDF Recherche PDF Aide Contact



5.Econometrie .pdf



Nom original: 5.Econometrie.pdf
Titre: econometrie.dvi
Auteur: prigent

Ce document au format PDF 1.4 a été généré par ADOBEPS4.DRV Version 4.50 / Acrobat Distiller 5.0 (Windows), et a été envoyé sur fichier-pdf.fr le 28/06/2013 à 23:49, depuis l'adresse IP 41.224.x.x. La présente page de téléchargement du fichier a été vue 1359 fois.
Taille du document: 518 Ko (37 pages).
Confidentialité: fichier public




Télécharger le fichier (PDF)









Aperçu du document


MASTER RECHERCHE
« GESTION DES RISQUES
EN FINANCE ET ASSURANCE »
COURS DE MISE A NIVEAU
POUR ETUDIANTS ISC

COURS
D’ ECONOMETRIE

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité

2

Contents
Chapitre 1 : Variables aléatoires et lois de probabilité
A. Notions de probabilité (rappels) . . . . . . . . . . . . . .
B. Variables aléatoires discrètes et absolument continues . .
C. Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . .
D. Couples de variables aléatoires . . . . . . . . . . . . . . .
E. Théorèmes de convergence . . . . . . . . . . . . . . . . .
Chapitre 2: Echantillonnage
Introduction: quelques définitions
A. Moyenne d’échantillon . . . .
B. Proportion d’échantillon . . .
C. Variances dans un échantillon

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

3
3
3
5
6
7

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

8
8
8
9
10

Chapitre 3: Estimation et tests
A Estimation : généralités . . . . . . . . . . . . . . .
B Tests : généralités . . . . . . . . . . . . . . . . . .
C Applications : estimations et tests paramétriques .
D. Quelques tests non paramétriques . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

13
13
14
15
21

Chapitre 4: Régression linéaire
A La régression linéaire simple . . .
B Le modèle de régression multiple .
C Prévision (prédiction) . . . . . . .
D Variables explicatives particulières

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

23
23
27
30
31

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

Annexe 1 : alphabet grec et quelques utilisations typiques en statistiques ou économétrie

33

Annexe 2 : Calculs sur les sommes de carrés

34

Annexe 3 : Statistiques descriptives et régression linéaire simple
Autres “Statistiques de la régression” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
“ANALYSE DE VARIANCE” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35
35
35

Annexe 4 : Notations, rappels et compléments de calcul matriciel
Vecteurs et matrices particuliers . . . . . . . . . . . . . . . . . . . . . .
Transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Produit d’une matrice A par un vecteur X . . . . . . . . . . . . . . . .
Produit de deux matrices A et B . . . . . . . . . . . . . . . . . . . . . .
Matrice de variance-covariance d’un vecteur X . . . . . . . . . . . . . .
Statistiques descriptives sur un ensemble de variables . . . . . . . . . . .
Opérations vectorielles sur espérance et variance . . . . . . . . . . . . .

36
36
36
36
36
36
37
37
37

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité

3

Chapitre 1 : Variables aléatoires et lois de probabilité
A. Notions de probabilité (rappels)
1◦ ) Espace probabilisé (Ω, a, P )
Ω : espace fondamental : fini ou infini, discret (dénombrable) ou continu
ω ∈ Ω : événement élémentaire
@ ≡ P (Ω) : tribu des parties de Ω
A ∈ @⇔ A ⊂Ω : événement complexe (composé)
P
P : @→ [0; 1]
P (A) =
P (ω) dans la cas discret
loi de probabilité sur @
A 7→ P (A) = P (ω ∈ A)
ω∈A
1
équiprobabilité ⇔ P (ω) = CardΩ
∀ω ∈ Ω (n’a de sens que si Ω fini)
uniformité ⇔ P (A) =

“T aille”(A)
“T aille”(Ω)

avec “Taille”=longueur si Ω ⊂ R ; “Taille”=surface si Ω ⊂ R2

∀A ∈ @

2◦ ) Axiomes de probabilités et règles de calcul des probabilités
∀A ⊂ Ω, 0 ≤ P (A) ≤ 1
P (Ω) = 1
P (∅) = 0
si ¡A ∩¢ B = ∅ ⇒ P (A ∪ B) = P (A) + P (B)
P A = 1 − P (A)
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
3◦ ) Probabilités conditionnelles et indépendance
P (A / B) = P P(A∩B)
(B)
P (A ∩ B) = P (A / B) .P (B) = P (B / A) .P (A)
A et B indépendants ⇔ P (A ∩ B) = P (A) .P (B) ⇔ P (A / B) = P (A) ⇔ P (B / A) = P (B)
4◦ ) Théorème de Bayes
P (B / A) ≡

P (A / B).P (B)
P (A)

=

P (A / B).P (B)
P (A / B).P (B)+P (A / B ).P (B )

B. Variables aléatoires discrètes et absolument continues
1◦ ) Définitions


X : Ω→ R
: variable aléatoire réelle (v.a.r.) : fonction définie par: ensemble de départ, ensemω 7→ X (ω)
ble d’arrivée et correspondance : ω 7→ X (ω) ∀ω ∈ Ω

• X (ω) = x ∈ R = réalisation de X = valeur prise par X une fois la tirage réalisé (et ω connu).
• X (Ω) = support de X= {X (ω) , ω ∈ Ω}
• X discrète ⇔ X (Ω) discret
• Fonction de répartition :

X absolument continue ⇔ X (Ω) continu

FX : R → [0; 1]
x 7→ FX (x) ≡ P (X ≤ x) = P ({ω ∈ Ω / X (ω) ≤ x})

∀ x ∈ R, 0 ≤ FX (x) ≤ 1
FX continue à droite: FX (x0 ) = lim FX (x0 + dx)
FX croissante (au sens large)

dx→0+
FX (−∞)

=0

FX (+∞) = 1

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité
Loi∗

Calcul de FX
Espérance∗∗
Variance∗∗

4

Cas discret
Cas continu
distribution de probabilité
densité
PX : X (Ω) → [0; 1]
fX : R → R+
0 (x)
(x) ≡ P (X = x)
x 7→ fX (x) ≡ FX
x
7→ PX P
P (ω)
=
= lim P (x≤X≤x+dx)
dx
+
ω / X(ω)=x
R x0dx→0
P
FX (x0 ) =
PX (x)
FX (x0 ) = −∞ fX (x) dx
x≤x0
R +∞
P
µX = EX = E (X) ≡
xPX (x)
µX ≡ −∞ xfX (x) dx
x∈X(Ω) ³
´
¡ ¢
VX = V (X) ≡ E (X − EX)2 = E X 2 − (EX)2
R +∞
P
(x − EX)2 PX (x)
VX =
VX = −∞ (x − EX)2 fX (x) dx
x∈X(Ω)
R +∞
P
=
x2 PX (x) − (EX)2
= −∞ x2 fX (x) dx − (EX)2
x∈X(Ω)



/ X (Ω).
On peut considérer que PX est définie sur R, N ou Z, avec PX (x) = 0 ∀x ∈
∗∗ Il existe des v.a.r. (discrètes ou continues) X / EX n’est pas définie ou VX n’est pas définie (car
la somme ou l’intégrale correspondante diverge).

Remarques:

• Ecart-type : σ X

r ³
´

= σ (X) ≡ VX = E (X − EX)2

2◦ ) Probabilités et statistiques descriptives
Probabilités (théorie)
Statistiques descriptives (concret)
Espace Ω
Population P
Probabilité d’un événement
% de cas où l’événement est réalisé
Loi théorique (PX ou fX ; FX ) Répartition empirique des valeurs (histogramme)∗
Espérance
Moyenne empirique
Variance
Variance empirique
* : Dans les populations de petite taille, on regroupe généralement les observations dans des classes (intervalles
de valeurs).
3◦ ) Opérations sur les v.a.r.
Soient : une v.a.r. X : Ω→R et une fonction g : Dg ⊂ R → Img ⊂ R, on définit la v.a.r. Y = g (X) :
Y : Ω→R
. Alors:
ω 7→ Y (ω) ≡ g (X(ω))
P

g (x) PX (x) si X discrète
x∈X(Ω)
Attention : en général, EX (g (X)) 6= g (EX (X))
EX (Y ) ≡ EX (g (X)) ≡
R
 +∞ g (x) f (x) dx si X continue
X
−∞
Applications:
¡ ¢

Moment non centré d’ordre k³ : E X k , pour
´ k∈N
Moment centré d’ordre k : E (X − EX)k , pour k ∈ N∗
4◦ ) Changement de variables
Soit Y = g (X), avec les notations du 3◦ ). Alors:
• FY (y) = P (Y ≤ y) = P (g (X) ≤ y)

¡
¢
= FX g −1 (y) si g inversible (sinon, il faut réfléchir au cas par cas).

• fY (y) =

fX (g −1 (y))
g 0 (g −1 (y))

si g inversible

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité

5

5◦ ) Propriétés de l’espérance et de la variance
Soient X : Ω→R une v.a.r. et (a.b) ∈ R2 , alors :
• E (a + bX) = a + bEX et
• V (a + bX) = b2 VX

C. Lois usuelles
1◦ ) Cas discret
Bernoulli : X Ã B (p), p ∈ [0; 1]
X (Ω) = {0; 1}
P (X = 1) = p

P (X = 0) = 1 − p

EX = p

VX = p. (1 − p)

Binomiale : X Ã B (n, p), n ∈ N∗ , p ∈ [0; 1]
X (Ω) = {0; 1; 2...n}
P (X = k) = Cnk pk (1 − p)n−k ∀k = 0, ...n
EX = np
VX = np. (1 − p)
n
P
Xi à B (n, p)
Si X1 , X2 ,...Xn à B (p) indépendantes, alors Un ≡
i=1

Poisson : X Ã P (λ), λ ∈ R+∗
−λ k
X (Ω) = N
P (X = k) = e k!λ
∀k ∈ N
EX = λ
VX = λ
Si X Ã B (n, p), avec n grand (> 20 à 50) et np petit (< 5 à 7), alors X suit approximativement une loi de
−np

k

Poisson (λ = np), et P (X = k) ≈ e k!(np)
Si X Ã B (n, p), avec n et np grands (> 7 à 10), alors X suit approximativement une loi normale (µ = np,
σ 2 = np (1 − p))
Géométrique : X Ã G (p), p ∈ [0, 1]
X (Ω) = N∗

P (X = k) = p (1 − p)k−1

∀k ∈ N∗

EX =

1
p

VX =

1
p

³

1
p

´
−1 =

1−p
p2

Hypergéométrique : X Ã H (N, n1 , n2 ), (N, n1 , n2 ) ∈ N3 , 0 < n2 < n1 < N
k C
Cn

EX =

n1 n2
N

n1 −k

P (X = k) = 2C nN1−n2 ∀k = 0, 1, ...n2
N
´
¡
¢³
n1 n2
n1
n2 −1
1 )(N−n2 )
(inutile de retenir ces formules)
VX = N 1 − N 1 − N−1 = n1 n2 (N−n
N 2 (N −1)

X (Ω) = {0; 1; ...n2 }

2◦ ) Cas continu

Uniforme : X Ã Ua,b , (a, b) ∈ R2 , a < b
X (Ω) = [a; b]

f (x) =

1
b−a

∀x ∈ [a; b]

EX =

a+b
2

VX =

Normale centrée réduite : X Ã N (0, 1)
x2

X (Ω) = R

f (x) =

− 2
e√


∀x ∈ R

EX = 0

¡
¢
Normale : X Ã N µ, σ 2 , µ ∈ R, σ 2 ∈ R+∗


VX = 1

(x−µ)2

e √ 2σ2
2πσ

X (Ω) = R
f (x) =
∀x ∈ R
EX = µ
VX = σ 2
Attention : on trouve aussi la notation : X Ã N (µ, σ)

(b−a)2
12

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité

6

D. Couples de variables aléatoires
1◦ ) Lois jointe, marginales, conditionnelles
Cas discret
Loi jointe
distribution : PX,Y (x, y)
= P (X = x, Y = y)
Lois marginales

P

PX (x) ≡
PY (y) ≡

Cas continu
densité : fX,Y (x, y)
≤y+dy)
= lim P (x≤X≤x+dx,y≤Y
dx.dy
dx→0+
dy→0+

PX,Y (x, y)

fX (x) ≡

PX,Y (x, y)

fY (y) ≡

y∈Y (Ω)

P

x∈X(Ω)

Lois

PX /

condi-

=

tion-

PY

nelles
Indépendance
(X, Y ) indép.

=
⇔ PX,Y (x, y) = PX (x) .PY (y) ∀ (x, y)
⇔ PX / Y =y (x; y) = PX (x) ∀ (x, y)
⇔ PY / X=x (y; x) = PY (y) ∀ (x, y)
P
=
(x − µX ) (y − µY ) PX,Y (x, y)
(x,y)
P
=
xyPX,Y (x, y) − µX µY

Covariance
cov (X, Y )

Y =y (x; y) ≡ P (X =
P
(x,y)
P (X=x,Y =y)
= X,Y
P (Y =y)
PY (y)

x / Y = y)

fX /

/ X=x (y; x) ≡ P (Y =
P
(x,y)
P (X=x,Y =y)
= X,Y
P (X=x)
PX (x)

y / X = x)

fY

(x,y)

Y =y

R +∞

y=−∞ fX,Y

R +∞

x=−∞ fX,Y

(x; y) ≡

/ X=x (y; x)



(x, y) dy
(x, y) dx

fX,Y (x,y)
fY (y)
fX,Y (x,y)
fX (x)

fX,Y (x, y) = fX (x) .fY (y) ∀ (x, y)
fX / Y =y (x; y) = fX (x) ∀ (x, y)
fY RR
∀ (x, y)
/ X=x (y; x) = fY (y)
=
(x − µX ) (y − µY ) fX,Y (x, y) dxdy
x,y
RR
=
xyfX,Y (x, y) dxdy − µX µY
x,y

• Covariance : cov (X, Y ) ≡ EX,Y ((X − µX ) . (Y − µY )) = EX,Y (X.Y ) − µX .µY
• Corrélation : corr (X, Y ) ≡
corr (X, Y ) ∈ [−1; 1]

cov(X,Y )
σX σY

corr (X, Y ) = 1 ⇔ ∃ (a, b) ∈ R × R+∗ / Y = a + bX

corr (X, Y ) = −1 ⇔ ∃ (a, b) ∈ R × R−∗ / Y = a + bX

• V (aX + bY ) = a2 VX + b2 VY + 2abcov (X, Y )

∀ (a, b) ∈ R2

2◦ ) Lois déduites de la loi normale
Chi-deux à n degrés de liberté : χ2 (n) , n ∈ N∗

Si X1 , X2 ,... Xn à N (0; 1) indépendantes, alors Un ≡

Un (Ω) = R+

EUn = n

VUn = 2n

n
P

i=1

Student à n degrés de liberté : St (n) , n ∈ N∗
Si X Ã N (0; 1) et Y Ã χ2 (n) indépendantes, alors Tn ≡
Tn (Ω) = R

ETn = 0

VTn =

n
n−2

Xi2 Ã χ2 (n)

X
Y
n

à St (n)

Fisher à ν 1 et ν 2 degrés de liberté: F (ν 1 , ν 2 ) , (ν 1 , ν 2 ) ∈ (N∗ )2

X / ν1
Y / ν 2 Ã F (ν 1 , ν 2 )
2ν 22 .(ν 2 +ν 1 −2)
si ν 2 > 4 (inutile
ν 1 (ν 2 −4)(ν 2 −2)2

Si X Ã χ2 (ν 1 ) et Y Ã χ2 (ν 2 ) indépendantes, alors F ≡
F (Ω) = R+

EF =

ν2
ν 2 −2

si ν 2 > 2

VF =

de retenir ces formules)

Statistiques et Econométrie - chapitre 1 : Variables aléatoires et lois de probabilité

7

E. Théorèmes de convergence
1◦ ) Deux notions de convergence
(Pour les puristes. En pratique, on considérera surtout la convergence en loi).
Converge en probabilité : Soient (Zn )n∈N∗ une suite de v.a.r. et Z une v.a.r.
On dit que Zn converge en probabilité vers Z ssi, pour toute valeur > 0, la probabilité que
|Zn − Z| > tend vers 0 pour n assez grand:
P
Zn −→ Z ⇐⇒ ∀ > 0, P (|Zn − Z| > ) −→ 0
n→+∞

n→+∞

Converge en loi : Soient (Zn )n∈N∗ une suite de v.a.r. et Z une v.a.r.
On dit que Zn converge en loi vers Z ssi la fonction de répartition de Zn tend vers celle de Z:
L

Zn −→ Z ⇐⇒ ∀x ∈ R, FZn (x) −→ FZ (x)
n→+∞

n→+∞

2◦ ) Loi des Grands Nombres (LGN)
Soient (Xi )i∈N∗ une suite de v.a.r. i.i.d. (indépendantes identiquement distribuées) d’espérance µX finie, soit
n
P
Xn ≡ n1
Xi ∀n ∈ N∗ . Alors Xn converge en probabilité vers la v.a.r. (discrète) valant µX sur Ω.
i=1

Enoncé formalisé:
(Xi )i∈N∗ suite de v.a.r. i.i.d. / EXi = µX < +∞; Xn ≡
P

Alors Xn → µX .

1
n

n
P

Xi

i=1

∀n ∈ N∗ .

3◦ ) Théorème Central Limite (TCL)
Soient (Xi )i∈N∗ une suite de v.a.r. i.i.d. (indépendantes identiquement distribuées) d’espérance µX et de

n
P
n.(Xn −µX )
Xi ∀n ∈ N∗ . Alors
converge en loi vers une normale centrée
variance σ 2X finies, soit Xn ≡ n1
σX
i=1

réduite.

Enoncé formalisé:
(Xi )i∈N∗ suite de v.a.r. i.i.d. / EXi = µX < +∞ et VXi = σ 2X < +∞; Xn ≡
Alors


n.(Xn −µX ) L

σX

N (0; 1).

³
´
σ2
N µX ; nX :
n grand
³
´
σ2
“Xn suit approximativement une N µX ; nX pour n grand”.

Par abus de langage, Xn

Ã

1
n

n
P

i=1

Xi

∀n ∈ N∗ .

Statistiques et Econométrie - chapitre 2: Echantillonnage

8

Chapitre 2: Echantillonnage
Introduction: quelques définitions
• Echantillon de taille n (X1 , ...Xn )1≤i≤n : Ensemble de n v.a.r. correspondant à n tirages (avec ou sans
remise) effectués dans une population de référence P (de taille N ou infinie).
Lorsque ce n’est pas précisé, on considère n tirages indépendants (donc avec remise) et identiquement distribués.
→Chaque Xi peut être considéré comme une v.a.r. dont la loi est donnée par la répartition des valeurs
de X dans la population.
→La réalisation de la v.a.r. Xi (valeur prise par Xi ) est notée xi (→nombre).
• Inférence statistique: Méthode visant à retrouver les caractéristiques d’une population à partir des renseignements contenus dans un échantillon.
θn = f (X1 , ...Xn ) : v.a.r. calculée à partir des v.a.r. de l’échantillon, suivant une règle définie
• Statistique b
à l’avance. b
θn est utilisée pour faire de l’inférence, c’est-à-dire pour se faire une idée sur la vraie valeur
inconnue d’un paramètre θ.

θn
• Distribution d’échantillonnage de la statistique b
θn : loi (discrète ou continue) de la v.a.r. b

→distribution de l’ensemble (fini ou infini, dénombrable ou non) des valeurs que l’on peut obtenir avec
les différents échantillons de taille n tirés dans la population.

θn d’un paramètre inconnu θ : statistique qui, quel que soit l’échantillon, doit
• Estimateur (ponctuel) b
prendre des valeurs proches de θ (→variable aléatoire).
θn d’un paramètre inconnu θ : valeur b
θn = f (x1 , ...xn ) prise par un estimateur
• Estimation (ponctuelle) : b
b
θn de θ sur un échantillon particulier (x1 , ...xn ) (→nombre).
³ ´
θn = θ.
• b
θn Estimateur non biaisé (ou sans biais) du paramètre θ ⇔ E b
³ ´
θn = θ.
• b
θn Estimateur asymptotiquement non biaisé (ou sans biais) du paramètre θ ⇔ lim E b
n→+∞

• Biais de l’estimateur b
θn de θ :

A. Moyenne d’échantillon

³ ´
³ ´
θn − θ
biais b
θn = E b

On part d’une population P de moyenne µX et de variance σ 2X et on s’intéresse à un échantillon (Xi )1≤i≤n
tiré dans cette population. Alors, ∀i = 1, ...n, EXi = µX et VXi = σ 2X .
1◦ ) Estimateur ponctuel
Définition : Moyenne d’échantillon:
n

Xi

Xn ≡

i=1

n

n

xi

On note xn ≡
et sn ≡

n
P

i=1

i=1

n

la réalisation de la v.a.r. Xn ; Sn ≡

xi sa réalisation.

n
P

i=1

Xi la somme des n v.a.r. constituant l’échantillon

Statistiques et Econométrie - chapitre 2: Echantillonnage
2◦ ) Espérance

9

¡ ¢
E Xn = µX

La moyenne empirique est 
un estimateur
non biaisé de l’éspérance.

n

µn
Xi
n
n
P
P
P
i=1
1


Xi = n1
µX = n1 nµX = µX
Démonstration : EXn = E
= nE
EXi = n1
n
i=1

i=1

i=1

3◦ ) Variance
a) Cas de tirages indépendants avec remise
VXn =


σ 2X
n

n

Xi

dans le cas de tirages indépendants avec remise



Démonstration : VXn = V  i=1n  =

1
n2 V

µ

n
P

Xi

i=1



=

1
n2

n
P

VXi =

i=1

1
n2

n
P

i=1

σ 2X =

1
nσ 2X
n2

=

σ2X
n

b) Cas de tirages sans remise
VXn =

σ2X N −n
n . N−1

“terme de correction pour population finie”.:

dans le cas de tirages sans remise

N−n
N−1

à N , on applique simplement la formule de a).

−→ 1, souvent négligé : si n suffisamment petit par rapport

n
N

→0

4◦ ) Distribution d’échantillonnage
On s’intéresse à des tirages indépendants (avec remise ou N ≫ n).
a) Cas d’une population normale
n

¢
¡
si Xi à N µX , σ 2X ∀i ∈ P, alors ∀n ∈ N∗ , Xn ≡

Xi
i=1

n

³
´
σ2
à N µX , nX , ou :

Xn −µX

σX / n

à N (0, 1)

¡
¢
¡
¢
Démonstration basée sur les 2 propriétés suivantes : si X Ã N µX , σ 2X et Y Ã N ³µY , σ 2Y ´⇒ X + Y Ã
¢
¡
¢
¡
σ2
N µX + µY , σ 2X + σ 2X + 2 ∗ cov (X, Y ) . Si X Ã N µX , σ 2X et k ∈ R∗ , alors X Ã N µkX , kX2 .
b) Cas d’une population quelconque :
Soit (Xi )1≤i≤n un échantillon indépendant tiré dans une population d’espérance µX et de variance σ 2X , alors
n
³
´
Xi
P
σ2
n −µX
√ −→ N (0, 1). C’est simplement le TCL.
Xn ≡ i=1n
à N µX , nX . De façon plus rigoureuse: X
σ / n
n grand

X

n

si (Xi )1≤i≤n i.i.d. / EXi = µX et VXi = σ 2X , alors Xn ≡

Xi

i=1

n

Ã

n grand

³
´
σ2
N µX , nX

B. Proportion d’échantillon
1◦ ) Estimateur ponctuel
On part d’une population constituée de 2 types d’individus, avec une proportion
p (inconnue) de type 1. On
½
1 si l’individu est de type 1
.
tire un échantillon indépendant (Xi )1≤i≤n de n individus et on note Xi =
0 si l’individu est de type 2

Statistiques et Econométrie - chapitre 2: Echantillonnage
Sn ≡

n
P

i=1

10

Xi à B (n, p), avec E (Sn ) = np et V (Sn ) = np (1 − p).
n

cn ≡
P

2◦ ) Espérance et variance

n

V

n

E

= Xn

n

n

E(Xi )

i=1

=

n

i=1

=

n

p
i=1

=

n

np
n

= p.

n

V(Xi )

=

p(1−p)
n

n

Xi

n

Xi

i=1
n2

Xi



i=1

³ ´
³ ´
cn = p V P
cn =
E P

 n 
³ ´
Xi
cn = E  i=1  =
Démonstration : E P
n

 n 
³ ´
Xi
cn = V  i=1  =
V P
n

Sn
n

i=1

n2

p(1−p)

=

i=1

n2

=

np(1−p)
n2

=

p(1−p)
n .

Remarque: on aurait pu obtenir directement les résultats en utilisant A.
3◦ ) Distribution d’échantillonnage

a) Loi exacte :
cn à B (n, p) à une constante multiplicative près :
cn = Sn , avec Sn à B (n, p), donc P
P
n
cn (Ω) = {0, 1/n, 2/n, ...n/n = 1} = {k/n, k ∈ {0, 1, 2, ...n}}
P
cn (Ω) → [0, 1]
PPn : P


³
´
cn = x = P Sn = nx
 = Cnnx pnx (1 − p)n(1−x)
x
7→ P P
|{z}
%∈{0,1,...n}

Il existe des tables qui donnent la f.d.r. de binomiales pour n pas trop grand (généralement n ≤ 20).
b) Approximation par une loi de Poisson :
´
³
cn = x = P (Sn = nx) ∼
Valable pour n grand et np petit. Sn à P (np) ⇒ P P
=
app.

c) Approximation par une loi normale :
Valable pour n grand et np grand : on utilise le
à TCL
³
´
´
³
Pn −p
cn = Xn à N p, p(1−p) ⇒ P P
cn ≤ x = P
P

n
p(1−p)
as.

n

x−p+0.5/n
p(1−p)
n

!


=F

Ã

e−np (np)nx
(nx)!

x−p+0.5/n
p(1−p)
n

!

.

Terme
correcteur
pour approximation d’une loi discrète par une loi normale, qui est continue:
´
³
c
P Pn = x = P (Sn = nx) ∼
= P (nx − 0.5 ≤ z ≤ nx + 0.5) = F (nx + 0.5) − F (nx − 0.5) plutôt que f (nx)
´
³
cn ≤ x = P (Sn ≤ nx) ∼
P P
= P (z ≤ nx + 0.5)

C. Variances dans un échantillon

On part d’une population P de moyenne µX et de variance σ 2X , toutes deux inconnues, et on s’intéresse à
un échantillon (Xi )1≤i≤n tiré de façon indépendante dans cette population. Alors, ∀i = 1, ...n, EXi = µX et
n
P
Xi
VXi = σ 2X . µX est estimée par Xn ≡ n1
i=1

Statistiques et Econométrie - chapitre 2: Echantillonnage
1 ) Variance empirique (non modifiée) Sn2 (X)
Sn2 (X)



1
n

n ¡
¢2
P
Xi − Xn =

1
n

i=1

¡
¢
E Sn2 (X) =

µ

n
P

i=1

11

Xi2

n−1 2
n σX

− nXn

2



=

1
n

n
P

i=1

Xi2 − Xn

2

= σ 2X − n1 σ 2X

n ¡
n ¡
n £
¡
¢2 P
¢2 P
¢¤2
P
Xi − Xn =
Xi − µX + µX − Xn =
(Xi − µX ) − Xn − µX
Démonstration : soit SXX ≡
i=1
i=1
i=1
n h
¢2
¢i
¡
¡
P
2
=
(Xi − µX ) + Xn − µX − 2 (Xi − µX ) Xn − µX

=

i=1
n
P

=

i=1
n
P

n ¡
n
¡
¢2
¢
P
P
Xn − µX − 2
(Xi − µX ) Xn − µX
i=1
i=1
i=1


µµ n
n
¢2
¢
¡
¡
P
P
2
(Xi − µX ) + n Xn − µX − 2 Xn − µX
Xi − nµX
=
i=1

(Xi − µX )2 +

2

¡

(Xi − µX ) + n Xn − µX
µ



¢2

µ

i=1

n
¢¡
¢ P
¢2
¡
(Xi − µX )2 − n Xn − µX
− 2 Xn − µX nXn − nµX =

¡

i=1



³ ¡
n ¡
n
¢2
¢2 ´
P
P
Xi − Xn
(Xi − µX )2 − E n Xn − µX
=E
³ i=1
´
³¡ i=1
n
n
¢2 ´ P
P
σ2
2
=
σ 2X − n/ X = nσ 2X − σ 2X = (n − 1) σ 2X
=
E (Xi − µX ) − nE Xn − µX
n/
i=1
i=1µ
µ n


n ¡
¡ 2
¡
¢
¢2
¢
P
P
2
1
1
2
Xi − Xn
Xi − Xn
= nE
= n−1
Donc E Sn (X) = E n
n σX
D’où E

i=1

i=1

¡
¢
2
biaisé de σ 2X
E Sn2¡ (X) 6=¢ σ 2X ⇒
¡ S2n (X)¢ est 2un estimateur
n−1 2
2
2
biais Sn (X) = E Sn (X) − σ X = n σ X − σ X = − n1 σ 2X −→ 0
n→+∞

⇒ Sn2 (X) est un estimateur asymptotiquement non biaisé (ou convergent) de σ 2X .
ˆ 2X
2 ) Variance empirique modifiée σ
σ
ˆ 2X ≡
¡ 2¢
ˆX =
E σ

n−1 2
n−1 σ X

1
n−1

n ¡
P

i=1

Xi − Xn

¢2

=

n
2
n−1 Sn (X)

= σ 2X : σ
ˆ 2X est un estimateur non biaisé de σ 2X

ˆ 2X (population normale ou n grand)
3 ) Distribution d’échantillonnage de Sn2 (X) et σ
¢
¡
X
Si on a une population normale, Xi à N µX , σ 2X ∀ i ∈ P et Xiσ−µ
à N (0; 1) ∀ i ∈ P. Comme les Xi sont
X
³
³
´
´
n
2
P Xi −µX
σ2X
2 (n). Mais µ
µ
X
X
,
inconnue⇒remplacée
par
.
Or
Ã
χ
Ã
N
indépendantes,

n
n
X
X
σX
n
i=1

Xn −µX

σX / n
SXX
σ 2X

à N (0; 1). On en déduit que :
³
´
´2 P
´
´2
³
n X −X 2
n ³
n ³
P
P
( i n)
Xi −µX 2
Xn −µX
Xi −µX 2
Xn −µX

=
=
à χ2 (n − 1).


n

2
σX
σX
σX
σX / n
σX
i=1
i=1
i=1
½
2 (X)
∀ n ≥ 2 si population normale
σ
ˆ 2X
Sn
SXX
2 (n − 1)
=
(n

1)
=
n
Ã
χ
σ 2X
σ2X
σ 2X
asymptotiquement si population quelconque

σ
ˆ2

2

¡ 2¢
ˆX =
V σ

2σ4X
n−1

¡
¢
et V Sn2 (X) =

Sn (X)
Démonstration : (n − 1) σX
à χ2 (n − 1)
2 = n σ2
X

X

2(n−1)σ 4X
n2

Statistiques et Econométrie - chapitre 2: Echantillonnage
³
³
´
³
´2 ¡ ¢
´
¡ 2¢
σ
ˆ2
(n−1) 2
2
σ
ˆ
=
2
(n

1)
/
σ
ˆ
= 2 (n − 1) = (n−1)

V
⇒ V (n − 1) σX
V
2
2
2
X
X
σ
σ
³ 2 ´X
³ X ´2
³ ´2 X ¡
¢
¡
¢
Sn (X)
= 2 (n − 1) = σn2
et V n σ2
V Sn2 (X) ⇒ V Sn2 (X) = 2 (n − 1) / σn2
X

X

4 ) Erreur quadratique moyenne
¡ 2 ¢ 2σ4X
¡ 2¢
¡ 2¢
ˆ X = n−1
EQM σ
ˆX = B σ
ˆX + V σ
¡
¡ 2
¢
¡ 2
¢
¢
EQM Sn (X) = B Sn (X) + V Sn2 (X) =

12

X

1 4
σ
n2 X

+

2(n−1)σ 4X
n2

=

(2n−1)σ4X
n2

=

2σ4X
n−1

³

n−1
2n2

+

(n−1)2
n2

´
.

2
¡
¢
¡ 2¢
2
+ (n−1)
= 2n −4n+2+n−1
= 1 + −3n+1
< 1 ∀n > 1. Conclusion : EQM Sn2 (X) < EQM σ
ˆX :
Or n−1
2n2
n2
2n2
2n2
2
2
2
Sn (X) est un estimateur biaisé de σ X , mais plus précis que σ
ˆX .

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

13

Chapitre 3: Estimation et tests
On part d’un échantillon (indépendant sauf précision contraire) (Xi )1≤i≤n extrait d’une population P de
moyenne µX et de variance σ 2X .

A Estimation : généralités
1 ) Estimation ponctuelle
a) Définitions et rappels :
Rappel : Statistique b
θn = f (X1 , ...Xn ) : v.a.r. calculée à partir des v.a.r. de l’échantillon, suivant une règle
b
définie à l’avance. θn est utilisée pour faire de l’inférence sur un paramètre θ.
θn d’un paramètre inconnu θ : statistique qui, quel que soit l’échantillon, doit prendre
Estimateur (ponctuel) b
des valeurs proches de θ (→variable aléatoire).
θn
θn d’un paramètre inconnu θ : valeur b
θn = f (x1 , ...xn ) prise par un estimateur b
Estimation (ponctuelle) : b
de θ sur un échantillon particulier (x1 , ...xn ) (→nombre).
b) Biais :
³ ´
b
θn = θ.
θn Estimateur non biaisé (ou sans biais) du paramètre θ ⇔ E b

³ ´
b
θn = θ.
θn Estimateur asymptotiquement non biaisé (ou sans biais) du paramètre θ ⇔ lim E b
Biais de l’estimateur b
θn de θ :

n→+∞

³ ´
³ ´
b
θn − θ
biais θn = E b

Biais asymptotique de l’estimateur b
θn de θ :

³ ´
θn − θ
lim E b

n→+∞

c) Efficacité et erreur quadratique moyenne :
³ ´
³ ´
θ2 .
θ1 < V b
θ2 estimateurs sans biais de θ. b
θ1 plus efficace que b
θ2 ⇔ V b
Soient b
θ1 et b
(
b
θn estimateur sans biais de θ
³ ´
³ 0´
b
0
θn estimateur le plus efficace de θ ⇔
θn ≤ V b
θn
∀ b
θn estimateur sans biais de θ, V b
Erreur Quadratique Moyenne = Mean Squared Error :
µ³
³ ´ h
³ ´i2
³ ´
´2 ¶
b
b
b
b
M SE θn ≡ V θn + biais θn
= E θn − θ

³ ´
³ ´
³
´2 ³
´2
b
θn − θ
θn + E b
θn − E b
θn − θ = b
³ ´´2 ³ ³ ´
³ ´´ ³ ³ ´
³
³
´2
´
θn
θn
= b
θn − E b
+ E b
θn − θ + 2 b
θn − E b
θn − θ
E b



2 



³ ´ 
³ ´ ³ ³ ´
³³
´´
´2 
´
³ ³ ´


b
b
b
  + E E b
 + 2E  b
 E b

θ
θ
θ
θ

E
θ

E
θ

θ

θ
E b
θn − θ 2 = E 
n
n
n
n
n
n

|{z}
|{z}
 



| {z }
| {z } |
|
{z
}
{z
}
v.a.
v.a.
³nombre
³ ´´2
³ ³ ´ nombre
´
³ nombre
³ ´´
´ ³ ³ ´ nombre
θn
θn
=
V b
+2 E b
θn − θ E b
+
θ−E b
θn
θn − E b
{z
}
{z
}
|
|
=0
=biais(θn )

Démonstration :

2 ) Estimation par intervalle de confiance
a) Définitions et principe :
bn et B
bn deux statistiques construites à partir de l’échantillon (X1 , ...Xn ), dont la loi dépend de θ et
Soient A
α ∈ [0; 1].

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation
14
h
i
bn estimateur par Intervalle de Confiance (IC) au niveau (1 − α) 100% pour le paramètre inconnu θ
bn , B
A
h

³
bn , B
bn = 1 − α.
⇐⇒ P θ ∈ A
bn et B
bn , alors :
Soient
ˆn et ˆbn les réalisations (nombres) de A
ia
h
a
ˆn , ˆbn est une (estimation par) intervalle de confiance à (1 − α) 100% pour θ.
b
b
b)³Lienh avec la
i´loi de³ An et Bn :´
³
´
bn , B
bn = P A
bn ≥ θ .
bn = P A
bn ≤ θ ≤ B
bn ≤ θ et B
P θ∈ A

bn et B
bn , qui dépend de θ.
Pour pouvoir calculer cette probabilité, il faut connaître la loi de A

c) Estimation par intervalle de confiance approché :
bn à distance finie, mais seulement leur loi asymptotique, on ne peut que
bn et B
Si on ne connaît pas la loi de A
construire un estimateur par I.C. approché au niveau (1 − α) 100% pour le paramètre inconnu θ :
h
³

bn , B
bn
P θ∈ A
−→ 1 − α
n→+∞

d) Paramètre opportun :
Dans certains cas, la loi de l’estimateur ponctuel b
θn de θ dépend, en plus du paramètre important θ (que l’on
cherche à estimer), d’un ou plusieurs paramètre(s) opportun(s) θ0 inconnu(s). On ne s’intéresse pas directement
bn
à θ0 , mais on est obligé de se faire une idée sur sa valeur pour pouvoir calculer un estimateur par IC de θ. A
0
0
bn sont alors déduites de la loi de b
θn en remplaçant θ par un estimateur ponctuel ˆ
θn , ce qui change leur
et B
loi.

B Tests : généralités
1 ) Principe de base et vocabulaire
Population de référence P, de distribution inconnue; échantillon indépendant (Xi )1≤i≤n . On se pose une
question sur la distribution dans P, à laquelle on répond sur la base de l’information contenue dans l’échantillon.
Hypothèse nulle (ou “hypothèse maintenue”) H0 : hypothèse formulée sur la distribution dans P
−→ H0 acceptée “jusqu’à preuve du contraire”, i.e. tant qu’on n’a pas d’indices suffisants pour la rejeter.
Hypothèse alternative H1 : tout ce qui peut se passer si H0 n’est pas vraie.
Ensemble des possibles Ω = Ω0 ∪ Ω1 , avec Ω0 ∩ Ω1 = ∅. H0 vérifiée⇔ ω ∈ Ω0 ; H1 vérifiée⇔ ω ∈ Ω1 .
Statistique de test Tˆn (X1 , ...Xn ) : v.a.r. calculée à partir des v.a.r. de l’échantillon, suivant une règle définie
à l’avance. Sa valeur calculée tˆn (x1 , ...xn ) va être utilisée pour accepter ou refuser H0 .
Test = Règle de décision définie a priori (avant de tirer l’échantillon), qui va conduire à accepter ou refuser
H0 en fonction de la valeur tˆn prise par la statistique de test.
Région d’acceptation = ensemble des valeurs de la statistique de test pour lesquelles on accepte H0 .
Région critique Rc , ou région de refus = complémentaire de la région d’acceptation dans l’ensemble des valeurs
possibles pour tˆn = ensemble des valeurs de tˆn pour lesquelles on refuse H0 .
Erreur de première espèce = Erreur de type I : refuser H0 à tort (sachant qu’en réalité, H0 est vérifiée)
Risque de première espèce = Probabilité de commettre une erreur de type I (défini pour ω ∈ Ω0 )
³
´
= P (refuser H0 / ω) = P Tˆn ∈ Rc / ω .
Niveau du test = risque de première³espèce max =
´ P(erreur de type I “dans le pire des cas”)
≡ M axP (refuser H0 / ω) = M axP Tˆn ∈ Rc / ω ≡ α.
ω∈Ω0

ω∈Ω0

Erreur de seconde espèce = Erreur de type II : accepter H0 à tort (sachant qu’en réalité, H1 est vérifiée)
Risque de seconde espèce = Proba de commettre une erreur de type II (défini pour ω ∈ Ω1 )
³
´
/ Rc / ω ≡ β (ω).
≡ P (accepter H0 / ω) = P Tˆn ∈
´
³
Puissance du test (défini pour ω ∈ Ω1 )≡ 1 − β (ω) = P Tˆn ∈ Rc / ω −→Probabilité de refuser H0 à raison.

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

15

2 ) Propriétés générales
• à n fixé, β est une fonction décroissante de α, donc si on veut limiter le risque de première espèce, ça
augmente systématiquement le risque de seconde espèce.
• à α fixé, β fonction décroissante de n : on peut limiter simultanément α et β en augmentant n.
Tester
³ H0 contre´ H1 au niveau α, c’est
³ définir une´région critique Rα telle que :
ˆ
P Tn ∈ Rα / ω ≤ α ∀ω ∈ Ω0 et P Tˆn ∈ Rα / ω ≥ α ∀ω ∈ Ω1 . En général (si Tˆn suit une loi continue), on
´
³
a égalité à la frontière (à la limite) : P Tˆn ∈ Rα / ω = α ∀ω ∈ F r (Ω0 ).
tˆn de laªstatistique de test), on peut définir :
Une fois que l’expérience est réalisée© (on connaît ªdonc la valeur
©
ˆ
ˆ
αC =seuil critique = p-value=M ax α / tn ∈
/ Rα = M in α / tn ∈ Rα = niveau max pour lequel tˆn conduit
à accepter H0 = niveau mini pour lequel tˆn conduit à rejeter H0 = seuil α0 / tˆn est à la frontière de Rα0 .
→Etant donné tˆn , on refuse H0 pour tout niveau > αC et on accepte H0 pour tout niveau < αC .
Si on sait que Tˆn a tendance à prendre des valeurs plus élevées (resp. plus faibles) sous H1 que sous H0 ,
il faut effectuer un test unilatéral, i.e. définir une région critique unilatérale, du type Rα = ]tC ; +∞[ (resp.
Rα = ]−∞; tC [).
tC (α) = valeur critique du test au niveau α : valeur limite pour accepter ou refuser H0 au niveau α :
´
³
´
³
P Tˆn > tC (α) / ω = α ∀ω ∈ F r (Ω0 ) (resp. P Tˆn < tC (α) / ω = α ∀ω ∈ F r (Ω0 )). tC (α) est donc la

borne de Rα pour laquelle le test est effectué au niveau α.
Si on sait que Tˆn peut aussi bien prendre des valeurs plus élevées que plus faibles sous H1 que sous H0 , il faut
On
effectuer un test bilatéral, i.e. définir une région critique bilatérale, du type Rα = ³]−∞; tC1 [ ∪ ]tC2 ; +∞[.
´
ˆ
choisit généralement les valeurs critiques tC1 et tC2 de façon à ce que ∀ω ∈ Ω0 , P Tn > tC2 (α) / ω ≤ α/2
´
´
³
´
³
³
et P Tˆn < tC1 (α) / ω ≤ α/2 mais ∀ω ∈ Ω1 , P Tˆn > tC2 (α) / ω > α/2 ou P Tˆn < tC1 (α) / ω > α/2.
3 ) Tests paramétriques : généralités
On dit qu’on a un test paramétrique lorsque H0 peut s’exprimer comme une condition simple sur un (ou
plusieurs) paramètre(s) d’intérêt θ (valeur numérique ou vecteur), qui peut prendre ses valeurs dans N, Q, R, Rn ...
Dans le cas contraire, on a un test non paramétrique.
Hypothèse simple : θ = θ0 : θ prend une seule valeur.
Hypothèse composite : θ ∈ Θ0 : θ appartient à un ensemble de valeurs, généralement un intervalle.
−→En général, on teste une H0 soit simple soit composite contre une H1 composite.
Test unilatéral ⇔H1 unilatérale ⇔ H1 du type θ < θ0 ou θ > θ0
Test bilatéral ⇔H1 bilatérale ⇔ H1 du type θ 6= θ0

C Applications : estimations et tests paramétriques
1 ) Moyenne d’une population
Echantillon (Xi )1≤i≤n ; ∀ i = 1, ...n, EXi = µX et VXi = σ 2X . Xn =

1
n

n
P

Xi .

i=1

Si la loi de Xn (ou de Xσn −µX ) est connue⇒ ∀ α ∈ [0; 1], on peut trouver la valeur critique lα/2 telle que:
Xn

µ
³
´
Xn −µX
P Xn − lα/2 .σ Xn ≤ µX ≤ Xn − lα/2 .σ Xn = P −lα/2 ≤ σ
≤ lα/2
Xn

a) Population normale,
´ connue :³
´
³ variance
Soit zα/2 défini par : P Z > zα/2 = 1 − FN (0,1) zα/2 = α/2, avec Z Ã N (0, 1).
∀ n ∈ N∗ ,

i
h
σ
σ
Xn − zα/2 . √Xn ; Xn + zα/2 . √Xn estimateur par IC à (1 − α) 100% pour µX

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation
i h
i
h
σ
σ
σ
On note Xn − zα/2 . √Xn ; Xn + zα/2 . √Xn = Xn ± zα/2 . √Xn
i
h
σ
xn ± zα/2 . √Xn est un intervalle de confiance au niveau (1 − α) 100% pour µX .

16

Test de H0 : ¯µX = µ¯0 contre H1 : µX 6= µ0 au niveau α³(σ 2X connu)³¯
¯´´
¯ xn −µ
¯ xn −µ
0 ¯
0 ¯


−→ refus ⇔ ¯ σ / n ¯ > zα/2 −→ seuil critique αC = 2. 1 − FN (0,1) ¯ σ / n ¯
X

X

h

√ i
• Si n0 > n, l’estimation de µX est plus précise et la zone d’acceptation µ0 − zα/2 σ X / n; µ0 + zα/2 σ X / n
est réduite : à α fixé, β diminue quand on augmente n. A la limite, quand n → +∞, β → 0 et la puissance
du test 1 − β → 1.
¯
¯
¯´
³¯
³
´
α
¯
¯
¯
¯ xn −µ
√0 ¯ = z α ⇒ 1 − F
√0 ¯ = 1 − F
αC
z
= 2C
• Par définition de αC , ¯ σxn −µ
¯
N (0,1)
N (0,1)
/ n
σ / n
C
X

2

X

2

Test de H0 : µX = µ0 (ou µX ≤ µ0 ) contre H1 : µX > µ0 au³¯
niveau α¯´(σ 2X connu)
¯ xn −µ
¯
√0 > z −→ seuil critique αC = 1 − F
−→ refus ⇔ σxn −µ
¯ σ /√0n ¯ si xn > µ0
α
N (0,1)
/ n
X
X
−→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≤ µ0

Test de H0 : µX = µ0 (ou µX ≥ µ0 ) contre H1 : µX > µ0 au niveau
α (σ´2X connu)
³
√0 < −z −→ seuil critique αC = 1 − F
√0
si xn < µ0
−→ refus ⇔ σxn −µ
− σxn −µ
α
N (0,1)
/ n
/ n
X

X

−→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≥ µ0
b) Population quelconque, variance connue, n grand :
n −µX

à N (0, 1) =⇒pour n grand:
TCL=⇒ X
σ / n
X

asymp.

h
i
σ
Xn ± zα/2 . √Xn estimateur par IC approché au niveau (1 − α) 100% pour µX
Tous les résultats du a) sont valables asymptotiquement quand la population n’est pas normale.
c) Population normale, variance inconnue :
n ¡
¢2
σ
ˆ2
Xn −µX
1 P
2
√ Ã St (n − 1).
Xi − Xn . (n − 1) σX
σ
ˆ 2X = n−1
2 Ã χ (n − 1) indépendemment de Xn , donc σ
ˆX / n
X
i=1
´
³
´
³
Soit tn−1,α/2 défini par : P Z > tn−1,α/2 = 1 − FStn−1 tn−1,α/2 = α/2, avec Z Ã St (n − 1).
h
i
σ
ˆ
Xn ± tn−1,α/2 . √Xn estimateur par IC à (1 − α) 100% pour µX

∀ n ∈ N∗ ,

Test de H0 :µ¯X = µ0¯ contre H1 :µX 6= µ0 au niveau
α (σ 2X³¯inconnu)
¯´´
³
¯ xn −µ
¯
¯
¯
√0 ¯
−→ refus ⇔ ¯ σˆ /√0n ¯ > tn−1,α/2 −→ αC = 2. 1 − FStn−1 ¯ Sxn −µ
/ n
X

X

Test de H0 : µX = µ0 (ou µX ≤ µ0 ) contre H1 : µX > µ0 au niveau α (σ 2X inconnu)
√0 > t
−→ refus ⇔ σˆxn −µ
/ n ³ n−1,α ´
X
√0
si xn > µ0
−→ αC = 1 − FStn−1 σˆxn −µ
/ n
X

→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≤ µ0

Test deH0 : µX = µ0 (ou µX ≥ µ0 ) contre H1 : µX <
α (σ 2X inconnu)
³ µ0 au niveau
´
xn −µ0
xn −µ0
−→ refus ⇔ σˆ /√n < −tn−1,α −→ αC = 1 − FStn−1 − σˆ /√n si xn < µ0
X

→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≥ µ0

X

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

17

d) Population quelconque, variance inconnue, n grand :
n ¡
¢2
n −µX
1 P
√ Ã N (0, 1).
Xi − Xn . D’après le TCL, X
σ
ˆ 2X = n−1
σ
ˆ / n
as.

X

i=1

h
i
σ
ˆ
Xn ± zα/2 . √Xn estimateur par IC approché à (1 − α) 100% pour µX

2
Test (asymptotique)
¯
¯ de H0 :µX = µ0 contre
¯´´ α (σ X inconnu)
³¯µ0 au niveau
³ H1 :µX 6=
¯
¯
¯
¯
√0 > z
√0
→ refus ⇔ ¯ σˆxn −µ
−→ αC = 2. 1 − FN (0,1) ¯ σˆxn −µ
α/2
/ n¯
/ n¯
X

X

Test (asymptotique) de H0 : µX = µ0 (ou µX ≤
H1 : µX > µ0 au niveau α (σ 2X inconnu)
³ µ0 ) contre
´
xn −µ0
√0 > zα −→ αC = 1 − F

si xn > µ0
−→ refus ⇔ σˆxn −µ
N (0,1)
/ n
σ
ˆ / n
X

X

−→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≤ µ0

Test (asymptotique) de H0 : µX = µ0 (ou µX ≥ ³µ0 ) contre´ H1 : µX < µ0 au niveau α (σ 2X inconnu)
√0 < −z −→ αC = 1 − F
√0
si xn < µ0
−→ refus ⇔ σˆxn −µ
− σˆxn −µ
α
N (0,1)
/ n
/ n
X

X

−→ Test inutile (H0 acceptée ∀α < 0.5) si xn ≥ µ0

2 ) Proportion dans une population
Echantillon indépendant (Xi )1≤i≤n de n individus dans une population constituée de 2 types d’individus, avec
½
n
P
1 si l’individu est de type 1
. Sn ≡
Xi à B (n, p) ⇒loi de
une proportion p (inconnue) de type 1. Xi =
0 si l’individu est de type 2
i=1
l’estimateur ponctuel de p :
n

cn ≡
P

Sn
n

Xi
i=1

= Xn
n
³ ´
Pn .(1−Pn )
cn = E(Sn ) = p et σ 2 = V(S2n ) = p.(1−p) estimée par σ
b2P =
E P
n
n
n
n
n
³ 2 ´ Pn ³ ´ ³ ³ ´´2
³ ´
p.(1−p)
cn = V P
cn + E P
cn = p et E P
cn
= n + p2
E P
³
´ E(Pn )−E Pn 2
p−p2 − p.(1−p)
n
b2P =
=
σ 2 = p.(1−p)
⇒E σ
n
n
n
n

TCL=⇒

σ 20 =

Pn −p
Ã
σg
Pn n grand

N (0, 1) et

Pn
Pn −p
Ã
N
σg
Pn n grand



(0, 1), donc

q
¸
h
i ·
Pn .(1−Pn )
c
c
σ Pn = Pn ± zα/2 .
Pn ± zα/2 .b
estimateur par IC approché à (1 − α) 100% pour p
n

p0 .(1−p0 )
.
n

Sous H0 : p = p0 ,

Pn −p0
Ã
σ0
n grand

N (0, 1)

Test (asymptotique)
de¯ H0 : p = p0 contre HÃ1 : p 6= p0 auïniveau α ¯!!
¯
¯
¯
¯
¯
¯ pn −p0 ¯
¯
−p0 ¯
>
z
=
2.
1

F
−→
α
−→ refus ⇔ ¯ ppn.(1−p
¯
¯
¯
C
α/2
N (0,1)
0) ¯
¯ p0 .(1−p
¯ 0 n 0) ¯
n

> p0 au niveau α
Test (asymptotique) de H0 : p = p0 (ou p ≤ p0 ) contre
H1 : p!
Ã
−→ refus ⇔

pn −p0
p0 .(1−p0 )
n

> zα −→ αC = 1 − FN (0,1)

−→ Test inutile (H0 acceptée ∀α < 0.5) si pc
n ≤ p0

pn −p0
p0 .(1−p0 )
n

si pc
n > p0

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

18

Test (asymptotique) de H0 : pX = p0 (ou pX ≥ p0 ) Ã
contre H1 : pX
! < p0 au niveau α

−→ refus ⇔

pn −p0
p0 .(1−p0 )
n

< −zα −→ αC = 1 − FN (0,1)

pn −p0
p0 .(1−p0 )
n



−→ Test inutile (H0 acceptée ∀α < 0.5) si pc
n ≥ p0

si pc
n < p0

3 ) Variance dans une population normale (ou n grand)
³
´
³
´
Soit χ2n−1,α/2 / P Z > χ2n−1,α/2 = 1 − Fχ2
χ2n−1,α/2 = α/2, avec Z Ã χ2n−1 .
n−1

µ
σ
ˆ2
σ
ˆ2
2
2
2
X
X
(n − 1) σ2 Ã χ (n − 1) ⇒ P χn−1,1−α/2 ≤ (n − 1) σ2 ≤ χn−1,α/2 = 1 − α
X
µ X

2
2
σ
ˆ
σ
ˆ
2
2
X
X
= P χn−1,1−α/2 ≤ (n − 1) σ2 et (n − 1) σ2 ≤ χn−1,α/2
X
X
µ

µ
2
σ
ˆ
σ
ˆ2
σ
ˆ2
2
2
X
X
= P σ X ≤ (n − 1) χ2
= P (n − 1) χ2 X
et σ X ≥ (n − 1) χ2
≤ σ 2X ≤ (n − 1) χ2
n−1,1−α/2

·
σ
ˆ2
(n − 1) χ2 X

n−1,α/2

n−1,α/2

; (n − 1) χ2

σ
ˆ2

X

n−1,1−α/2

¸

n−1,α/2

σ
ˆ2

X

n−1,1−α/2

estimateur par IC à (1 − α) 100% pour σ 2X

Test de H0 : σ 2X = σ 20 contre H1 : σ 2X 6= σ 20 au niveau α
σ20 .χ2

σ20 .χ2

n−1,α/2
ˆ 2X < ¶¶n−1,1−α/2
−→ refus ⇔
ˆ 2X µ>
n−1 µ ou σ
n−1
σ
σ
ˆ2


(n − 1) σX2
si σ
ˆ 2X > σ 20
 2. 1 − Fχ2
0
n−1
µ

−→ αC =
σ
ˆ2

X

(n − 1) σ2
2.Fχ2
si σ
ˆ 2X < σ 20

n−1

0

2
2
Test de H0 : σ 2X = σ 20 (ou σ 2X ≤ σ 20 ) contre H1 : σ
niveau α
µX > σ 0 au2 ¶
2
2
σ
ˆ
σ0 .χn−1,α
2
(n − 1) σX2
si σ
ˆ 2X > σ 20
−→ refus ⇔ σ
ˆ X > n−1 −→ αC = 1 − Fχ2
0

n−1

2

ˆX ≤
−→ Test inutile (H0 acceptée ∀α < 0.5) si σ

σ 20

Test de H0 : σ 2X = σ 20 (ou σ 2X ≥ σ 20 ) contre H1 µ: σ 2X < σ 20 au
¶ niveau α
σ
ˆ2
σ 20 .χ2n−1,1−α
2
(n − 1) σX2
si σ
ˆ 2X > σ 20
−→ αC = Fχ2
−→ refus ⇔ σ
ˆX <
n−1
0

n−1

ˆ 2X ≥ σ 20
−→ Test inutile (H0 acceptée ∀α < 0.5) si σ

4 ) Différence de deux moyennes
a) Echantillons dépendants, populations normales, variances et covariance inconnues :
EXi = µX ; EYi = µY ; cov (Xi , Yi ) 6= 0 a priori.
µ

n
σ2
1 P
D
Di ≡ Xi − Yi ⇒ EDi = EXi − EYi = µX − µY → Dn = n
(Xi − Yi ) Ã N µX − µY , n ;
σ
ˆ 2D

=

1
n−1

n ¡
¢2
P
σ
ˆ2
Di − Dn ⇒ (n − 1) σ2D Ã χ2 (n − 1) ⇒
D

i=1

i=1
Dn −(µX −µY )
σ
ˆD

à St (n − 1)

h
i
Dn − tn−1,α/2 σ
ˆ D ; Dn + tn−1,α/2 σ
ˆ D estimateur par IC à (1 − α) 100% pour µX − µY
Test de H0 : ¯µX = µ¯Y contre H1 : µX 6= µY ³au niveau α³¯
¯´´
¯
¯
¯
¯
√0 ¯
−→ refus ⇔ ¯ σˆ d/n√n ¯ > tn−1,α/2 −→ αC = 2. 1 − FStn−1 ¯ σˆdn −d
/ n
D

D



Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

19

Test de H0 : µX = µY (ou µX ≤ µY ) contre H1 : µ
³X > µY´ au niveau α
−→ refus ⇔ S d/n√n > tn−1,α −→ αC = 1 − FStn−1 σˆ d/n√n si dn > 0
D

D

−→ Test inutile (H0 acceptée ∀α < 0.5) si dn ≤ 0

Test de H0 : µX = µY (ou µX ≥ µY ) contre H1 : µX³ < µY au´niveau α
−→ refus ⇔ σˆ d/n√n < −tn−1,α −→ αC = 1 − FStn−1 − σˆ d/n√n si dn < 0
D

D

−→ Test inutile (H0 acceptée ∀α < 0.5) si dn ≥ d0

b) Echantillons indépendants, populations normales, variances connues
¡ : ¢
¡
¢
(Xi )1≤i≤n (Yi )1≤i≤n échantillons indépendants tirés dans des populations N µX , σ 2X et N µY , σ 2Y .
X
Y
¡ ¢
¡ ¢
¡ ¢ σ2
¡
¡
¢
¡ ¢
¢
σ2
E X − Y = E X − E Y = µX − µY et V X − Y = V X + V Y = nX + nY
X
Y
µ

σ2
σ2
X−Y −(µX −µY )
X
Y

à N (0, 1)
⇒ X − Y Ã N µX − µY , n + n
σ2
σ2
X

"

X − Y − zα/2

r

σ2
X
nX

+

σ2
Y
nY

Y

X
nX

; X − Y + zα/2

Test de H0 : ¯µX = µY
¯
¯
−→ refus ⇔ ¯¯ σx−y
2
σ2
¯ nX + nY
X

r

+ nY

σ2
X
nX

Y

+

σ2
Y
nY

#

estimateur par IC à (1 − α)100% pour µX − µY

contre
H1 : µX 6= µY 
au niveau α ¯
¯
¯
¯
¯
¯
¯ > z −→ αC = 2. 1 − F
¯
α/2
N (0;1)
¯
¯
¯
¯

Y

x−y
σ2
X
nX

σ2

+ nY

Y

¯
¯
¯
¯
¯
¯

Test de H0 : µX = µY (ou µX ≤ µY ) contre H1 : µ
X > µY auniveau α

−→ refus ⇔

x−y

σ2
X
n
X

σ2
+ nY
Y

> zα −→ αC = 1 − FN (0;1) 

x−y

σ2
X
n
X

σ2

+ nY

Y

−→ Test inutile (H0 acceptée ∀α < 0.5) si x ≤ y

 si x > y

Test de H0 : µX = µY (ou µX ≥ µY ) contre H1 : µX< µY au niveau
 α

−→ refus ⇔

x−y

σ2
X
nX

σ2
+ nY
Y

< −zα −→ αC = 1 − FN (0;1) −

x−y

σ2
X
nX

σ2

+ nY

Y

−→ Test inutile (H0 acceptée ∀α < 0.5) si x ≥ y

 si x < y

c Echantillons indépendants, populations normales, variances inconnues
¡ (égales)
¢
¡:
¢
(Xi )1≤i≤n (Yi )1≤i≤n échantillons indépendants tirés dans des populations N µX , σ 2 et N µY , σ 2 .
³
³
´
³
´´
¡ ¢ Y ¡ ¢
¡
¢X
2
2
V X − Y = V X + V Y = nσ + nσ = σ 2 n1 + n1 ⇒ X − Y Ã N µX − µY , σ 2 n1 + n1
X
Y
X
Y
X
Y
nY ¡
n
X ¡
¢2
¢2
P
P
(nX −1)σˆ 2X +(nY −1)σˆ 2Y
2
2
2
1
1
Xi − X et σ
Yi − Y , d’où σ
σ
ˆ X = n −1
ˆ Y = n −1
ˆ =
(nX −1)+(nY −1)
X
Y
i=1
i=1
2

→ (nX + nY − 2) σσˆ 2 Ã χ2 (nX + nY − 2) ⇒

X−Y −(µX −µY )
σ
ˆ2

1
n
X

h
q
X − Y − tnX +nY −2,α/2 σ
ˆ n1 +
X

+ n1

1
nY

.

1

σ
ˆ2
σ2

=

X−Y −(µX −µY )
σ
ˆ . n1 + n1
X

Y

à St (nX + nY − 2)

Y

; X − Y + tnX +nY −2,α/2 σ
ˆ

estimateur par I.C. à (1 − α) 100% pourµX − µY

q

1
nX

+

1
nY

i

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

20

Test de H0 : ¯µX = µY contre
H1 : µX 6= µY au niveau α
¯
ï
Ã
¯
¯
¯
¯
¯
¯
x−y
>
t
=
2.
1

F
−→
α
−→ refus ⇔ ¯
¯
¯
C
nX +nY −2,α/2
Stn−1
¯ σˆ .
¯ σˆ . n1X + n1Y ¯

x−y
1
+ n1
n
X

µY au niveau!α
Test de H0 : µX = µY (ou µX ≤ µY ) contre H1 : µX > Ã

−→ refus ⇔

x−y
1
+ n1
n

σ
ˆ.

X

Y

> tn−1,α −→ αC = 1 − FSt(n−1)

σ
ˆ.

x−y
1
+ n1
n
X

Y

¯!!
¯
¯
¯
¯

si x > y

Y

−→ Test inutile (H0 acceptée ∀α < 0.5) si x ≤ y
Test de H0 : µX = µY (ou µX ≥ µY ) contre H1 : µX < µY au niveau
à α

−→ refus ⇔

σ
ˆ.

x−y
1
+ n1
n
X

Y

< −tnX +nY −2,α/2 −→ αC = 1 − FSt(n−1)



σ
ˆ.

!

x−y
1
+ n1
n
X

Y

si x < y

−→ Test inutile (H0 acceptée ∀α < 0.5) si x ≥ y
5 ) Différence de deux proportions (n grand)
³ ´
³ ´
¡ ¢
¡ ¢
c
c
P
Pc
P
Dn = Pc
D
D
=
p
=
V
+
V
=
et
V


E

p
n
n
X
Y
X
Y
X
Y
σ
ˆ 2D =
n

pX .(1−pX )
nX

+

pY .(1−pY
nY

"

)

c
Pc
X − PY − zα/2 .

. TCL⇒

r

PX −PY −(pX −pY
σ
ˆ Dn

pX .(1−pX )
nX

+

pY .(1−pY
nY

)

X

Y

X

Y

+

pY .(1−pY
nY

à N (0, 1)

) c
; PX − Pc
Y − zα/2 .

estimateur par IC approché à (1 − α) 100% pour pX − pY
c0 ≡
Sous H0 : pX = pY ≡ p, p peut être estimé par P
³
³
´
´
n +n
= pb0 . (1 − pb0 ) nX n Y =
pb0 . (1 − pb0 ) n1 + n1

pX .(1−pX )
nX

nX PX +nY PY
nX +nY
nX PX +nY PY
nX nY

r

pX .(1−pX )
nX

+

¡ ¢
et V Dn par σ
ˆ 2D ≡
n

pY .(1−pY
nY

)

p0 .(1−p0 )
nX

)

, d’où

#

+

. Toujours sous H0 , le TCL⇒

p0 .(1−p0 )
nY

=

PX −PY
σ
ˆ 2D

Ã

n

N (0, 1).

Test de H0 : pX = pY contre H1
¯
¯
¯
¯
PX −PY
−→ refus ⇔ ¯
¯
¯ p0 .(1−p0 ) n1X + n1Y

c0 ≡ nX PX +nY PY )
: pX 6= pY au niveau α (P
nX 
+n¯Y
¯

¯
¯
¯
¯
¯
¯

PX −PY
¯ > zα/2 −→ αC = 2. 1 − FN (0,1) ¯
¯
¯
¯ p0 .(1−p0 ) n1X + n1Y
¯

Test de H0 : pX = pY (ou pX ≤ pY ) contre H1 : pX > pY au
niveau α
→ refus ⇔

PX −PY

p0 .(1−p0 )

1
n
X

+ n1

Y


> zα −→ αC = 1 − FN (0,1) 

PX −PY

p0 .(1−p0 )

1
nX

+ n1

Y


c
 si Pc
X > PY

PX −PY

p0 .(1−p0 )

Test de H0 : pX = pY (ou pX ≥ pY ) contre H1 : pX < pY au niveau
α

−→ refus ⇔




< −zα −→ αC = 1 − FN (0,1) −

1
n
X

+ n1

Y

PX −PY

p0 .(1−p0 )

1
nX

¯
¯
¯
¯
¯
¯
¯

+ n1

Y




c
 si Pc
X < PY

as.

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

21

6◦ ) Test d’égalité des variances

¡
¢
¡
¢
Echantillons indépendants (Xi )1≤i≤n (Yi )1≤i≤n tirés dans des populations N µX , σ 2X et N µY , σ 2Y .
X
Y
nX ³
nY ³
´2
´2
P
P
σ
ˆ2
σ
ˆ 2Y
2
2
1
1
2
Xi − XnX et σ
Yi − YnY . (n − 1) σX
ˆ Y = n −1
Soient σ
ˆ X = n −1
2 Ã χ (nX − 1) et (n − 1) σ 2 Ã
X

Y

i=1

X

i=1

σ
ˆ 2X

χ2 (n

Y

σ
ˆ 2Y

et
indépendants.
− 1). (Xi )1≤i≤n et (Yi )1≤i≤n indépendants=⇒
Y¶¸
·
¸X ·µ
2
2
(n −1) S
(nY −1) SY
/
= nX −1 σ2X /
à F (nX − 1, nY − 1).
( X ) X
(nY −1) σ2Y
Fv1 ,ν 2 ,α défini par : P (Z > Fν 1 ,ν 2 ,α ) = α, avec Z Ã F (ν 1 , ν 2 ).
Remarque : P (Z < Fv1³
,ν 2 ,1−α ) = 1 − P´(Z > Fv1 ,ν 2 ,1−α ) = 1 − (1 − α) = α et
Y

σ
ˆ 2X
σ 2X

σ
ˆ 2Y
σ 2Y

P (Z < Fv1 ,ν 2 ,1−α ) = P

1
Z

>

1
Fv1 ,ν 2 ,1−α

=α⇒

1
Fv1 ,ν 2 ,1−α

1
Fν 2 ,ν 1 ,α

= Fν 2 ,ν 1 ,α ⇔ Fv1 ,ν 2 ,1−α =

Test de H0 : σ 2X = σ 2Y contre H1 : σ 2X 6= σ 2Y au niveau α
σ
ˆ2

σ
ˆ2

1
X
−→ refus ⇔ σˆX
2 > Fn −1,n −1,α/2 ou
2 < F
X
Y
n −1,n −1,α/2
Y
X
 Y
³ 2 ´ σˆ Y
2
2
 2.Fn −1,n −1,α/2 σˆ X
>
σ
ˆ
si
σ
ˆ
2
Y
X
X
Y
³ σˆ Y2 ´
−→ αC =
2
 2.Fn −1,n −1,α/2 σˆ2Y si σ
ˆ 2Y
ˆX < σ
σ
ˆ
Y
X
X

Test de H0 : σ 2X = σ 2Y (ou σ 2X ≤ σ 2Y ) contre H1 : σ 2X > σ 2Y³ au´niveau α
σ
ˆ2
σ
ˆ 2X
ˆ 2Y
si σ
ˆ 2X > σ
−→ refus ⇔ σˆX
2 > FnX −1,nY −1,α −→ αC = FnX −1,nY −1,α
σ
ˆ2
Y

ˆ 2X ≤ σ
−→ Test inutile (H0 acceptée ∀α < 0.5) si σ
ˆ 2Y

Y

Test de H0 : σ 2X = σ 2Y (ou σ 2X ≥ σ 2Y ) contre H1 : σ 2X < σ 2Y au niveau α
→ refus ⇔

σ
ˆ 2X
σ
ˆ 2Y

< FnX −1,nY −1,1−α =

1

Fn

Y

−1,n

X

−1,α

−→ αC = FnY −1,nX −1,α

ˆ 2X ≥ σ
→ Test inutile (H0 acceptée ∀α < 0.5) si σ
ˆ 2Y

³

σ
ˆ 2Y
σ
ˆ 2X

´

ˆ 2Y
si σ
ˆ 2X < σ

D. Quelques tests non paramétriques
1 )Tests du Khi-deux d’adéquation à une loi L connue (continue ou discrète)

On cherche à tester H0 : X Ã L à partir d’un échantillon (Xi )1≤i≤n réparti dans r classes (Cj )1≤j≤r .
Oj = Effectif observé de la classe j=nombre de i / Xi ∈ Cj
Pj = Proportion empirique (observée) dans la classe j= % de i / Xi ∈ Cj : Pj = Oj /n
π j = Probabilité théorique de la classe j = P (X ∈ Cj ) si X Ã L
Tj = Effectif théorique de la classe j=nombre de i / Xi ∈ Cj si X Ã L : Tj = n.π j
r
r
P
P
(Oj −Tj )2
(Pj −π j )2
K≡
=
n
Tj
πj
j=1
j=1
Sous H0 , Oj “proche de” Tj , ∀ j = 1, ...r, ce qu’on teste avec la statistique :
Si on connaît L, on connaît tous les π J et Tj , donc on peut calculer K. TCL⇒ K Ã χ2 (r − 1) sous H0 .
E(Oj ) = Tj ∀ j sous H0 , mais sous H1 , E(Oj ) 6= Tj pour certains j. Oj a donc plus tendance à s’écarter de Tj
sous H1 que sous H0 .
Test de H0 : X Ã L contre H1 : X Ã autre loi au niveau α
r
r
P
P
(Oj −Tj )2
(Pj −π j )2
=
n
> χ2r−1,α
→ refus ⇔ K =
Tj
πj
j=1

j=1

b) Test du Khi-deux d’adéquation à une loi dont certains paramètres sont inconnus :
On se demande si X suit une loi d’un certain type, mais on ne connaît pas le(s) paramètre(s) de cette loi.
H0 : X Ã L (θ), θ inconnu (θ = vecteur de k ≥ 1 nombres). On estime θ par ˆθn à partir des informations
³ ´
θn
contenues dans l’échantillon (Cf. A), puis on en déduit des estimations pour les effectifs théoriques Tˆj ˆ

Statistiques et Econométrie - chapitre 3: Méthodes d’estimation

22

Test de H0 : X Ã L (θ) contre H1 : X Ã autre loi au niveau α
2
2
r
r
P
P
(Oj −Tˆj (ˆθn ))
(Pj −ˆπj (ˆθn ))
=
n
> χ2r−1−k,α
→ refus ⇔ K =
Tˆj (ˆ
π
ˆ j (ˆ
θn )
θn )
j=1
j=1
c) Test du Khi-deux d’indépendance : tableau de contingence Echantillon de n individus pour
lesquels on observe 2 caractéristiques (Xi , Yi )1≤i≤n (discrètes ou regroupées en classes (Cj )1≤j≤rX pour X et
(Ck )1≤k≤rY pour Y ). On cherche à tester H0 : (X, Y ) indépendantes.
Distribution de probabilité conjointe théorique : (π j,k )1≤j≤rX : π j,k = P (Xi ∈ Cj , Yi ∈ Ck )
1≤k≤rY

Distributions de probabilité marginales théoriques : (π j )1≤j≤rX : π j = P (Xi ∈ Cj )
(π k )1≤k≤rY : π k = P (Yi ∈ Ck )
Sous H0 , π j,k = π j .π k ∀ (j, k) , 1 ≤ j ≤ rX , 1 ≤ k ≤ rY . On estime les distributions marginales théoriques
par les distributions marginales empiriques Pj et Pk , puis on en déduit la distribution jointe théorique (sous
rX P
rY P −P P 2
P
( j,k j k )
H0 ) (π j,k )1≤j≤rX par π j,k = Pj .Pk . On peut alors calculer la statistique K = n
.
Pj Pk
1≤k≤rY

j=1 k=1

Test de H0 : (X, Y ) indépendantes contre H1 : (X, Y ) contingentes au niveau α
rX P
rY P −P P 2
P
( j,k j k )
> χ2r −1 . r −1 ,α
→ refus ⇔ K = n
Pj Pk
( X )( Y )
j=1 k=1

Statistiques et Econométrie - chapitre 4: Régression linéaire

23

Chapitre 4: Régression linéaire
A La régression linéaire simple
1 ) Approche géométrique et probabiliste et modèle statistique de régression
Convention adoptée dans la mesure du possible : lettres majuscules pour les variables aléatoires ; minuscules
pour leurs réalisations (valeurs observées). Caractères gras pour les matrices.
Echantillon (Xi , Yi )1≤i≤n . Modèle : Yi = a + bXi + Ui
Ui = perturbation = (r´
esidu)
Xi considérées commes des variables certaines, mais variant d’un échantillon à l’autre⇒ xi valeur prise par
Xi dans l’échantillon.
Yi et Ui considérées commes des variables aléatoires; réalisations (une fois l’échantillon tiré) : yi et ui
yi =valeur observée de la variable expliquée ou dépendante Y
xi =valeur observée de la variable explicative ou indépendante X
ui =valeur non observable d’une variable aléatoire représentant la perturbation
Nuage de points (réalisation de l’échantillon) (xi , yi )1≤i≤n
Toutes les espérances sont définies en référence
à la loi
³
´ des Ui ou, de façon équivalente, des Yi .
ˆ
Droite de régression = droite d’équation yˆ = a
ˆ + bx passant “le plus près” du nuage de points
u
ˆi =valeur non observable d’une variable aléatoire représentant la différence entre la hauteur du point sur
la droite de régression et celle du point observé, c’est-à-dire entre la valeur estimée et la vraie valeur.
a
ˆ = ordonnée à l’origine de la droite de régression= valeur de Y à laquelle on peut s’attendre (d’après les
estimations) quand X = 0
ˆb = pente de la droite de régression = augmentation moyenne (sur la droite de régression) de Y quand X
augmente d’une unité.
³
´´2
n
n ³
P
P
ˆ + ˆbxi
u
ˆ2 =
yi − a
Somme des carrés des résidus SCR =
(RSS =“Residul Sum of Squares”)
i=1

i

i=1

Droite représentant la réalité moyenne = droite d’équation (y = a + bx), représentant l’effet moyen de X sur
Y dans la population
a et b vraies valeurs (inconnues) des paramètres à estimer
a = E (Y / X = 0) ordonnée à l’origine de la droite représentant la réalité moyenne = valeur espérée de Y
quand X = 0
)
∆E(Y )
b = ∂E(Y
∂X = ∆X = pente de la droite représentant la réalité moyenne = augmentation espérée de Y quand
X augmente d’une unité.
Modèle statistique :
Yi =
a + bXi + Ui ∀ i = 1, ...n
 EUi = 0 ∀ i = 1, ...n
VUi = σ 2 ∀ i = 1, ...n
avec

Cov (Ui , Uj ) = 0 ∀ i 6= j

Toutes les relations vérifiées par les variables Xi , Yi et Ui sont évidemment transposables à leurs valeurs dans
l’échantillon xi , yi et ui .
2 ) Estimateur des MCO (Moindres Carrés Ordinaires) ou OLS (Ordinary Least Squares)
µn

³ ´
P
2
ˆ
a
ˆ, b = arg min
(Yi − (α + βXi ))
a) Définition et calcul
i=1
(α,β)

³ ´
´
n ³
P

∂SCR
ˆ
ˆ

a
ˆ, b = 0 = −2
Yi − a
ˆ − bXi

∂a
i=1 ³
Conditions de premier ordre (C.P.O.) :
³ ´
´
n
P

∂SCR

Xi . Yi − a
a
ˆ, ˆb = 0 = −2
ˆ − ˆbXi
 ∂b
i=1

Statistiques et Econométrie - chapitre 4: Régression linéaire

n
n


Xi Yi −nXn Yn
(Xi −Xn )(Yi −Yn )

ˆ
 Yn = a

ˆ + bXn
(1)
i=1
ˆb = i=1
=
=
n
n
n
n
n
2
2
P
P
P


Xi2 −n(Xn )
(Xi −Xn )
Xi Yi =
Xi a
ˆ + ˆb
Xi2
(2)


i=1
i=1


i=1
i=1
i=1
a
ˆ = Yn − ˆbXn
µn

n
P
P 2
2
ˆ
Xi Yi − nXn Yn = b
Xi − nXn
Démonstration : (2) − (1) ∗ nXn :

avec nXn =
=

n
P

i=1

n
P

n ¡
P

Xi et

i=1

Xi Yi − 2nYn

n
P

i=1

i=1

24
Cove m p (X,Y )
Vem p (X)

i=1

n
n
n
¢¡
¢ P
P
P
Xi − Xn Yi − Yn =
Xi Yi − Yn
Xi − Xn
Yi + nXn Yn

Xi + nXn Yn =

i=1

n
P

i=1

i=1

i=1

i=1

Xi Yi − nXn Yn

ˆi = Yi − Yˆi = résidu estimé
ˆ + ˆbXi = valeur estimée de Yi et U
Yˆi = a
n

2

i=1

σ
ˆ =

n

ˆ2
U
i

n−2

i=1

=

n

2

(Yi −Yˆi )

=

n−2

2

(Yi −(aˆ+ˆbXi ))

estimateur des MCO de σ 2

i=1

n−2

b) Propriétés dans le cas général
• Propriétés ”moyennes”
ˆn = 0
U

n
P
ˆi Xi = 0
U

n

n
P
ˆi Yˆi = 0
U

i=1

n
P
ˆi Yi 6= 0
mais
U

i=1

Yˆn = Yn

ˆb =

(Yi −Yn )
(Xi −Xn )

2

(Xi −Xn )

i=1

n

i=1

2

(Xi −Xn )



i=1

ˆb =moyenne pondérée des pentes des droites joignant les observations (Xi , Yi ) au point moyen de l’échantillon
¡
¢
¡
¢2
Xn , Yn , pondérée par Xi − Xn , qui mesure la distance entre Xi et sa valeur moyenne.
• Equation de décomposition de la variance (ou d’analyse de la variance)
n
X

Yi2

n
X

=

i=1

Yˆi2 +

i=1
n ¡
P
i=1



n
X
i=1

Yi − Yn
n

ˆi2 ⇔
U

¢2

=

n
n ³
n
´2 X
X
¡
¢2 X
ˆi2 ⇔
Yi − Yn =
Yˆi − Yˆn +
U

i=1
n


i=1

Yˆi − Yˆn
n

´2

+

i=1
n
P

i=1

ˆ2
U
i

n



SCT = SCE + SCR
SY Y = SYˆ Yˆ + SUˆ Uˆ
i=1
³ ´
³ ´
ˆ
+ Vemp U
Vemp (Y ) = Vemp Yˆ

Vemp totale = Vemp estimée + Vemp résiduelle

• Coefficient de détermination multiple R2
Vemp (Yˆ )
Vemp (Y )

R2 ≡

=

Vem p ex p liq u ée
Ve m p to ta le

³
³
´´2
(X)
V
= ˆb2 Veemm pp (Y ) = (Corremp (X, Y ))2 = Corremp Y, Yˆ

ˆ)
Vemp (U
Vemp (Y ) .

Remarque : 1 − R2 =

Ces variances empiriques non modifiées sont des estimateurs biaisés des
¢
¡
2
2
variances de U et Y . Quand on corrige ces biais, on obtient le R2 ajusté R ≡ 1 − n−1
:
n−2 . 1 − R
ˆ)
¡
¢
Ve m p m o d ifi é e (U
2
2
1 − R = Ve m p m o d ifi é e (Y ) = n−1
n−2 . 1 − R .
• Biais et efficacité


ˆb =


n
a + bXi
(Xi −Xn )
|
{z
i=1
Yi

n



¡
¢
+ Ui − a + bXn + Un 

} |
{z
}
Yn

2

(Xi −Xn )

i=1

n

=

(Xi −Xn )(b(Xi −Xn )+(Ui −Un ))

i=1

n

2

(Xi −Xn )

i=1

¡
¢
(Xi −Xn )E Ui − Un
i=1
|
{z
}
n

n

b

=

2

(Xi −Xn )

n

+

i=1

n

(Xi −Xn )(Ui −Un )

i=1

2

(Xi −Xn )

i=1

n

=b+

(Xi −Xn ).(Ui −Un )

i=1

n

2

(Xi −Xn )

i=1

³ ´
⇒ E ˆb = b +

n

=0
2

(Xi −Xn )

i=1

⇒ Eˆb = b

Statistiques et Econométrie - chapitre 4: Régression linéaire
´
³ ´
³
³
´
¡
¢
a=a

a = E Yn − ˆbXn = E a + bXn + Un − Xn E ˆb = a + b − Eˆb Xn = a ⇒ Eˆ
³ ´
V ˆb =

n

n

σ2

2

(Xi −Xn )

i=1

n

³ ´
Xi2
i=1
ˆ
, V (ˆ
a) = V b . n =

³ ´
³ ´
ˆ, ˆb = −Xn .V ˆb = −Xn .
Cov a

n

n

σ2

2

(Xi −Xn )

.

i=1

25

Xi2

et

n

i=1

σ2
2

(Xi −Xn )

i=1

On en déduit des estimateurs pour la variance et l’écart-type de a
ˆ et ˆb en remplaçant σ 2 par σ
ˆ2 :
³ ´
ˆ ˆb =
V

n

σ
ˆ2
2

(Xi −Xn )

=

SCR
n−2

SXX

=

n
S
ˆ2
U
i
i=1
n−2
2 (X)
nSn

n

ˆ (ˆ
, V
a) =

i=1

³ ´
d a
ˆ, ˆb = −Xn .
et Cov

n

σ
ˆ2
2

(Xi −Xn )

i=1

n

σ
ˆ2
2

(Xi −Xn )

ˆˆb =
; σ

i=1

s

n

n

Xi2

. i=1n

=

v
u
u
u
ˆ aˆ = t
et σ

σ
ˆ2
2

(Xi −Xn )

i=1

SCR
n−2

SXX .

i=1

=

n

n

n

n
S
n
ˆ2
U
i
Xi2
i=1
i=1
n−2
2 (X)
n
nSn

Xi2

σ
ˆ2
2

(Xi −Xn )

.

i=1

.

Xi2

n

i=1

³
´
¡ 2 ¢
ˆ 2 , ˆb = 0 et Cov σ
ˆ ,a
ˆ =0
Si la distribution des (Ui ) est symétrique, alors Cov σ
• Théorème de Gauss-Markov

L’estimateur des MCO de (a, b) est le plus efficace parmi les estimateurs linéaires sans biais de (a, b) .
→ Les MCO sont “ce qu’on peut faire de mieux” pour estimer a et b.
c) Propriétés sous hypothèse de normalité
• Lois marginales des estimateurs
¡
¢
Si les Ui à N 0, σ 2 , alors :
2

µ

a
ˆ
ˆb




µ ¶
a

ÃN
,
b

n

σ2
2

(Xi −Xn )

i=1



.

ˆ et ˆb . On en déduit :
et (n − 2) . σσˆ 2 Ã χ2 (n − 2) indépendant de a
• Intervalles de confiance et tests de nullité
£
¤
ˆ±σ
ˆ aˆ .tn−2,α/2
IC bilatéral au niveau α pour a : a

n
i=1

Xi2

n

−Xn
a
ˆ−a
σ
ˆ aˆ



−Xn 
1

à St (n − 2) et

ˆb−b
σ
ˆˆb

à St (n − 2)

i
h
IC bilatéral au niveau α pour b : ˆb ± σ
ˆˆb .tn−2,α/2

Les logiciels classiques calculent automatiquement les IC à 95% ainsi que les “t de Student” :
ˆ
tˆaˆ ≡ σˆaˆaˆ et tˆˆb ≡ σˆbˆ servant à tester respectivement H0 : a = 0 et H0 : b = 0.
b
³ ´ ¡
ˆ)
¢
Vemp (U
ˆ = 1 − R2 .Vemp (Y )
Remarque : 1 − R2 = Vemp (Y ) ⇒ Vemp U
n/ V Uˆ
³
´
ˆ2
Covemp (X,Y ) 2
(Covemp (X,Y )) 2
1
R2
n−2 ( )
ˆ2
/
=
(n

2)
.
. (1−R2 ).V
= (n − 2) . 1−R
⇒ tˆˆ2b = σˆb 2 =
2 = tˆ
(X)
V
Vemp (X)
emp
emp (Y )
b
(X)
V
n
/
emp
ˆ
b
On peut donc simplement tester l’absence d’effet de X sur Y (b = 0) à partir du R2 de la régression, c’est-à-dire
à partir du coefficient de corrélation empirique entre X et Y .
• Tests d’égalité à une valeur précise
0
a = a1 6= a0 ,
Sous H0 : a = a0 , aˆ−a
σ
ˆ aˆ Ã St (n − 2), alors que, sous l’alternative H1 (uni- ou bi-latérale) : Eˆ
a
ˆ − a1
0
0
+ a1σˆ−a
est décalée (vers la droite ou vers la gauche). Comme σ
ˆ aˆ est une fonction
la loi de aˆ−a
σ
ˆ aˆ =
a
ˆ
σ
ˆ aˆ
| {z }

ÃSt(n−2)

Statistiques et Econométrie - chapitre 4: Régression linéaire

26

décroissante de n, et que σ
ˆ aˆ −→ 0, on en déduit que le décalage est d’autant plus important que l’échantillon
n→+∞
¯
¯
¯ aˆ−a0 ¯
0
est grand et que, sous H1 : ¯ σˆ aˆ ¯ −→ +∞. Par conséquent, la statistique de test aˆ−a
σ
ˆ aˆ permet de tester
n→+∞

ˆ

0
H0 : a = a0 . De même, la statistique de test b−b
σ
ˆˆb permet de tester H0 : b = b0 .
Pour a0 6= 0 ou b0 6= 0, le test n’est pas pré-programmé sous EXCEL et doit être fait “à la main”, à partir de
ˆ aˆ ou ˆb, b0 et σ
ˆˆb . Avec de véritables logiciels d’économétrie tels que RATS, STATA ou SAS, de tels
a
ˆ, a0 et σ
tests sont pré-programmés.

• Tests joints sur (a, b)
¶ ³
µ
´2 ¶
³
´ µP
n
2
1
2
ˆ
ˆ
F ≡ 2ˆσ2 . n. (ˆ
a − a) + 2.n.Xn . (ˆ
a − a) . b − b +
Xi . b − b
à F (2, n − 2)
i=1

On peut donc tester conjointement (a = a0 ) et (b = b0 ) avec la statistique de test :
µ
¶ ³
´ µP
´2 ¶
³
n
2
1
2
ˆ
ˆ
. n. (ˆ
a − a0 ) + 2.n.Xn . (ˆ
a − a0 ) . b − b0 +
Xi . b − b0
 Ã 

σ2
i=1
a   a0
=
sous H0 :
b0
b




F (2, n − 2)

De tels tests sont pré-programmés sous les logiciels d’économétrie tels que RATS, STATA ou SAS.
d) Propriétés asymptotiques :
La loi approchée de (a, b) quand n grand et les Ui Ãloi quelconque est la même que la loi exacte quand
 n


µ ¶
µ ¶
Xi2
¡
¢
a
ˆ
2
a
−Xn 
.  i=1n
Ui à N 0, σ 2 :
à N
, n σ
2
ˆb
b
n grand
X
−X
( i n)
−Xn 1
i=1
Les intervalles de confiance asymptotiques sont obtenus en remplaçant les Student par des Normales.
4 ) Remise en cause des hypothèses et analyse des résidus

 EUi = 0 ∀ i = 1, ...n
VUi = σ 2 ∀ i = 1, ...n
Le modèle des MCO suppose que :

Cov (Ui , Uj ) = 0 ∀ i 6= j

a) Points aberrants (atypiques) :
Symptôme : point(s) éloigné(s) de la droite de régression
Hypothèse non respectée : EUi = 0 ∀ i = 1, ...n
Conséquence : Eˆ
a 6= a et prédictions faussées (d’autant plus que la proportion de points aberrants dans
l’échantillon est élevée)
Remède : * Exclusion de(s) point(s) aberrant(s) de la régression ou * introduction d’une variable indicatrice
(“dummy”; Cf. B)

b) Effet non linéaire de la variable explicative :
Relation non linéaire entre X et Y
→Exemples de vrais modèles : Y ' α + β log X ou Y ' α + β 1 X + β 2 X 2 ou Y ' αX β ou Y 2 ' α + βX;
→Le vrai modèle n’est plus représenté par une droite, mais par une courbe, qui coupe la droite de régression
en 2 points
Symptôme : tendance de Y à être systématiquement en-dessous de la droite de régression pour les valeurs
extrêmes de X et au-dessus pour les valeurs moyennes de X, ou vice-versa. Le nuage de points n’est pas
“aligné” le long d’une droite, mais le long d’une courbe.
Hypothèse non respectée : EUi = 0 ∀ i = 1, ...n
Conséquence : prédictions d’autant plus faussées que xn+1 est éloigné des 2 points d’intersection
Remède : * Transformation sur X ou Y pour retrouver une relation linéaire ou * régression sur X et X 2 et
éventuellement X 3 , X 4 , ....

Statistiques et Econométrie - chapitre 4: Régression linéaire

27

c) Hétéroscédasticité :
Symptôme : Tendence des résidus à être plus dispersés pour certaines valeurs de X
Hypothèse non respectée : VUi = σ 2 (ici, VUi =fonction de Xi )
 n

µ ¶
Xi2
a
ˆ
2
−Xn 
.  i=1n
Conséquence : a
ˆ et ˆb non biaisés, mais V ˆ 6= n σ
2
b
(Xi −Xn )
−Xn 1
i=1
µ ¶
a
ˆ
par la méthode de White (programmée dans la plupart des logiciels
Remède : * Correction de V ˆ
b
d’économétrie) si on ne connaît pas a priori la forme de l’hétéroscédasticité (simple option dans l’instruction
de régression).
ou * division Yi par σ Ui si on connaît a priori la forme de l’hétéroscédasticité

B Le modèle de régression multiple
1 ) Différentes écritures du modèle et Conditions de Premier Ordre


Y1


n observations; variable expliquée : Y =  ... ; variables explicatives : X1 , ...Xk (vecteurs de taille n).
Y


n

b1
U1




X = (X1 ...Xk ) matrice de taille (n, k). B =  ...  (vecteur de taille k). Résidus U =  ... . Souvent
bk
Un

 

1
b2
 
. 
˜=
˜ = (X2 ...Xk ), b1 = a et B
(mais pas toujours), X1 = e =  ...  (constante). On note alors : X
 .. , ce
bk
1
µ

˜ et B = a .
qui donne : X = (e X)
˜
B
Le modèle s’écrit (dans le cas général) :


Y = b1 X1 + ... + bk Xk + U = X B + U

Y
=
b
X
+
b
X
+
...
+
b
X
+
U


1
1
11
2
21
1
k
k1
(n,1)
(n,1)
(n,k)(k,1)


(n,1)
(n,1)


µ


 ..




a
.


˜ + U si X1 = e
˜
˜B


= ae + X
 = (e X)

˜


B

 Yi = b1 X1i + b2 X2i + ... + bk Xki + Ui


..
1 0 ··· 0

.








 0 1 . . . ... 


=
b
X
+
b
X
+
...
+
b
X
+
U
Y


n
1 1n
2 2n
n
k kn
2
2




EU = 0
VU = σ I = σ  . .



2 ∀ i = 1...n


..
=
0

i
=
1...n
VU
=
σ
EU


.
.
i
i

.
.


0 
.


0

Cov (Ui , Ui0 ) = 0 ∀ i 6= i
0 ··· 0 1
³
´´2
n
n ³
P
P
ˆ
ˆ
ˆ
ˆ qui minimisent SCR =
ˆ2 =
On cherche le vecteur de coefficients B
b
X
+
b
X
+
...
+
b
X
Y
U
.

i
1 1i
2 2i
k ki
i
i=1

i=1

Les calculs sont faits par les logiciels. Les Conditions de Premier Ordre donnent, en écriturematricielle :
³
´ ¡
¢
ˆ = Xt X B
ˆ
Xt Y = Xt XB

Cas particulier : si X1 = e,

a
ˆ=Y −
SXY
˜

k
P
ˆbj Xj

j=2


= SX˜ X˜ B

si X1 = e

Cas particulier : si k = 2 et X1 = e, SXY
˜ et SX
˜X
˜ sont des nombres (matrices de taille (1, 1)), et on retrouve
SXY
Cove m p (X,Y )
˜
ˆ
le résultat du A : b = S ˜ ˜ = Vem p (X)
XX

Statistiques et Econométrie - chapitre 4: Régression linéaire

28

2 ) Estimateur et propriétés des MCO
Condition nécessaire pour pouvoir estimer (i.e. pour pouvoir inverser X t X) :
Vecteurs (Xj )1≤j≤k linéairement indépendants⇔il n’existe pas de relation linéaire entre les (Xj )1≤j≤k ⇔
¢
¡
¢
¡
rang X t X = k ⇔ det X t X 6= 0 ⇔Dans l’échantillon considéré, l’information apportée par les k
variables explicatives (Xj )1≤j≤k ne pourrait pas être contenue dans un ensemble plus petit de k0 < k variables
explicatives.
¢
¡
Si X¡1 = e,¢ la condition nécessaire pour pouvoir estimer est de pouvoir inverser SX˜ X˜ ⇔ rang SX˜ X˜ = k − 1 ⇔
det SX˜ X˜ 6= 0.
Cas particuliers :
¢
¡
• Pour X1 = e et k = 2, la condition det SX˜ X˜ 6= 0 signifie simplement : VX 6= 0 ⇔ X 6= cte
¢
¡
• Pour X1 = e et k = 3, la condition det SX˜ X˜ 6= 0 signifie simplement : VXi 6= 0 pour i = 1, 2 et
Corr (X1 , X2 ) 6= ±1
¢
¡
0
0
Remarque : si rang Xt X = k < k →reformuler le modèle pour avoir k variables explicatives linéairement
indépendantes.
¢
¡
Dans toute la suite, on supposera rang Xt X = k. On peut alors inverser les matrices pour obtenir les
b˜ = ¡S ¢−1 S
B
˜X
˜
˜
X
XY
¡ t ¢−1 ¡ t ¢
b= XX
k
X Y . Si X1 = e, alors :
estimateurs des MCO : B
P
ˆbj Xj
a
ˆ=Y −
j=2


Yˆ1
k


b = P ˆbj Xj sont appelées valeurs estimées
Les valeurs du vecteur Yˆ =  ...  = XB
j=1

 n 
ˆ1
U

ˆ
b
ˆ =  .. 
Les valeurs du vecteur U
.  = Y − Y = Y − XB sont appelées résidus estimées. Leur variance est
ˆn
U


n

2

ˆ =
estimée par : σ

i=1

ˆ2
U
i

n−k

• Propriétés “moyennes”
ˆ ≡
Xj t U

(1,n) (n,1)
t

ˆ
⇒ Y

n
P

i=1

ˆ =
U

(1,n) (n,1)

ˆi = 0 ∀j = 1, ...k
Xji U
n
n
n
P
P
P
ˆ i = 0 et Xj t Y
ˆ = Xj t Y , i.e.
Xji Yˆi =
Xji Yi
Yˆi U

i=1

(1,n) (n,1)

(1,n) (n,1)

i=1

i=1

∀j = 1, ...k

´
³
ˆ = 0 et Yˆ = Y et Covemp Xj , U
ˆ = 0 ∀j = 2, ...k
Si X1 = e ⇒ U

• Equation de décomposition de la variance (ou d’analyse de la variance)
Ce paragraphe n’a de sens que si X1 = e
n
n ³
n
´2 X
X
X
¡
¢2
ˆ
ˆ
ˆi2 ⇔
Yi − Yn
Yi − Yn +
U
=
i=1
n
P

i=1

i=1

¡
¢2
Yi − Yn
n

=

n
P

i=1

i=1

³
´2
Yˆi − Yˆn
n

+

n
P
ˆ2
U
i

i=1

n

• Coefficient de détermination multiple R2



SCT = SCE + SCR
SY Y = SYˆ Yˆ + SUˆ Uˆ
³ ´
Vemp (Y ) = Vemp Yˆ

+

³ ´
ˆ
Vemp U

Vemp totale = Vemp estimée + Vemp résiduelle

Statistiques et Econométrie - chapitre 4: Régression linéaire
R2 ≡
2

n−1
n−k .

R2 ajusté R ≡ 1 −

Ve m p (Yˆ )
Vem p (Y )

Vem p ex p liq u ée
Ve m p to ta le

=

¢
¡
2
1 − R2 : 1 − R =

29

³
´´2
³
= Corremp Y, Yˆ

ˆ)
Ve m p m o d ifi é e (U
Ve m p m o d ifi é e (Y )

n−1
n−k .

=

¢
¡
1 − R2 .

• Biais et efficacité
³ ´
¡ 2¢
ˆ = B et E σ
ˆ = σ2 .
E B
³ ´
³ ´
³ ´
³ ´
¡
¡
¢
¢−1
b˜ = σ 2 S−1 et V
b˜ = σ
ˆ =σ
ˆ = σ 2 Xt X −1 estimée par : V
ˆ B
ˆ B
ˆ 2 Xt X . Si X1 = e, V B
ˆ 2 S−1
V B
˜X
˜X
˜
X
X
³ ´
³ ´
³˜¡
´
¢−1
2
t
ˆ : V ˆbj = σ
XX
La variance d’un coefficient estimé ˆbj se lit sur la diagonale de V B
et n’a pas
r ³ ´
r³jj
´
2
ˆ ˆbj = σ
ˆ
(Xt X)−1
ˆˆbj = V
d’expression simple. Attention : ce n’est pas (XtσX) . Ecart-type estimé : σ
jj
jj
³ ´
b
−1
2
˜ = σ S ., l’estimation est d’autant moins précise que les
Remarque : s’il y a une constante, comme V B
˜X
˜
X
variables explicatives sont corrélées entre elles.
ˆ est le plus efficace parmi les estimateurs
• Théorème de Gauss-Markov : L’estimateur des MCO de B
linéaires sans biais de B.
3 ) Tests sur les paramètres (cas normal ou n grand)
a) Loi des estimateurs et intervalles de confiance
³
¡
¢ ´ )
ˆ Ã N B, σ 2 Xt X −1
¡
¢
B
si U Ã N 0, σ 2 I , alors
indépendants
2
(n − k) σσˆ 2 Ã χ2 (n − k)
σ
ˆˆ2b = σ
ˆ2
j

³¡
¢−1 ´
Xt X

jj



σ
ˆˆb

j

σˆb

j

= σσˆ . Comme

ˆbj −bj
σ
ˆˆb

=

j

ˆˆb
ˆbj −bj σ
j
σˆb / σˆb
j

¡
¢
si U Ã N 0, σ 2 I , alors

=

j

j

ˆbj −bj
σ
ˆˆb
j

q

ˆbj −bj
σˆb /

σ
1 (n−k).ˆ
,
σ
(n−k)

à St (n − k)

i
h
IC à 100 (1 − α) % pour bj : ˆbj ± σ
ˆˆbj .tn−1,α/2

b) Test de nullité de l’ensemble des coefficients des vraies variables explicatives :
˜ n’a pas de sens). On cherche à tester H0 : B
˜ =0
Ce paragraphe n’a de sens que si X1 = e (sinon, X
´t
´
³
´
³
³
2
b ˜ SX˜ X˜ ˜
b ˜
b
˜ σ 2 S−1 ⇒ B
˜
˜
−B
B−B
à χ2 (k − 1). D’autre part, (n − k) σσˆ 2 à χ2 (n − k) inB
à N B,
˜X
˜
σ2
X
´
´
³
´
³
´
³
³
b
b ˜ t SX˜ X˜ ˜
b ˜ t SX˜ X˜
b ˜
b ˜
˜
˜
˜
˜
B
donc de B
−B
B
.
Conclusion
:
B

B
dépendant de B,
B

B

à F (k − 1, n − k).
2
2
σ
(k−1)ˆ
σ
˜ = 0,
Donc, sous H0 : B
n

bt
˜
B

SX˜ X˜
b
˜
2B =
(k − 1) .ˆ
σ

2

(Yˆi −Y¯ )

/(k−1)

i=1

n
i=1

ˆ 2 /(n−k)
U
i

=

n−k R2
n−1 . 1−R2

Ã

˜
sous H0 :B=0

F (k − 1, n − k)

˜b est aussi un nombre, donc
Pour k = 2, SX˜ X˜ est une matrice de dimension (1, 1), i.e. un nombre et b
2
2
2
t
2
b
˜b SX˜ X˜ 2 b
˜b = b
˜b nSn2 2(X) = ˜b 2 = ˜b 2 = ˜b à F (1, n − 2), ce qui correspond bien à ˜b à St (n − 2), puisque
σ
ˆ
σ
ˆˆ
σ
ˆˆ
(k−1).ˆ
σ
σ
ˆ
σ
ˆ
2 (X)
nSn

ˆ
b

b

le carré d’une Student St (n − 2) est une Fisher F (1, n − 2).

b

Statistiques et Econométrie - chapitre 4: Régression linéaire

30

c) Test de nullité d’un sous-ensemble de coefficients :
alors B en :
On cherche à tester la nullité des k2 derniers coefficients parmi k = kÃ
1 + k2 . On décompose
!

µ
B1
} k1 lignes
X2 . On estime le :
et, de la même façon, X en deux blocs : X = X1
B2
} k2 lignes
(n,k)
(n,k1 ) (n,k2 )

Modèle “non contraint” M1 : Y = XB + U = X1 B1 + X2 B2 + U , avec E(U ) = 0 et V(U ) = σ 2 I, dans lequel
on veut tester H0 : B2 = 0. Pour cela, on estime aussi le :
Modèle “contraint” (en imposant B2 = 0) M2 : Y = X1 C1 + V .
n
P
ˆ 2 /σ 2 Ã χ2 (n − k). Sous H0 , C1 = B1 et V = U (ce qui n’implique pas du tout
Sous H0 et sous H1 ,
U
i
i=1

ˆ ). Attention : sous H1 , on n’a pas C1 = B1 et V = X2 B2 + U car X1 et X2 peuvent a priori être
que Vˆ = U
corrélés. En effet, si on avait ces égalités, il y aurait une corrélation entre vi et X1i , ce qui contredit l’hypothèse
E(vi ) = 0 ∀X1i .
n
n ˆ 2 ˆ2
n
P
P
P
Vi −Ui
Vˆ 2 /σ 2 Ã χ2 (n − k1 ) et
Vˆ 2 /σ 2 . Par conséquent,
à χ2 (k2 ) , indépendant de
Sous H0 ,
2
i=1

i

n

F ≡

σ

i=1

i=1
n
i=1

ˆ 2 −U
ˆ2
V
i
i
σ2

n

/k2

ˆ 2 /σ 2 /(n−k)
U
i

=

(Vˆi2 −Uˆi2 )

i=1
n

i=1

i=1

/k2

ˆ 2 /(n−k)
U
i

=

SCRC −SCRN C
SCRN C



i

n−k
Ã
k2 sous
H0

F (k2 , n − k)

n
ˆi , donc F , tout comme P Vˆ 2 − U
ˆ 2 , prend des valeurs
Sous H1 , la variance des Vˆi est supérieure à celle des U
i
i
i=1

plus élevées sous H1 que sous H0 . On peut donc bien utiliser F pour tester H0 : B2 = 0.

C Prévision (prédiction)
1 ) Dans le modèle de régression simple
Valeur prédite (prédicteur) pour la (n + 1)e`me observation : Yˆn+1 ≡ a
ˆ + ˆb.Xn+1
Yn+1 = a + b.Xn+1 + Un+1 = vraie valeur inconnue
³
´
ˆn+1 ≡ Yn+1 − Yˆn+1 = a + b.Xn+1 − a
ˆ + ˆb.Xn+1 + Un+1 = (a − a
ˆ) +
Erreur de prévision (de prédiction): E
´
³
b − ˆb .Xn+1 + Un+1

ˆn+1 = 0 : Yˆn+1 prédicteur sans biais de Yn+1
⇒ EE
Attention : Ça n’aurait aucun sens d’écrire : EYˆn+1 = Yn+1
 car Yn+1n est une variable aléatoire.

³ ´
Xi2
2
X
2 .Vˆ
ˆn+1 = VUn+1 +Vˆ
b+2.Xn+1 .Cov a
ˆ, ˆb = σ 2 . 1 + n i=1
a+Xn+1
+ n n+1 2 − 2. n Xn+1 .Xn 2 
VE
2
n
(Xi −Xn )
(Xi −Xn )
(Xi −Xn )
i=1
i=1



 i=1
n
n
2
2
2
2
Xi2
Xi2 −n(Xn )
(Xn+1 −Xn ) −(Xn ) 
(Xn+1 −Xn ) 
i=1
i=1
2
2


=σ . 1+ n
+
.
1
+
+
=
σ
n
n
n
2
2
2
2
n.
n.
(Xi −Xn )
(Xi −Xn )
(Xi −Xn )
(Xi −Xn )
i=1
i=1
i=1
i=1




n
2
2
2
(Xi −Xn )
(Xn+1 −Xn ) 
i=1
2
2 . 1 + 1 + (Xn+1 −Xn ) 

=σ . 1+ n
+
=
σ
n
n
n
2
2
2
n.
(Xi −Xn )
(Xi −Xn )
(Xi −Xn )
i=1
i=1
i=1
³
´
¡ 2 ¢
ˆ ,a
ˆ 2 , ˆb = 0 et Cov σ
ˆ = 0).
(On se place dans le cas où la loi des Ui est symétrique, ce qui garantit : Cov σ


2
ˆn+1 = σ 2 . 1 + 1 + (nXn+1 −Xn ) 
VE
n
2
(Xi −Xn )
i=1
¢
¡
ˆE
ˆn+1
σ
ˆ2
2
ˆ et ˆb, donc
Dans le cas normal, Ui à N 0, σ 2 et (n − 2) V
ˆn+1 = (n − 2) σ2 Ã χ (n − 2) indépendant de a
VE
h
i
ˆ
−Yn+1
de Yˆn+1 . On en déduit : Yn+1
à St (n − 2), d’où l’IC pour Yn+1 : Yˆn+1 ± σ
ˆ Eˆ .tn−2,α/2
σ
ˆ
ˆ
E
n+1

n+1

Statistiques et Econométrie - chapitre 4: Régression linéaire

31

2 ) Dans le modèle de régression multiple
On dispose d’observations X et Y
(n,k)

(n,1)

et on cherche à prédire Yn+1 en fonction des valeurs des explicatives

pour la (n + 1)i`eme observation : (X1,n+1 , ...Xk,n+1 ).
k
P
ˆbj Xj,n+1
valeur prédite : Yˆn+1 =
j=1

vraie valeur (inconnue) Yn+1 =

k
P

bj Xj,n+1 + Un+1

j=1

´
k ³
ˆn+1 ≡ Yn+1 − Yˆn+1 = P bj − ˆbj Xj,n+1 + Un+1
erreur de prévision : E
j=1

ˆn+1 = 0 : Yˆn+1 prédicteur sans biais de Yn+1
⇒ EE
³
´
¡
¢
ˆn+1 = σ 2 1 + Xn+1 Xt X −1 Xn+1t , expression matricielle compliquée, inutile à retenir : calculée pour
VE
ˆn+1 proportionnel à σ 2 , fonction décroissante
chaque observation par les logiciels d’économétrie. A retenir : VE
2
(Xj,n+1 −Xj )
pour chaque j.
de n et fonction croissante de
2 (X )
nSn
j
On peut en déduire
un IC pour Yn+1 dans
le cas normal, ou si n est grand.
³
¡ t ¢−1 n+1t ´
ˆE
ˆn+1
Yˆn+1 −Yn+1
V
2
σ
ˆ2
n+1
2
ˆ
ˆ En+1 = σ
XX
ˆ 1+X
X
=
(n

k)
, avec (n − k) V
V
Ã
2 Ã χ (n − k), donc
ˆ
σ
ˆˆ
σ
En+1
En+1
i
h
St (n − k), d’où l’IC pour Yn+1 : Yˆn+1 ± σ
ˆ Eˆ .tn−k,α/2
n+1

D Variables explicatives particulières
1 ) Variable “indicatrice” ou “muette” (“dummy”)
Soit
½ la variable Xj = Icondition , représentée par un vecteur dont chaque terme est donné par : Xji =
1 si la condition est vérifiée pour l’observation i
.L’effet de cette variable explicative est mesuré par
0 si la condition n’est pas vérifiée pour l’observation i
:
bj = E (Yi / Xji = 1) − E (Yi / Xji = 0)
2 ) Variable discrète à plus de 2 catégories
Si une variable explicative Z ne peut prendre qu’un petit nombre (l > 2) de valeurs, ou catégories (ex : CSP,
tranche d’âge,...) on peut créer autant d’indicatrices que de catégories. Supposons plour simplifier qu’il n’y
a pas d’autres variables explicatives. On note, pour chaque catégorie j = 1, ...l : Xj = IZ=zj la variable
indicatrice qui vaut 1 pour la j e`me catégorie et 0 pour les autres. On note aussi (bj )1≤j≤l les coefficients
l
P
Xj = e. On choisit
associés. On ne peut pas régresser Y sur une constante et tous les (Xj )1≤j≤l car
j=1

généralement une catégorie de référence j0 et on régresse Y sur la constante et tous les (Xj )1≤j≤l sauf Xj0 .
Pour toute catégorie j 6= j0 , on oa alors :
bj = E (Y / Z = zj ) − E (Y / Z = zj0 )
et la constante du modèle vaut :
a = E (Y / Z = zj0 )
3 ) Effet non linéaire d’une variable explicative

Pour simplifier, on suppose qu’il n’y a pas d’autres variables explicatives que X, sauf la constante. Si l’on
pense que l’effet de X sur Y est non linéaire, on peut prendre une approximation polynomiale, ce qui revient
à considérer X, X 2 , X 3 , etc... parmi les variables explicatives.

Statistiques et Econométrie - chapitre 4: Régression linéaire

32

Cas le plus simple : effet quadratique (polynôme de degré 2). Si Y = a + b1 X + b2 X 2 + U , effet marginal espéré
de X sur Y , évalué au point X = x :
∂E (Y / X = x)
= b1 + 2 ∗ b2 x
∂x
Cas général : Y = φ (X, B) + U , où φ est linéaire par rapport à chacun des paramètres du vecteur B, et est
une fonction continue quelconque de X. L’effet marginal de X sur EY au point X = x est donné par :
∂φ (x, B)
∂E (Y / X = x)
=
∂x
∂x
Exemple : Y = a + b1 X + b2 log X +

b3
X+1

+U ⇒

Attention : Un modèle du type : Y = a +
n’est pas linéaire en b2 .

b1
X+b2

∂E(Y /X=x)
∂x

= b1 +

b2
X



b3
(X+1)2

+ U ne peut pas être estimé par MCO car la fonction

b1
X+b2

4 ) Effets croisés de deux variables explicatives
Pour simplifier, on suppose qu’il n’y a pas d’autres variables explicatives que X1 et X2 , sauf la constante, et que,
à X2 fixé, l’effet de X1 est linéaire (et réciproquement). On suppose donc Y = a + b1 X1 + b2 X2 + b3 X1 X2 + U
et l’effet marginal espéré de X1 sur Y , évalué au point X1 = x1 , X2 = x2 est :
∂E (Y / X1 = x1 , X2 = x2 )
= b2 + b3 x2
∂x1
On peut combiner ce point avec l’un des trois points traités ci-dessus (X1 et/ou X2 discrète ou ayant un effet
non linéaire).

Statistiques et Econométrie - chapitre 4: Régression linéaire

33

Annexe 1 : alphabet grec et quelques utilisations typiques en statistiques
ou économétrie
Les lettres suivies de * seront utilisées régulièrement dans le cours, donc à retenir.
Minuscules Majuscules Lecture
Utilisation
α∗
alpha
paramètre, constante
β∗
bêta
paramètre, pente
ψ
Ψ
psi
δ∗

delta
variation
ε∗
epsilon
v.a., résidu
φ
Φ
fi
densité (φ) et f.d.r. (Φ) de la N (0, 1)
γ
Γ
gamma
η
ι
iota
κ
kappa
λ
Λ
lambda
µ
mu
ν
nu
π
Π
pi
constante (π =3,14); produit Π
χ∗
khi
loi du “khi-deux” χ2
ρ
rho
coefficient de corrélation
σ∗
Σ
sigma
écart-type (σ) ; signe somme (Σ)
τ
tau
υ
Υ
ω

omega
variable aléatoire ω; ensemble Ω auquel appartient ω
ξ
Ξ
ksi
résidu, en remplacement de ε
θ∗
Θ
théta
paramètre inconnu θ; ensemble Θ auquel appartient θ
ζ
dzeta
variable aléatoire, en remplacement de ε

Statistiques et Econométrie - chapitre 4: Régression linéaire

34

Annexe 2 : Calculs sur les sommes de carrés
Il faut vous habituer à “jouer sur les différentes façons d’écrire et sur les relations entre sommes de carrés
ˆ 2X . Toutes les propriétés qui
centrées SXX , variance empirique Sn2 (X) et variance empirique modifiée σ
suivent sont utilisées dans les différentes démonstrations du chapitre (régression linéaire simple et multiple) et
le détail des calcul ci-dessous a pour seul but d’aider ce que ça intéresse à comprendre les calculs. Les autres
pourront se contenter d’apprendre par coeur les formules encadrées. Ceux qui n’ont pas envie de les apprendre
peuvent les retrouver rapidement par de simples calculs à partir des définitions.
Faites bien attention aux parenthèses !!!
n

Xi

Xn =

i=1



n

n
P

Xi = nXn

i=1

Soit SXX =

n
n ¡
n
n
n
n
X
¢2 P
P
P
P
P
2
2
2
2
Xi − Xn =
Xi2 +
Xn − 2 ∗
Xi Xn =
Xi2 + nXn − 2 ∗ nXn =
Xi2 − nXn

i=1

D’autre part,

n
P

i=1

Donc SXX =

n
P

i=1

i=1

¡

i=1

¢

Xn Xi − Xn = Xn

n
P

i=1

Xi −

n
P

i=1

i=1

|i=1{z }

i=1

nXn

2

2

Xn = Xn nXn − nXn = 0

n
n
¡
¢ X
¡
¢ P
¡
¢
Xi Xi − Xn −
Xn Xi − Xn =
Xi Xi − Xn

Bilan :
SXX =

|i=1

n
P

i=1

{z

i=1

}

=0

n
n
¡
¢2 P
¡
¢ P
2
Xi − Xn =
Xi Xi − Xn =
Xi2 − nXn
i=1

i=1

D’autre part, par définition des variances empiriques (modifiées et non modifiées) :
SXX = nSn2 (X) = (n − 1) σ
ˆ 2X
On en déduit :

n

Sn2 (X)

=

SXX
n

=

n

2

(Xi −Xn )

i=1

n

=

i=1

Xi (Xi −Xn )
n

n

=

i=1

Xi2

n

− Xn

2

On peut procéder de la même façon pour une autre variable Y , ainsi que pour les sommes croisées, qui
correspondront aux covariance, corrélation, etc...
SY Y =

n ¡
P

i=1

SXY =

n
P

i=1

Xi − Xn

¡
¢¡
¢
Xi − Xn Yi − Yn =

¢2

n
P

i=1

=

n
P

i=1

n
¡
¢ P
2
Xi Xi − Xn =
Xi2 − nXn

¡
¢
Xi − Xn Yi =

i=1

n
P

i=1

n
¡
¢ P
Xi Yi − Yn =
Xi Yi − nXn Yn
i=1

Statistiques et Econométrie - chapitre 4: Régression linéaire

35

Annexe 3 : Statistiques descriptives et régression linéaire simple
Méthode pour retrouver tous les résultats du modèle de régression simple à partir des statistiques descriptives.
Sous EXCEL, les statistiques descriptives donnent les variances et covariances empiriques modifiées.
• ˆb =

Cove m p (X,Y )
Vem p (X)

SXY
SXX

=

ˆ = yn − ˆb ∗ xn
• a
• R2 = (Corremp (X, Y ))2
¯2 = 1 −
• R

n−1
n−2

• R2 = 1 −

SCR
SCT

ˆ2 =
⇒σ

n−1
n−2

³ ´
b ˆb =
• V

¡
¢
∗ 1 − R2

¡
¢
¡
¢ 2
ˆY
⇒ SCR = (n − 2) σ
ˆ 2 = SCT ∗ 1 − R2 = (n − 1) 1 − R2 σ

¡
¢ 2
(1−R2 )SY Y
1 − R2 σ
ˆY =
n−2
σ
ˆ2

n

=

2

(xi −xn )

σ
ˆ2
SXX

=

σ
ˆ2
2 (X)
nSn

σ
ˆ2
(n−1)∗ˆ
σ2X

=


ˆˆ2b → tˆˆb = ˆb/ˆ
σˆb

i=1

³ ´
b (ˆ
b ˆb ∗
• V
a) = V

n
i=1

n

x2i

n

=

2

σ
ˆ
SXX

i=1

n

x2i

n

=

2

n

x2i

i=1
σ
ˆ
2 (X)
n
nSn

=

2

σ
ˆ
(n−1)∗ˆ
σ2X

i=1

x2i

n


ˆ 2aˆ → tˆaˆ = ˆb/ˆ
σ aˆ

³ ´
³ ´
ˆ
ˆ
d
b
a
ˆ
,
b
=
−x
• Cov
n∗V b

Autres “Statistiques de la régression”

• “Coefficient de détermintion multiple”= R2 = Corremp (X, Y )

ˆ2
• “Erreur-type”=ˆ
σ= σ
• “Observations”=n

“ANALYSE DE VARIANCE”
• “Somme des Carrés-Régression”=SC Yˆ =
Vemp (X)

n ¡
P

i=1

yˆi − yˆn

¢2

= ˆb2

n
P

i=1

(xi − xn )2 =

³

´
Covem p (X,Y ) 2
Ve m p (X)

∗ (n − 1) ∗

• “Degré de liberté-Régression”=1 (correspond à ˆb) pour une régression simple
ˆ=
• “Somme des Carrés-Résidus”=SC U

n
P

i=1

u
ˆ2i = (n − 2) ∗ σ
ˆ2

• “Degré de liberté-Résidus”=n − 2 pour une régression simple
• “Somme des Carrés-Total”=SCY =
• “Degré de liberté-Total”=n − 1

n
P

i=1

(yi − yn )2 = (n − 1) ∗ Vemp (Y )

• “Moyenne des carrés”=SC/DLÃ χ2 (DL) à une constante multiplicative près.

ˆ Ã F (1, n − 2) sous H0 : b = 0
• “F”=M C Yˆ /M C U

• “Valeur critique de F”=Seuil critique pour le test de H0 : b = 0 contre Ha : b 6= 0 = P (F ≥ f / b = 0)

Statistiques et Econométrie - chapitre 4: Régression linéaire

36

Annexe 4 : Notations, rappels et compléments de calcul matriciel
Cette section ne sera pas traitée explicitement en cours, mais elle pourra aider certains à comprendre le cours.

Vecteurs et matrices particuliers








Matrice identité : I = 

(n,n)


1
 .. 
Vecteur constant : e =  . 
(n,1)
1

1

0


0
.. 
. 


0 
1

···
..
.
..
.

0
..
.

1
..
.
0 ···

0

Transposée

X1
¢
¡


Vecteur : X =  ...  → X t = X1 · · · Xn
(n,1)
X

 n

a11 · · · a1n
a11 · · ·

 ..

.
.
..
t
..
..  → A =  ...
Matrice : A =  .
.
(k,n)
(n,k)
ak1 · · · akn
a1n · · ·



ak1
.. 
. 
akn

Produit scalaire




X1
Y1
n
P




Y =  ...  → X t Y =
X =  ... 
Xi .Yi
(n,1)
(n,1)
i=1
Xn
Yn
t
ˆ (X.Y ) = X Y ; Xn = X t e = et X
Applications : E


n

n

n

Produit d’une matrice A par un vecteur X


a11 · · ·
 ..
..
A . X = .
.
(k,n) (n,1)
ak1 · · ·



Application : X = 
(n,k)

 

X1
..
.

a1n
..  . 
.  
akn
X11 · · ·
..
..
.
.
X1n · · ·

Xn

 P
n
a .X
 j=1 1j j

  ..
= .
 n
 P
akj .Xj


j=1



Xk1
..  et Y = 
.  (n,1) 
Xkn


ˆ (X1 .Y )
E

.
ˆ (X.Y ) ≡ 
Applications : E
=
 ..
(k,1)
ˆ
E (Xk .Y )




X tY
n

a11 · · ·
 ..
..
A . B = .
.
(k,n) (n,m)
ak1 · · ·

 

a1n
..  . 
.  
akn

b11 · · ·
..
..
.
.
bn1 · · ·

Yn

; X ≡
(1,k)

Produit de deux matrices A et B


Y1
..
.

b1m
..
.
bnm









 P
n
X .Y
 j=1 1j j

 .

 → X t Y =  ..
 n
(k,1)
 P
Xkj .Yj


j=1

¡

X1 · · ·

Xk

¢

 P
n
a b
···
 j=1 1j j1

 
..
..
=
.
 n .
 P
akj bj1 · · ·


j=1

=









et X
n

n
P

a1j bjm

j=1
n
P

j=1

..
.
akj bjm









Statistiques et Econométrie - chapitre 4: Régression linéaire
¶t
µ
A . B
= B t . At
Propriété :
(k,n) (n,m)
(m,n) (n,k)

 


X11 · · ·
X11 · · · Xk1
X11 · · · X1n



 ..

.
.
.
.
.
..
t
..
..  → X .X =  ..
..
..  .  ...
Application : X =  .
.
(n,k)
(k,n)(n,k)
X1n · · · Xkn
Xk1 · · · Xkn
X1n · · ·

 P
n
n
P
2
¡ ¢


X1j
X1j Xkj
···
ˆ X2

 j=1
ˆ (X1 Xk )
E
··· E
j=1
1






..
..
..
..
..
..
X t .X = 
 = n. 

.
.
.
.
.

 n .
(k,n)(n,k)
¡
¢
n
2
P

 P
ˆ
ˆ
E Xk
E (Xk X1 ) · · ·
2
Xkj X1j · · ·
Xkj
j=1
j=1


1 ··· 1


eet =  ... . . . ... 
1 ··· 1

37


Xk1
.. 
. 
Xkn

Matrice de variance-covariance d’un vecteur X

X1
¡
¢


X =  ...  → V (X) = E (X − EX)t . (X − EX) =
(n,1)
Xn


(X−EX)t .(X−EX)
n−1

Statistiques descriptives sur un ensemble de variables


X11 · · ·
 ..
..
Matrice de données : X =  .
.
(n,k)
X1n · · ·


Xk1
.. 
. 
Xkn


X11 − X1 · · · Xk1 − Xk


..
..
eet X
ee
..
Matrice des données centrées : X − eX
X=

.
.
.
n =X− n
n
X1n − X1 · · · Xkn − Xk

n ¡
n ¡
¢2
¢¡
¢ 
P
P
X1j − X1
X1j − X1 Xkj − Xk
···


j=1
j=1

³
´t ³
´ 


.
.
eX
..
.
.
SXX = X − eX
X

=


.
.
.
n
n

 n
n ¡
¢¡
¢
¢2
P

 P¡
Xkj − Xk X1j − X1 · · ·
Xkj − Xk
j=1
j=1


d (X1 , Xk )
ˆ (X1 )
V
· · · Cov


..
..
..
= n. 

.
.
.
d
ˆ
V (Xk )
Cov (Xk , X1 ) · · ·
³
= I−

Opérations vectorielles sur espérance et variance
E (A.X) = A.E (X)
t
t .A.(X−EX)
V (A.X) = (X−EX) .A
n−1
V (X.B) =

B t (X−EX)t (X−EX)B
n−1

= B t V (X) B

´
t




Documents similaires


5 econometrie
cours de stats
l2s3 stats
ch02 seance01 diapos
econometrie
dossier final


Sur le même sujet..