Ch01 Séance03 Diapos .pdf



Nom original: Ch01_Séance03_Diapos.pdf

Ce document au format PDF 1.3 a été généré par LaTeX with beamer class version 3.06 / pdfTeX-1.0b-pdfcrypt, et a été envoyé sur fichier-pdf.fr le 13/11/2013 à 18:13, depuis l'adresse IP 197.15.x.x. La présente page de téléchargement du fichier a été vue 934 fois.
Taille du document: 1 Mo (149 pages).
Confidentialité: fichier public


Aperçu du document


Le modèle de régression linéaire

Chapitre 1 Le modèle de régression
linéaire

Maher Chatti
FSEGT
Année Universitaire : 2013-2014
2M EGRFA
Econométrie de la …nance et de l’assurance
Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2. Le modèle de régression linéaire
multiple

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2. Le modèle de régression linéaire
multiple
Le modèle de régression multiple cherche à
expliquer l’évolution d’une variable dépendante
par celles de plusieurs variables explicatives.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2. Le modèle de régression linéaire
multiple
Le modèle de régression multiple cherche à
expliquer l’évolution d’une variable dépendante
par celles de plusieurs variables explicatives.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2. Le modèle de régression linéaire
multiple
Le modèle de régression multiple cherche à
expliquer l’évolution d’une variable dépendante
par celles de plusieurs variables explicatives.
Avant d’estimer ce modèle par la méthode des
moindres carrés ordianires (MCO), on suppose
un certain nombre d’hypothèses.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

H1 : Le modèle de régression est linéaire par
rapport aux coe¢ cients qui sont supposés
constants.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

H1 : Le modèle de régression est linéaire par
rapport aux coe¢ cients qui sont supposés
constants.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

H1 : Le modèle de régression est linéaire par
rapport aux coe¢ cients qui sont supposés
constants.
Le modèle s’écrit :
yt = β0 + β1 x1t + ... + βk xkt + εt , 8t = 1, ..., T

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

H1 : Le modèle de régression est linéaire par
rapport aux coe¢ cients qui sont supposés
constants.
Le modèle s’écrit :
yt = β0 + β1 x1t + ... + βk xkt + εt , 8t = 1, ..., T

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1 Hypothèses du modèle
2.1.1 Forme fonctionnelle

H1 : Le modèle de régression est linéaire par
rapport aux coe¢ cients qui sont supposés
constants.
Le modèle s’écrit :
yt = β0 + β1 x1t + ... + βk xkt + εt , 8t = 1, ..., T
En termes matriciels, il prend la forme
suivante :
y = Xβ + ε
Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.2 Régresseurs
Régresseurs non aléatoires

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.2 Régresseurs
Régresseurs non aléatoires

H2 : Les régresseurs ne sont pas aléatoires, ce
qui revient à supposer que les régresseurs xt
sont indépendants du terme d’ereur εt :
E (εt Xt0 ) = 0
où Xt0 = [1 x1t ... xkt ].

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité
H3 : Il n’existe pas de relation linéaire exacte
entre deux ou plusieurs variables indépendantes
et il y a au moins autant d’observations que de
variables indépendantes.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité
H3 : Il n’existe pas de relation linéaire exacte
entre deux ou plusieurs variables indépendantes
et il y a au moins autant d’observations que de
variables indépendantes.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité
H3 : Il n’existe pas de relation linéaire exacte
entre deux ou plusieurs variables indépendantes
et il y a au moins autant d’observations que de
variables indépendantes.
Ceci revient à supposer que la matrice est de
plein rang colonne (absence de colonne
pouvant s’exprimer comme combinaison
linéaire des autres) :
rang (X ) = k + 1

T

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité
H3 : Il n’existe pas de relation linéaire exacte
entre deux ou plusieurs variables indépendantes
et il y a au moins autant d’observations que de
variables indépendantes.
Ceci revient à supposer que la matrice est de
plein rang colonne (absence de colonne
pouvant s’exprimer comme combinaison
linéaire des autres) :
rang (X ) = k + 1

T

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de multicolinéarité
H3 : Il n’existe pas de relation linéaire exacte
entre deux ou plusieurs variables indépendantes
et il y a au moins autant d’observations que de
variables indépendantes.
Ceci revient à supposer que la matrice est de
plein rang colonne (absence de colonne
pouvant s’exprimer comme combinaison
linéaire des autres) :
rang (X ) = k + 1

T

Si T < k + 1, la matrice X ne peut pas être de
plein rang.
Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0
Conséquence : la variable dépendante est
composée de deux parties :

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0
Conséquence : la variable dépendante est
composée de deux parties :

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0
Conséquence : la variable dépendante est
composée de deux parties :
une composante systématique :
E (y j X ) = X β + E ( ε ) = X β

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0
Conséquence : la variable dépendante est
composée de deux parties :
une composante systématique :
E (y j X ) = X β + E ( ε ) = X β

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.1.3 Terme d’erreur
Absence d’erreurs systématiques

H4 : Les erreurs admettent une espérance
nulle :

!
E (ε) = 0
Conséquence : la variable dépendante est
composée de deux parties :
une composante systématique :
E (y j X ) = X β + E ( ε ) = X β
et une composante aléatoire : ε = y

E (y j X )

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Homoscédasticité et absence d’autocorr.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Homoscédasticité et absence d’autocorr.
H5 et H6 : Les erreurs sont homoscédastiques
et ne sont
: E (εε0 ) = σ2 I
2 pas autocorrelées
3
1 .. 0
où I = 4 . . . 5 est la matrice identité et
0 .. 1
0
E
3
2 (εε ) =
V ( ε1 )
cov (ε1 , ε2 ) .. cov (ε1 , εT )
6 cov (ε2 , ε1 )
V ( ε2 )
.. cov (ε2 , εT ) 7
7
6
5
4
.
.
.
.
..
..
V ( εT )
cov (εT , ε1 )
la matrice de variances-covariances des erreurs.
Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Normalité

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Normalité
H7 : Les erreurs sont distribuées selon une loi
normale d’espérance nulle et de variance σ2 :
ε

N (0, σ2 I )

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Normalité
H7 : Les erreurs sont distribuées selon une loi
normale d’espérance nulle et de variance σ2 :
ε

N (0, σ2 I )

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Normalité
H7 : Les erreurs sont distribuées selon une loi
normale d’espérance nulle et de variance σ2 :
ε

N (0, σ2 I )

Cette hypothèse n’est pas indispensable pour
les moindres carrés mais seulement pour
e¤ectuer les tests.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2 L’estimateur des MCO
2.2.1 Formules des estimateurs

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2 L’estimateur des MCO
2.2.1 Formules des estimateurs

La minimisation de la somme des carrés des
résidus, que l’on note par bε0bε, par rapport au
vecteur des coe¢ cients estimés b
β donne :
b
β = (X 0 X )

1

X 0y

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2 L’estimateur des MCO
2.2.1 Formules des estimateurs

La minimisation de la somme des carrés des
résidus, que l’on note par bε0bε, par rapport au
vecteur des coe¢ cients estimés b
β donne :
b
β = (X 0 X )

1

X 0y

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2 L’estimateur des MCO
2.2.1 Formules des estimateurs

La minimisation de la somme des carrés des
résidus, que l’on note par bε0bε, par rapport au
vecteur des coe¢ cients estimés b
β donne :
b
β = (X 0 X )

1

X 0y

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.2 Propriétés statistiques

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.2 Propriétés statistiques
Le vecteur b
β dépend de y et est donc une
variable aléatoire qui admet des propriétés
statistiques.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.2 Propriétés statistiques
Le vecteur b
β dépend de y et est donc une
variable aléatoire qui admet des propriétés
statistiques.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.2 Propriétés statistiques
Le vecteur b
β dépend de y et est donc une
variable aléatoire qui admet des propriétés
statistiques.
Si les hypothèses 1 à 6 sont véri…ées, on
montre que les estimateurs MCO sont BLUE
(Best Linear Unbiased Estimator) : dans la
famille des estimateurs linéaires et sans biais,
ils présentent la variance la plus faible.

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de biais et précision

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de biais et précision
On montre que :
E b
β =β

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de biais et précision
On montre que :
E b
β =β

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

Absence de biais et précision
On montre que :
E b
β =β

La matrice de variances-covariances des
estimateurs MCO est donnée par :
V b
β = σ 2 (X 0 X )

1

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.3 Estimation de la matrice de
variances-covariances des estimateurs

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.3 Estimation de la matrice de
variances-covariances des estimateurs
0

bε bε
b2 = ddl
= SCR
Sachant que : σ
ddl est un
2
estimateur sans biais de σ , on obtient :

b b
b 2 (X 0 X )
V
β =σ

1

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.3 Estimation de la matrice de
variances-covariances des estimateurs
0

bε bε
b2 = ddl
= SCR
Sachant que : σ
ddl est un
2
estimateur sans biais de σ , on obtient :

b b
b 2 (X 0 X )
V
β =σ

1

Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.3 Estimation de la matrice de
variances-covariances des estimateurs
0

bε bε
b2 = ddl
= SCR
Sachant que : σ
ddl est un
2
estimateur sans biais de σ , on obtient :

b b
b 2 (X 0 X )
V
β =σ

1

ddl désigne le degré de liberté, égal au nombre
d’observations T moins le nombre de
paramètres à estimer (ici k + 1).
Chapitre 1 Le modèle de régression linéaire

Le modèle de régression linéaire

2.2.4 Qualité de l’ajustement

Chapitre 1 Le modèle de régression linéaire




Télécharger le fichier (PDF)

Ch01_Séance03_Diapos.pdf (PDF, 1 Mo)

Télécharger
Formats alternatifs: ZIP







Documents similaires


ch01 section02
ch01 seance05 diapos
ch01 section01
ch01 section01
ch01 seance01
econometrie

Sur le même sujet..