cours ligne seance lundi 16mars .pdf
À propos / Télécharger Aperçu
Ce document au format PDF 1.5 a été généré par Microsoft® PowerPoint® 2013, et a été envoyé sur fichier-pdf.fr le 16/03/2020 à 15:09, depuis l'adresse IP 196.200.x.x.
La présente page de téléchargement du fichier a été vue 170 fois.
Taille du document: 952 Ko (25 pages).
Confidentialité: fichier public
Aperçu du document
Introduction à l’économétrie
Séance du lundi 16 mars 2020
10h30-12h30
Les postulats de base du modèle
L’analyse de régression repose sur un certain nombre de postulats. Ce n’est qu’au moment de
l’analyse statistique du modèle que l’on devra vérifier si ces suppositions de base semblent
réalistes dans le cadre de l’étude en cours.
P1:Les X1, X2, ... , Xp sont des variables mesurées sans erreur.
P2:
E( e i ) = 0, Cov( e j , X i ) = 0 ,
i et j = 1 , 2, ...,n.
P3:
Cov( e i, e j ) = 0, i ≠ j.
P4:
Var( e i ) = se2 ,
i = 1 , 2, ...,n.
P5:
e i ~ N ( 0 , se2 ) , i= 1 , 2, ...,n
d'où: Yi ~ N ( b 0 + b 1 Xi , se2 ) , i= 1 , 2, ...,n.
Propriétés des estimateurs de α et ß
Nous admettrons que, pour un individu i prélevé au hasard dans la
population, xk est connu sans erreur, et que yk est une réalisation
d'une variable aléatoire que nous noterons dorénavant Yk et la droite
théorique des moindre carrés s'écrira maintenant :
Où
est par hypothèse un résidu identiquement distribué et
indépendant pour chaque point i selon une loi normale centrée (de
moyenne nulle et d'écart-type égal pour tout k) tel que:
et et
Donc :
Le résidu
est donné par la différence entre y observé (y_obs) et y
estimé (y_est)
Espérance de Y
Espérance de la variable dépendante est donné par :
E (Y ) E (ax + b + e ) E ( x) + E ( b ) + E (e ) a x+ b
y
Donc
y
x+ b
Les estimateurs des MCO sont sans biais
(A est l’estimateur de α et B l’estimateur de β)
A
x x y y
x x
i
i
2
i
B y ax
Remplaçant yi et ( y=E(Y) ) par sa valeur on aura :
A
x
i
x ax + b + e y
x
i
x
2
L’expression de B est donné par :
Nous en déduisons les espérances pour A:
.
et pour B:
Donc A et B sont des estimateurs sans biais de α et β
La variance de A et de B
et comme V(εk)=v(ε) selon l’hypothese de l’homoscédasticité
Soit :
La variance de B
En rappelant la relation de Huyghens
Nous avons finalement:
Le problème réside maintenant dans la détermination de σ²
Evidemment pour ce faire nous allons être obligés de passer par un estimateur statistique.
Nous savons que nous pouvons écrire selon ce qui a été vu dans le chapitre de Statistique en ce qui concerne
les estimateurs:
puisque la loi normale est centrée pour les résidus donc (E(ε)=0) et que le résidu est une variable
aléatoire implicitement dépendante de la somme de deux variables aléatoires que sont A et B d'où
la minoration de deux fois l'erreur-standard.I ndiquons aussi que dans la pratique nous notons
fréquemment ce dernier résultat en mélangeant les notations de l'aspect aléatoire et déterministe:
Nous avons donc les estimateurs non biaisés
des variances de A et de B:
Intervalle de prévision pour Y, à X = xh
Estimation par intervalle de prévision d’une valeur
individuelle de Y, pour X=xh
Largeur dépend de la distance séparant xh de x
Ŷitn2S 1+ 1+
n
(XhX)2
n
(X X)
i
i1
2
Estimation par intervalle,
pour différentes valeurs de X
Intervalle de confiance
Intervalle de prévision
Y
_
Y
_
X
xh
X
Intervalle de confiance pour E(Y/xo)
Estimation par intervalle de confiance de la moyenne
E(Y/xo), pour une valeur particulière X=xo
Largeur dépend de la distance séparant xo de x
1
(
Xo
X
)
ˆ
Yi tn 2 S
+ n
2
n
(Xi X )
2
i 1
Intervalle de confiance de la valeur moyenne de y pour une
valeur donnée de x
Yˆ0 ~ N ( b 0
2
(
X
X
)
1
0
+ b1 X 0 ,s 2 ( +
))
2
n
xi
Yˆ0 ( b 0 + b 1 X 0 )
t
~ t ( n 2)
S Yˆ
0
Yˆ t n 2, / 2 SYˆ E (Y ) Yˆ + t n 2, / 2 SYˆ
avec
X X
X X
2
SYˆ S
1
+
n
0
n
i 1
i
2
Intervalle de confiance de la valeur Y pour une
valeur donnée de x
Y0 ~ N ( b 0 + b 1 X 0 , s 2 )
2
(
X
X
)
1
0
Yˆ0 Y 0 ~ N ( 0 , s (1 + +
))
2
n
xi
2
Yˆ0 Y0
t
~ t (n 2)
S Yˆ Y
0
0
Yˆ t n 2, / 2 S Y Yˆ YP Yˆ + t n 2, / 2 S Y Yˆ
avec
1
S Y Yˆ S 1 + +
n
X X
X X
2
0
n
i 1
2
i
Analyse de la Variation
Yi - Yi
Y
_
Yi - Y
_
Yi - Y
Xi
_
Y
X
Analyse de la variance en régression
* SCT = somme des carrés totale = mesure de la variation des Y
autour de leur moyenne :
SCT = ( Yi – Y )2
* SCR = somme des carrés due à la régression = mesure de la
variation de Y expliquée par la régression :
SCR = (Yi – Y )2
* SCRES = somme des carrés résiduelle
= mesure de la variation
résiduelle :
SCRES =
(Yi - Yi )2
* SCT = SCR + SCRES : partition de la variation totale
Coefficient de détermination
somme des
SCR
2
R
SCT
carrés due à la régression
somme des carrés totale
R2 est le % de la variation totale de Y autour de sa
moyenne qui est expliquée par le modèle de
régression ( ou par la variable indép. X )
0 R2 1
R2 est un indice de la qualité de l’ajustement de la
droite aux données
Coefficient de détermination (R2) et
coefficient de corrélation (r)
Y R2 = 1, r = +1
Y R2 = 1, r = -1
^=b +b X
Y
i
^=b +b X
Y
i
0
1 i
0
X
YR2 = .8, r = +0.9
X
Y
^=b +b X
Y
i
0
1 i
X
1 i
R2 = 0, r = 0
^=b +b X
Y
i
0
1 i
X
Transformations des variables
Pour des modèles non linéaires par rapport aux
paramètres, mais qui sont intrinsèquement
linéaires…
On peut les rendre linéaires par transformation
Y et/ou X peuvent être transformées
Linéaire versus Non linéaire
4 Modèles linéaires:
yt = b1 + b2xt + et
yt = b1 + b2 ln(xt) + et
ln(yt) = b1 + b2xt + et
yt = b1 +
2
b2xt +
et
3 Modèles NON linéaires :
yt = b1 +
b3
b2xt +
et
b3
yt
yt = b1 + b2xt + exp(b3xt) + et
= b1 + b2xt + et
Transformation exponentielle
Modèle original
Y e
Y
b0 +b1X
b1 > 0
b1 < 0
Après transformation:
e
X1
lnY b0+b1X+lne
Transformation racine carrée
Yib0+b1 X1i +ei
Y
b1 > 0
b1 < 0
X1
Transformation souvent utilisée
pour corriger l’hétéroscédasticité
Transformation logarithmique
Yib0+b1ln(X1i)+ei
Y
b1 > 0
b1 < 0
X1