cours ligne seance lundi 16mars .pdf


À propos / Télécharger Aperçu
Nom original: cours_ligne_seance_lundi_16mars.pdf
Titre: Introduction à l’économétrie
Auteur: ahmed

Ce document au format PDF 1.5 a été généré par Microsoft® PowerPoint® 2013, et a été envoyé sur fichier-pdf.fr le 16/03/2020 à 15:09, depuis l'adresse IP 196.200.x.x. La présente page de téléchargement du fichier a été vue 170 fois.
Taille du document: 952 Ko (25 pages).
Confidentialité: fichier public


Aperçu du document


Introduction à l’économétrie
Séance du lundi 16 mars 2020
10h30-12h30

Les postulats de base du modèle

L’analyse de régression repose sur un certain nombre de postulats. Ce n’est qu’au moment de
l’analyse statistique du modèle que l’on devra vérifier si ces suppositions de base semblent
réalistes dans le cadre de l’étude en cours.
P1:Les X1, X2, ... , Xp sont des variables mesurées sans erreur.
P2:
E( e i ) = 0, Cov( e j , X i ) = 0 ,
i et j = 1 , 2, ...,n.
P3:
Cov( e i, e j ) = 0, i ≠ j.
P4:
Var( e i ) = se2 ,
i = 1 , 2, ...,n.
P5:
e i ~ N ( 0 , se2 ) , i= 1 , 2, ...,n
d'où: Yi ~ N ( b 0 + b 1 Xi , se2 ) , i= 1 , 2, ...,n.

Propriétés des estimateurs de α et ß
Nous admettrons que, pour un individu i prélevé au hasard dans la
population, xk est connu sans erreur, et que yk est une réalisation
d'une variable aléatoire que nous noterons dorénavant Yk et la droite
théorique des moindre carrés s'écrira maintenant :

est par hypothèse un résidu identiquement distribué et
indépendant pour chaque point i selon une loi normale centrée (de
moyenne nulle et d'écart-type égal pour tout k) tel que:
et et
Donc :
Le résidu
est donné par la différence entre y observé (y_obs) et y
estimé (y_est)

Espérance de Y
Espérance de la variable dépendante est donné par :





 E (Y )  E (ax + b + e )  E ( x) + E ( b ) + E (e )  a x+ b
y
Donc


y 



 x+ b

Les estimateurs des MCO sont sans biais
(A est l’estimateur de α et B l’estimateur de β)

A

 x  x  y  y 
 x  x 
i

i

2

i

B  y  ax


Remplaçant yi et ( y=E(Y) ) par sa valeur on aura :

A

 x

i

 x   ax + b + e  y 

 x

i

 x

2

L’expression de B est donné par :

Nous en déduisons les espérances pour A:
.

et pour B:

Donc A et B sont des estimateurs sans biais de α et β

La variance de A et de B

et comme V(εk)=v(ε) selon l’hypothese de l’homoscédasticité

Soit :

La variance de B

En rappelant la relation de Huyghens

Nous avons finalement:

Le problème réside maintenant dans la détermination de σ²
Evidemment pour ce faire nous allons être obligés de passer par un estimateur statistique.
Nous savons que nous pouvons écrire selon ce qui a été vu dans le chapitre de Statistique en ce qui concerne
les estimateurs:

puisque la loi normale est centrée pour les résidus donc (E(ε)=0) et que le résidu est une variable
aléatoire implicitement dépendante de la somme de deux variables aléatoires que sont A et B d'où
la minoration de deux fois l'erreur-standard.I ndiquons aussi que dans la pratique nous notons
fréquemment ce dernier résultat en mélangeant les notations de l'aspect aléatoire et déterministe:

Nous avons donc les estimateurs non biaisés
des variances de A et de B:

Intervalle de prévision pour Y, à X = xh
Estimation par intervalle de prévision d’une valeur
individuelle de Y, pour X=xh
Largeur dépend de la distance séparant xh de x

Ŷitn2S 1+ 1+
n

(XhX)2
n

(X X)
i

i1

2

Estimation par intervalle,
pour différentes valeurs de X
Intervalle de confiance

Intervalle de prévision

Y
_
Y

_
X

xh

X

Intervalle de confiance pour E(Y/xo)
Estimation par intervalle de confiance de la moyenne
E(Y/xo), pour une valeur particulière X=xo
Largeur dépend de la distance séparant xo de x

1
(
Xo

X
)
ˆ
Yi  tn  2  S
+ n
2
n
(Xi  X )
2

i 1

Intervalle de confiance de la valeur moyenne de y pour une
valeur donnée de x

Yˆ0 ~ N ( b 0

2
(
X

X
)
1
0
+ b1 X 0 ,s 2 ( +
))
2
n
 xi

Yˆ0  ( b 0 + b 1 X 0 )
t 
~ t ( n  2)
S Yˆ
0

Yˆ  t n  2, / 2  SYˆ  E (Y )  Yˆ + t n  2, / 2  SYˆ
avec

X  X 
 X  X 
2

SYˆ  S

1
+
n

0

n

i 1

i

2

Intervalle de confiance de la valeur Y pour une
valeur donnée de x

Y0 ~ N ( b 0 + b 1 X 0 , s 2 )
2
(
X

X
)
1
0
Yˆ0  Y 0 ~ N ( 0 , s (1 + +
))
2
n
 xi
2

Yˆ0  Y0
t
~ t (n  2)
S Yˆ Y
0
0
Yˆ  t n  2, / 2  S Y Yˆ   YP  Yˆ + t n  2, / 2  S Y Yˆ 
avec
1
S Y Yˆ   S 1 + +
n

X  X 
 X  X 
2

0

n

i 1

2

i

Analyse de la Variation

Yi - Yi

Y
_
Yi - Y

 _
Yi - Y

Xi

_
Y

X

Analyse de la variance en régression
* SCT = somme des carrés totale = mesure de la variation des Y
autour de leur moyenne :
SCT = ( Yi – Y )2
* SCR = somme des carrés due à la régression = mesure de la
variation de Y expliquée par la régression :
SCR = (Yi – Y )2

* SCRES = somme des carrés résiduelle
= mesure de la variation
résiduelle :
SCRES =
(Yi - Yi )2


* SCT = SCR + SCRES : partition de la variation totale

Coefficient de détermination
somme des
SCR
2
R

SCT

carrés due à la régression
somme des carrés totale

R2 est le % de la variation totale de Y autour de sa
moyenne qui est expliquée par le modèle de
régression ( ou par la variable indép. X )

0  R2  1
R2 est un indice de la qualité de l’ajustement de la
droite aux données

Coefficient de détermination (R2) et
coefficient de corrélation (r)
Y R2 = 1, r = +1

Y R2 = 1, r = -1
^=b +b X
Y
i

^=b +b X
Y
i
0
1 i

0

X
YR2 = .8, r = +0.9

X
Y

^=b +b X
Y
i
0
1 i
X

1 i

R2 = 0, r = 0
^=b +b X
Y
i
0
1 i
X

Transformations des variables
Pour des modèles non linéaires par rapport aux
paramètres, mais qui sont intrinsèquement
linéaires…
On peut les rendre linéaires par transformation
Y et/ou X peuvent être transformées

Linéaire versus Non linéaire
4 Modèles linéaires:

yt = b1 + b2xt + et

yt = b1 + b2 ln(xt) + et

ln(yt) = b1 + b2xt + et

yt = b1 +

2
b2xt +

et

3 Modèles NON linéaires :

yt = b1 +

b3
b2xt +

et

b3
yt

yt = b1 + b2xt + exp(b3xt) + et

= b1 + b2xt + et

Transformation exponentielle
Modèle original

Y e

Y

b0 +b1X

b1 > 0

b1 < 0
Après transformation:

e

X1

lnY b0+b1X+lne

Transformation racine carrée

Yib0+b1 X1i +ei
Y

b1 > 0
b1 < 0

X1

Transformation souvent utilisée
pour corriger l’hétéroscédasticité

Transformation logarithmique

Yib0+b1ln(X1i)+ei
Y

b1 > 0

b1 < 0

X1


Aperçu du document cours_ligne_seance_lundi_16mars.pdf - page 1/25

 
cours_ligne_seance_lundi_16mars.pdf - page 2/25
cours_ligne_seance_lundi_16mars.pdf - page 3/25
cours_ligne_seance_lundi_16mars.pdf - page 4/25
cours_ligne_seance_lundi_16mars.pdf - page 5/25
cours_ligne_seance_lundi_16mars.pdf - page 6/25
 




Télécharger le fichier (PDF)




Sur le même sujet..





Ce fichier a été mis en ligne par un utilisateur du site. Identifiant unique du document: 01937989.
⚠️  Signaler un contenu illicite
Pour plus d'informations sur notre politique de lutte contre la diffusion illicite de contenus protégés par droit d'auteur, consultez notre page dédiée.