Le modle de la covariance ou modle effets fixes - PowerPoint PPT Presentation

1 / 51
About This Presentation
Title:

Le modle de la covariance ou modle effets fixes

Description:

Pour compl ter le mod le, on admet : La matrice des variables explicatives est de rang ... On admet que o est une matrice d finie-positive. ... – PowerPoint PPT presentation

Number of Views:131
Avg rating:3.0/5.0
Slides: 52
Provided by: namep133
Category:

less

Transcript and Presenter's Notes

Title: Le modle de la covariance ou modle effets fixes


1
Le modèle de la covariance (ou modèle à effets
fixes)
  • Rappel sur la régression partagée
  • Opérateurs BETWEEN et WITHIN
  • Spécification du modèle à effets individuels
  • Lestimateur LSDV
  • Tests
  • Modèle avec effets temporels
  • Modèle avec effets individuels et temporels

2
Rappel sur la régression partagée (1)
  • Soit le modèle de régression classique
  • Supposons que la régression implique 2
    sous-ensembles de X

3
Rappel sur la régression partagée (2)
  • Alors on démontre (théorème Frisch-Waugh), à
    laide des équations normales, que
  • Remarque est équivalent à lestimateur
    des MCO sur le modèle transformé par M1

4
Opérateurs between et within (1)
  • Opérateur between
  • Soit
  • Opérateur
  • Lorsquil est appliqué à une variable, BN permet
    de calculer les moyennes par individu de cette
    variable. Cet opérateur est donc appelé
    opérateur interindividuel ou opérateur
    between .

5
Opérateurs between et within (2)
  • Opérateur within
  • Opérateur
  • Lorsquil est appliqué à une variable, WN permet
    de calculer les écarts de chaque observation aux
    moyennes individuelles. Cet opérateur est donc
    appelé opérateur intraindividuel ou
    opérateur within .

6
Spécification du modèle à effets individuels (1)
  • Pour chaque individu i et chaque période t
  • Pour chaque individu i
  • En regroupant tous les individus

7
Spécification du modèle à effets individuels (2)
  • Pour compléter le modèle, on admet
  • La matrice des variables explicatives est de rang
    complet
  • Les erreurs

8
Lestimateur LSDV (1)
  • Le modèle est un modèle
    de régression en forme partagée. On peut donc
    appliquer le théorème FW
  • Forme de lestimateur de leffet individuel
  • Lestimateur de leffet individuel est donc égal
    à la moyenne des résidus du i ème groupe.

9
Lestimateur LSDV (2)
  • Les résultats sobtiennent également en
    appliquant les MCO sur le modèle transformé par
    WN
  • Utilité pratique du modèle transformé
  • Le modèle global implique linversion dune
    matrice (N K, N K)
  • Le modèle transformé ne nécessite que linversion
    dune matrice (K, K)
  • Attention la transformation nest pas
    non-singulière, on perd N ddl (ddl NT N K)

10
Tests (1) test dégalité des coefficients
individuels
  • On veut savoir si les effets fixes sont
    différents dune équation à lautre
  • Procédure de test
  • Procédure de Chow
  • Comparaison modèle contraint/modèle non-contraint
  • Le modèle contraint est le modèle I (régression
    ordinaire).

11
Tests (2) Hétéroscédasticité et autocorrélation
  • Hétéroscédasticité
  • Arellano (1987) a montré quon pouvait, de façon
    similaire à White (1980), estimer de façon
    robuste à une hétéroscédasticité de forme
    inconnue la variance de lestimateur
    intra-individuel.
  • On peut aussi effectuer les tests de White (1980)
    ou de Breusch-Pagan.
  • Autocorrélation
  • Sil y a autocorrélation des erreurs
  • Une extension du test de Durbin-Watson a été
    proposée au cadre du modèle à effets fixes à
    partir des résidus estimés du modèle
    intra-individuel.

12
Le modèle avec effets temporels (1)
  • Pour chaque individu i et chaque période t
  • Pour chaque individu i
  • En regroupant tous les individus

13
Le modèle avec effets temporels (2)
  • On définit les opérateurs inter- et
    intratemporels
  • Lestimateur LSDV de b est
  • Cet estimateur sobtient comme lestimateur des
    MCO sur le modèle transformé

14
Le modèle avec effets individuels et temporels (1)
  • Il sécrit
  • Cependant, les paramètres a et l ne sont pas tous
    identifiables car la matrice D N D T nest pas
    de rang complet (multicolinéarité)
  • Pour des raisons de symétrie, on propose
  • dinclure N - 1 variables muettes individuelles
  • dinclure T 1 variables muettes temporelles
  • dajouter un terme constant global

15
Le modèle avec effets individuels et temporels (2)
  • Le modèle sécrit alors
  • Lestimateur de g sobtient comme lestimateur
    des MCO sur le modèle transformé

16
Le modèle avec effets individuels et temporels (3)
  • Différents tests possibles
  • Test joint sur les effets individuels et
    temporels
  • Test sur les effets individuels seulement
  • Test sur les effets temporels seulement

17
Le modèle à erreurs composées (ou modèle à effets
aléatoires)
  • Spécification du modèle avec effets individuels
  • Décomposition spectrale de la matrice de
    variances-covariances
  • Quelques estimateurs et leurs propriétés
  • Tests de spécification
  • Le modèle à effets individuels corrélés
  • Le modèle avec effets individuels et temporels

18
Spécification (1)
  • Pour chaque individu i et chaque période t
  • u i effet individuel rendant compte de
    linfluence sur y des variables non prises en
    compte, si elles sont stables dans le temps.
  • W it effet résiduel représentant linfluence
    des autres variables omises, variant selon les
    individus et variant dans le temps.
  • Hypothèses

19
Spécification (2)
  • Les propriétés suivantes sur les erreurs sont
    donc vérifiées
  • Interprétation
  • Autocorrélation temporelle individu par
    individu, constante quel que soit le nombre de
    périodes séparant deux perturbations
  • Pas de corrélations entre les individus

20
Spécification (3)
  • Si on empile les observations pour lindividu i

21
Spécification (4)
  • Si on empile les N individus

22
Décomposition spectrale de la matrice des
variances-covariances (1)
  • On démontre que
  • V apparaît comme la combinaison linéaire des
    matrices between et within. Les quantités
  • et sont les
    valeurs propres de cette matrice (resp. de
    multiplicité N et NT N).

23
Décomposition spectrale de la matrice des
variances-covariances (2)
  • Remarque 1 il est facile de montrer que
  • Remarque 2 soit
  • Alors F est la matrice permettant deffectuer une
    transformation qui ramène au MCO car

24
Quelques estimateurs (1) lestimateur des MCO
  • Le modèle
  • Lestimateur des MCO
  • Estimateur centré, convergent en probabilité
    (pour N et T ?8) mais non efficient.

25
Quelques estimateurs (2) lestimateur Between
  • Il sagit de lestimateur des MCO appliqué au
    modèle sur les moyennes individuelles
  • Il correspond à lestimateur appliqué au modèle
    transformé par B N

26
Quelques estimateurs (2) lestimateur Between
  • Cette méthode nutilise que la variance
    interindividuelle des individus privilégiant les
    différences permanentes entre individus.
  • Estimateur sans biais et convergent (pour N et T
    ?8 ou N ?8 et T fixé).

27
Quelques estimateurs (3) lestimateur Within
  • Il sagit de lestimateur des MCO appliqué au
    modèle sur les moyennes individuelles
  • Il correspond à lestimateur appliqué au modèle
    transformé par W N

28
Quelques estimateurs (2) lestimateur Within
  • Cette méthode nutilise que la variance
    intraindividuelle des individus, excluant toute
    variabilité attribuable aux différences
    permanentes entre individus.
  • Estimateur sans biais et convergent (pour N et T
    ?8 ou N ?8 et T fixé). En outre, il est
    asymptotiquement efficient.

29
Quelques estimateurs (4) lestimateur des MCG
purs
  • Lestimateur des MCG purs est défini par
  • Compte tenu de la définition de V, cet estimateur
    se réécrit comme

30
Quelques estimateurs (4) lestimateur des MCG
purs
  • Cet estimateur combine donc les variabilités
    inter- et intraindividuelles dans une proportion
    particulière.
  • Il sinterprète ainsi comme la combinaison
    optimale des deux composantes.
  • Il est léquivalent à lestimateur des MCO du
    modèle où les données sont transformées par F
    (transformation quasi-déviation à la moyenne).
  • Cet estimateur est sans biais, convergent (pour N
    et T ?8 ou N ?8 et T fixé) et efficient.

31
Quelques estimateurs (5) lestimateur des MCGR
  • Comme la valeur de q est inconnue, il faut
    lestimer de façon convergente.
  • Swamy et Arora (1972) ont proposé dutiliser les
    variances estimées des résidus des régressions
    intra- et interindividuelles.
  • Un estimateur centré de est donné par
  • où sont les résidus de la
    régression intra.

32
Quelques estimateurs (5) lestimateur des MCGR
  • Un estimateur centré de est
    donné par
  • où sont les
    résidus de la régression inter.
  • Un estimateur convergent de q se déduit de ces
    deux estimations
  • On applique enfin les MCG avec au lieu de q.

33
Tests (1) le test dabsence deffets
spécifiques individuels
  • Le but est de tester
  • Test de Fisher ou du multiplicateur de Lagrange
    (à partir du modèle contraint estimé par les
    MCO), suivant asymptotiquement une loi du ?2 à 1
    ddl.
  • Honda (1985) a proposé une version unilatérale de
    ce test.

34
Tests (2) le test de Mundlak (1978)
  • Selon Mundlak (1978), les effets spécifiques
    aléatoires ont de grandes chances dêtre corrélés
    avec les variables explicatives corrélation
    entre les caractéristiques inobservables des
    individus et les caractéristiques observables
    (régresseurs).
  • Dans ce cas, il montre que seul lestimateur
    within reste sans biais et convergent.
  • Il en déduit également un test de corrélation
    entre les effets spécifiques et les variables
    explicatives.

35
Tests (3) Le test dHausman
  • Principes généraux des tests dHausman
  • Ces tests reposent sur la différence entre
  • un estimateur convergent et efficace sous
    lhypothèse nulle de bonne spécification mais non
    convergent sous lhypothèse alternative et
  • un estimateur convergent sous les deux hypothèses

36
Tests (3) Le test dHausman
  • Application au modèle à erreurs composées
  • Lhypothèse nulle correspond au modèle à erreurs
    composées alors que lhypothèse alternative
    correspond au modèle de Mundlak (où les effets
    spécifiques sont corrélés avec les variables
    explicatives)
  • Dans ce cas, lestimateur des MCG est convergent
    et efficace sous H 0 mais non convergent sous H
    a. Au contraire, lestimateur within est
    convergent dans les deux cas.

37
Tests (3) Le test dHausman
  • Le test repose alors sur la différence
  • La quantité
  • Remarque on peut également tester lexogénéité
    des effets spécifiques en comparant deux
    quelconque des estimateurs suivants

38
Le modèle à effets individuels corrélés
  • Si la corrélation ne peut pas être rejetée, il
    faut considérer un modèle à effets individuels
    corrélés
  • estimateur within ou,
  • estimateur MCO ou MCG sur le modèle en
    différences premières (pour éliminer leffet
    individuel) ou,
  • estimateurs des variables instrumentales

39
Le modèle avec effets individuels et temporels (1)
  • Pour chaque individu i et chaque période t
  • Hypothèses

40
Le modèle avec effets individuels et temporels (2)
  • Les propriétés suivantes sur les erreurs sont
    donc vérifiées
  • Interprétation
  • Autocorrélation temporelle individu par
    individu, constante quel que soit le nombre de
    périodes séparant deux perturbations
  • Covariance contemporaine entre les individus

41
Le modèle avec effets individuels et temporels (3)
  • Si on empile les observations pour lindividu i

42
Le modèle avec effets individuels et temporels (4)
  • Si on empile les N individus

43
Le modèle à coefficients aléatoires
  • Spécification et hypothèses
  • Procédures destimation
  • Test de lhomogénéité des coefficients

44
Spécification du modèle de Swamy (1)
  • Soit le modèle
  • Les hypothèses
  • Sur les variables explicatives on suppose Z i
    fixe, de rang complet K1
  • Sur les erreurs

45
Spécification du modèle de Swamy (2)
  • Sur les coefficients on suppose les g i
    aléatoires
  • g est la partie fixe et d i sont les effets
    individuels aléatoires.
  • On admet que où ? est une
    matrice définie-positive.
  • Le modèle de Swamy est donc un modèle de
    régression multiple avec perturbations
    autocorrélées et hétéroscédastiques.

46
Spécification du modèle de Swamy (3)
  • On empile le modèle pour un individu i donné
  • Soit Alors

47
Spécification du modèle de Swamy (4)
  • On empile le modèle pour tous les individus

48
Estimation (1) les MCG purs
  • Par définition
  • Cette expression peut se simplifier compte tenu
    de la formulation de V

49
Estimation (1) les MCG purs
  • Interprétation il sagit dune moyenne pondérée
    matricielle des .
  • La moyenne est pondérée en fonction inverse de la
    variance les individus pour lesquels
    lestimation est la plus précise pèsent plus dans
    lestimation globale que les autres.
  • Cependant, puisque C i nest pas connue, cette
    méthode nest pas applicable.

50
Estimation (2) les MCGR
  • La matrice C i dépend de si2 et de ? qui sont en
    général inconnus.
  • Pour si2, on utilise la somme des carrés des
    résidus des régressions individuelles.
  • Pour ?, on utilise lestimateur
  • On peut ensuite remplacer si2 et ? par leurs
    estimations dans V pour la 2ème étape des MCGR.
    On obtient un estimateur convergent et
    asymptotiquement efficace pour N ? 8 et T fixe.

51
Test de lhomogénéité des coefficients
  • On teste
  • Puisque lhétérogénéité des coefficients induit
    une forme dhétéroscédasticité, cette dernière
    peut être testée à laide de lapproche
    Breusch-Pagan.
Write a Comment
User Comments (0)
About PowerShow.com