Title: Introducci
1Introducción alAnálisis factorial confirmatorio
- Lectura básica
- Cap. 13 del texto
- Ampliación
- Brown, T. A. (2006). Confirmatory Factor Analysis
for Applied Research. New York The Guilford
Press. - Programas LISREL, AMOS, EQS, Mplus
2- 1.) AFE versus AFC
- 2.) Aplicaciones
3Ítems del EPQ-R (neuroticismo)
Z1. Su estado de ánimo sufre altibajos con frecuencia?
Z2. Se siente a veces desdichado sin motivo?
Z3. A menudo se siente solo?
Z4. Es usted una persona sufridora?
Z5. Se inquieta por cosas terribles que podrían suceder?
Z6. Se siente intranquilo por su salud?
z1 z2 z3 z4 z5 z6
Z1 1 .529 .352 .294 .210 .146
Z2 1 .420 .259 .216 .086
Z3 1 .307 .240 .132
Z4 1 .276 .218
Z5 1 .271
Z6 1
4Minimizar diferencias entre la matriz de
correlaciones observada y la reproducida
F1 F2 z1 z2 z3 z4 z5 z6
Z1 ? ? r\r Z1 .529 .352 .294 .210 .146
Z2 ? ? r\r Z2 .526 .420 .259 .216 .086
Z3 ? ? r\r Z3 .364 .419 .307 .240 .132
Z4 ? ? r\r Z4 .277 .275 .271 .276 .218
Z5 ? ? r\r Z5 .230 .205 .241 .288 .271
Z6 ? ? r\r Z6 .133 .084 .161 .231 .251
Residual Z1
Residual Z2 .003
Residual Z3 -.012 .001
Residual Z4 .017 -.016 .036
Residual Z5 -.021 .011 -.001 -.012
Residual Z6 .014 .002 -.029 -.013 .021
MUCHAS SOLUCIONES POSIBLES
1 factor? 2 factores? 3 factores?
5Análisis Factorial Exploratorio
Su estado de ánimo sufre altibajos con frecuencia?
Se siente a veces desdichado sin motivo?
A menudo se siente solo?
Es usted una persona sufridora?
Se inquieta por cosas terribles que podrían suceder?
Se siente intranquilo por su salud?
z1 .628 F1 .064 F2 E1
z2 .866 F1 - .121 F2 E2
z3 .453 F1 .185 F2 E3
z4 .189 F1 .424 F2 E4
z5 .073 F1 .505 F2 E5
z6 .078 F1 .509 F2 E6
6 REPRESENTACIÓN
Modelo exploratorio
Cuantos factores? Criterio para la Rotación?
E1
F1
E2
E3
E4
F2
E5
E6
DATOS ?MODELO
7Modelo confirmatorio
E1
F1
E2
Factor 1 Factor 2
Z1 0.694 0
Z2 0.736 0
Z3 0.565 0
Z4 0 0.590
Z5 0 0.520
Z6 0 0.383
E3
E4
F2
E5
E6
rF1F20.631
MODELO?DATOS
8E1
Modelo exploratorio Modelo inicial
F1
E2
Factor 1 Factor 2
Z1 0 0
Z2 X 0
Z3 X X
Z4 X X
Z5 X X
Z6 X X
E3
E4
F2
E5
E6
rF1F2 0
DATOS?MODELO
9AFE versus AFC
- Similitudes
- Técnica de reducción de dimensionalidad Se
buscan (pocos) factores comunes que expliquen la
matriz de var-cov, S. - Muchos procedimientos (p.e., de estimación) son
comunes a AFE y AFC. - Diferencias
- No explora la relación entre variables o
constructos, sino que las contrasta - Se supone un número concreto de factores comunes
y qué variables empíricas (indicadores) los
miden. - Se supone la existencia o no de relación entre
los factores. - Se pueden establecer correlaciones entre los
términos de error. - No es necesario un método de rotación.
10Ventajas del modelo confirmatorio (I)
- Permite evaluar el ajuste estadístico de nuestros
modelos teóricos fijando - Número de factores
- Ítems que saturan en cada factor
- Especificando errores de medida correlacionados
11Ventajas del modelo confirmatorio (II)
Grupo 1
Grupo 2
- Contraste de hipótesis de invarianza de
parámetros a través de sexo, país, nivel
educativo, (tests ó ítems DIF-) - Análisis de
las estructuras de medias
12Ventajas del modelo confirmatorio (III)
Modelo confirmatorio
Modelos complejos Análisis factorial de 2º
orden, modelos con errores correlacionados
13Ventajas del modelo confirmatorio (Iv)
- Obtención de la correlación entre constructos
(similar a la corrección por atenuación).
Validación de constructo, mostrando la validez
convergente de los indicadores que se espera que
estén asociados, y la discriminante (no
correlación de los que se espera que no
correlacionen).
14Ventajas del modelo confirmatorio (V)
- Tratamiento de los efectos de método por
ejemplo, los ítems directos e inversos en los
cuestionarios. En AFE salen como factores
espúreos, no sustantivos.
15Ventajas del modelo confirmatorio (VI)
- Evaluación psicométrica de tests
- - Enfoque alternativo a TRI análisis factorial
para datos categóricos - Modelo logístico de 2 parámetros
- Modelo de respuesta graduada.
- modelos multidimensionales de TRI
- - Nuevas medidas de fiabilidad
16Representación de los modelos
17Se representan mediante diagramas causales o
path diagrams
Representación de modelos
- Tipos de variables
-
- OBSERVABLES
- LATENTES Muy importante el concepto de factor
latente! -
x1
x1
F1
x2
x3
18Tipos de relaciones (siempre lineales)
- FLECHAS BIDIRECCIONALES
- Covarianzas o correlaciones
-
-
- FLECHAS UNIDIRECCIONALES
- Pesos no estandarizados
- o pesos estandarizados
-
x1
E1
E2
x2
x1
F1
19- EXOGENAS Variables que el modelo NO intenta
explicar (ninguna flecha las apunta) - ENDOGENAS Variables que en el modelo se intentan
explicar. Toda variable endogena tiene un error.
e1
x1
F1
x2
e2
x3
e3
20Objetivo cuando se genera un modelo confirmatorio
- Generar un modelo que sea compatible con la
matriz de varianzas-covarianzas entre todas las
variables. - Las varianzas y covarianzas son función de los
parámetros del modelo.
21Ingredientes del modelo
- Para especificar el modelo, hay que fijar
- Número de factores comunes.
- 2) Relaciones entre las xs y los factores
comunes. - 3) Si existe o no covariación entre los
factores comunes (y entre cuales). - 4) Si existe o no covariación entre los
factores únicos (y entre cuales).
22Ecuaciones del modelo
23- Análisis
- Factorial
- (1 factor)
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
Ecuaciones
Modelo
Matriz de varianzas-covarianzas reproducida
24- Análisis
- Factorial
- (1 factor)
25Path analysis (Análisis de Senderos)
26- Análisis
- Factorial
- (1 factor)
27Path analysis (Análisis de Senderos)
28Identificación del modelo
29Ecuaciones e incognitas
- xu1
- yv1
- xy0.24
- -----
- xu1
- yv1
- zw1
- xy0.25
- zy0.24
- zx0.24
- -----
- xu1
- yv1
- zw1
- tr1
- xy0.25
- zy0.24
- zx0.24
- tx0
Infinitas soluciones Identificación Ajuste.
30es estimable el modelo?
- Datos o ecuaciones disponibles (p(p1)/2)
- Elementos de la matriz de varianzas-covarianzas
- Parámetros a estimar (t)
-
- 10 ecuaciones
- 9 parámetros
Parámetros del modelo t - Pesos libres entre
las variables exógenas y las endogenas -
Varianzas/covarianzas entre las variables
exógenas
- No son parámetros del modelo
- Varianzas y Covarianzas de las variables
endógenas
31Métrica del factor latente
32Métrica del factor latente
32
33- Análisis
- Factorial
- (1 factor)
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
Modelo
Restricciones - Fijar un peso factorial a 1 -
Fijar la varianza del factor a 1
Matriz de varianzas-covarianzas reproducida
34es estimable el modelo?
- Datos o ecuaciones disponibles (p(p1)/2)
- Elementos de la matriz de varianzas-covarianzas
10 - Parámetros a estimar (t) 8
- Grados de libertad 2
- Gl(p(p1)/2)-t
- lt 0 Modelo no identificado, hay más incógnitas
que ecuaciones - 0 Modelo saturado o exactamente identificado.
Solución única. Reproduce exactamente la matriz
de varianzas-covarianzas - gt0 Modelo sobreidentificado. Si hay más
ecuaciones que incógnitas no hay una solución
exacta. Buscaremos aquella solución que haga lo
más parecidas posibles la matriz de
varianzas-covarianzas observada y la reproducida.
35SINTAXIS MPLUS (MATRIZ DE VARIANZAS-COVARIANZAS)
36Parámetros obtenidos (sin estandarizar)
84
e1
1
x1
1
16
84
1
e2
F1
1
x2
.1.5
64
1.75
e3
x3
1
51
e4
x4
1
37RESULTADOS MPLUS
Significación estadística
MODEL RESULTS Estimates
S.E. Est./S.E. Std() StdYX() F
BY X1 1.000 0.000
0.000 4.000 0.400 X2
1.000 0.417 2.398 4.000 0.400
X3 1.500 0.536 2.799
6.000 0.600 X4 1.750
0.640 2.734 7.000 0.700 Variances
F 16.000 9.707 1.648
1.000 1.000 Residual Variances X1
84.000 13.285 6.323 84.006
0.840 X2 84.000 13.285
6.323 83.999 0.840 X3
64.000 14.206 4.505 63.995 0.640
X4 51.000 16.272 3.135
51.010 0.510
- Coeficientes de la ecuación de regresión
(cambios de x en función de cambios en F). Por
ejemplo, 4 puntos de cambio en F (una DT) llevan
a 4 puntos de cambio en X1. - Varianza de los
errores de pronóstico. La varianza de X1 es 100
(en la población general). Sin embargo, para
gente igualada en F la varianza de X1 es 84.
38Matriz de varianzas-covarianzas reproducida
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
x1 x2 x3 x4
x1 100
x2 16 100
x3 24 24 100
x4 28 28 42 100
REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO
OBSERVADA
x1 x2 x3 x4
x1 0
x2 0 0
x3 0 0 0
x4 0 0 0 0
RESIDUOS (observada estimada)
39RESULTADOS MPLUS
Correlaciones (si las variables exógenas son
independientes) unicidades
MODEL RESULTS Estimates
S.E. Est./S.E. Std() StdYX() F
BY X1 1.000 0.000
0.000 4.000 0.400 X2
1.000 0.417 2.398 4.000 0.400
X3 1.500 0.536 2.799
6.000 0.600 X4 1.750
0.640 2.734 7.000 0.700 Variances
F 16.000 9.707 1.648
1.000 1.000 Residual Variances X1
84.000 13.285 6.323 84.000
0.840 X2 84.000 13.285
6.323 84.000 0.840 X3
64.000 14.206 4.505 64.000 0.640
X4 51.000 16.272 3.135
51.000 0.510
- Coeficientes de la ecuación de regresión
estandarizados - Varianza de los errores de
pronóstico (unicidades)
40Parámetros obtenidos (sin estandarizar)
.84
e1
1
x1
.4
1
.84
.4
e2
F1
1
z2
.6
.64
.7
e3
x3
1
.51
e4
z4
1
Parámetros obtenidos (estandarizados)
Para obtener el parámetro estandarizado se
multiplica por la desviación típica de la
variable exógena y se divide por la desviación
típica de la variable endogena
40
41Matriz de correlaciones reproducida
zx1 zx2 zx3 zx4
zx1 1
zx2 .16 1
zx3 .24 .24 1
zx4 .28 .28 .42 1
zx1 zx2 zx3 zx4
zx1 1
zx2 .16 1
zx3 .24 .24 1
zx4 .28 .28 .42 1
REPRODUCIDA SEGÚN LOS PARÁMETROS DEL MODELO
OBSERVADA
x1 x2 x3 x4
x1 0
x2 0 0
x3 0 0 0
x4 0 0 0 0
RESIDUOS
42Modelo no identificado
p
q
Con dos indicadores, 3 datos las dos varianzas y
la covarianza. En el ejemplo habría que estimar
1 lambda (la otra se fija una a 1, para fijar la
escala), la varianza del factor común, las
varianzas de los 2 factores únicos (la covarianza
entre ellos se ha fijado a cero) (4 parámetros).
Luego gl -1.
0.24pq
43p
q
r
s
10-91
p
q
10-82
44- Puede ocurrir que los grados de libertad no sean
negativos y, sin embargo, que el modelo no tenga
solución - Falta de
Falta de - identificación
identificación - parcial
empírica
p
p
q
q
z
10-82
10-91
45Modelo en ecuaciones (2 factores)
1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
46Pesos factoriales
Varianzas-Covarianzas entre factores latentes
Varianzas-Covarianzas teóricas
Varianzas-Covarianzas entre errores
47(No Transcript)
4848
4949
5050
51Identificación del modelo
- 15 ecuaciones (56)/2
- 12 parámetros 6 lambdas (?), 1 covarianza entre
factores comunes (Fij), 2 varianzas de los
factores comunes (Fii), 5 varianzas de los
factores únicos (?ii) Para fijar la escala, se
fijan a 1 bien las dos varianzas de los factores
comunes o bien una lambda de cada factor común - Luego, tendríamos 15 12 3 grados de libertad.
1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
52(No Transcript)
53 Covariances/Correlations/Residual Correlations
X1 X2 X3
X4 X5 ________
________ ________ ________
________ X1 100.000 X2
36.000 100.000 X3 38.000
40.000 100.000 X4 13.000
25.000 46.000 100.000 X5
13.000 10.000 48.000 53.000
100.000
54MODEL RESULTS Estimates
S.E. Est./S.E. Std StdYX F1 BY
X1 5.854 1.223 4.787
5.854 0.588 X2 6.089
1.240 4.912 6.089 0.612 X3
4.850 1.222 3.970 4.850
0.487 F2 BY X3 4.764
1.128 4.222 4.764 0.479 X4
7.004 1.069 6.552 7.004
0.704 X5 7.492 1.079
6.943 7.492 0.753 F2 WITH F1
0.340 0.157 2.168 0.340
0.340 Variances F1 1.000
0.000 0.000 1.000 1.000 F2
1.000 0.000 0.000 1.000
1.000 Residual Variances X1
64.733 13.288 4.872 64.733 0.654
X2 61.932 13.611 4.550
61.932 0.626 X3 37.086
10.160 3.650 37.086 0.375 X4
49.953 11.311 4.416 49.953
0.505 X5 42.870 11.788
3.637 42.870 0.433
55Cuando los predictores están correlacionados los
pesos estandarizados no son correlaciones de
Pearson son correlaciones semi-parciales
1
F1
rx3F1
rF1F2
1
1
Ex3
1
X3
F2
Cambios en X3, en función de la parte de F2 que
no tiene que ver con F1. Manteniendo F1,
constante cuál es el efecto de F2 en X3
1
F2
56Estimación de parámetros
57Estimación de parámetros
- Estimadores de los elementos de S es decir, de
?, T y F, que hagan que S se acerque los más
posible a S. - Se llama función de ajuste (o discrepancia) a
F(S, ) - Procedimientos de estimación
- -Mínimos cuadrados no ponderados (ULS)
- -Mínimos cuadrados generalizados (GLS)
- -Máxima verosimilitud (ML)
- -Mínimos cuadrados ponderados (WLS)
58 Residuals for Covariances/Correlations/Residual
Correlations X1 X2
X3 X4 X5
________ ________ ________
________ ______ X1 -0.001 X2
-0.001 -0.002 X3 -0.244
0.218 -0.002 X4 -1.056
10.266 0.637 -0.003 X5
-2.027 -5.594 -0.516
-0.001 -0.001
-.001
-.001
-.002
-.244
.218
p(p1)/2 elementos distintos de la matriz de
varianzas-covarianzas residuales
Cómo ponderarlos?
59Estimación de parámetros
ULS Mínimos Cuadrados no Ponderados
Función de discrepancia Se busca minimizar el
tamaño de los residuos. 1) Valor mínimo 0
(Ajuste perfecto)2) Cuanto mayores son los
residuos mayor es F (independientemente de la
dirección de los residuos) 3) Ser cauto al
utilizarlo, sensible a la escala de las
variables. No asume distribución de las
variables. No proporciona errores típicos.
60El tamaño de las discrepancias depende de las
unidades de medida de las variables
61Matriz de varianzas-covarianzas asintótica
s11 S12 s22
10 6 90
9 3 87
11 4 84
12 5 72
s11 s12 s22
10k2 6k 90
9k2 3k 87
11k2 4k 84
12k2 5k 72
62s11 s12 s22
s11 S2S11
s12 SS11,S11 S2S12
s22 SS11,S22 SS12,S22 S2S22
63Ponderación de las discrepancias
-.001
-.001
-.002
-.244
.218
Se relaciona inversamente con la varianza
muestral del producto de discrepancias i y j
ULS s i j , w1, de lo contrario w0 GLS w
depende de las varianzas y covarianzas de las
variables (S), más peso a la discrepancia cuanto
menor las varianzas (covarianzas) de las
variables implicadas. No cambia de iteración a
iteración. ML w depende de las varianzas y
covarianzas de las variables (S) , más peso a la
discrepancia cuanto menor las varianzas
(covarianzas) de las variables implicadas. Cambia
de iteración a iteración. WLS w tiene en cuenta
la falta de normalidad de las variables, pero
requiere estimar la matriz W de k(k1)/2
elementos, donde kp(p1)/2
64ML Máxima Verosimilitud
Asumiendo una distribución multivariada normal
para las variables (en diferenciales) la función
de verosimilitud sólo depende de la matriz de
varianzas-covarianzas
Si la distribución es multivariada normal. La
matriz de varianzas-covarianzas sigue una
distribución conocida (de Wishart). Por lo tanto,
se maximiza la siguiente función
Maximizar lo anterior es equivalente a minimizar
la siguiente función de discrepancia
Ventaja Proporciona medidas estadísticas de
ajuste del modelo y de errores típicos de
estimación
65- Máxima verosimilitud (ML)
- Qué parámetros hacen más probables los datos
observados - Se asume que las variables se distribuyen
normalmente. - Mínimos cuadrados generalizados (GLS)
- Se asume que las variables se distribuyen
normalmente. - Mínimos cuadrados ponderados (WLS).
- No asume normalidad de las variables
- pero requiere muestras muy grandes.
- Métodos robustos Nuevos métodos
(DWLS/WLSMV/MLMV)
66Teóricamente
ML diferirá de GLS y WLS Si el modelo es
incorrecto. WLS diferirá de ML y GLS Si los
datos no se distribuyen normalmente.
67Recomendaciones
- Se cumplen supuestos ML, pues ofrece errores
típicos (y contrastes estadísticos), aunque - Problemas de convergencia (muestras pequeñas/nº
indicadores por factor pequeño) - más casos Heywood (p.e., unicidades negativas)
- resultados más distorsionados si el modelo se
especifica mal o si no se cumplen los supuestos, - ULS puede ser incorrecto si las diferencias de
varianzas en las variables son arbitrarias
68Comprobación del ajuste
69(No Transcript)
70Ajuste de los modelos
- 2 CRITERIOS DE AJUSTE BIEN DIFERENCIADOS
- Modelos que hagan los residuos pequeños en
nuestra muestra - Modelos parsimoniosos (se repetirían los
resultados en otra muestra?)
71Indicadores de ajuste
- Índices de ajuste absoluto
-
Medidas basadas en los residuos Standardized
Root Mean Squared Residuals (SRMR) Índices de
ajuste comparativo Normed Fit Index (NFI)
Non-Normed Fit Index (NNFI o TLI) Comparative
Fit Index (CFI) Medidas en errores de
aproximación Root Mean Square Error of
Aproximation (RMSEA) Medidas basadas en la
información Akaike Information Criterion
(AIC) Bayes Information Criterion (BIC)
72- La p asociada indica la probabilidad de obtener
una función de discrepancia tan grande como la
obtenida en la muestra si nuestro modelo fuera
correcto en la población. - Hipótesis nula La función de discrepancia es
cero en la población - Hipótesis alternativa La función de discrepancia
no es cero en la población - Problemas
- La hipótesis nula nunca es cierta.
- Depende del tamaño de la muestra.
CHI/DF Regla informal. El valor esperado de
CHI es DF. Si la ratio es 1 entonces el modelo se
ajusta. Suelen considerarse aceptables si son
menores de 5 (preferiblemente menores que 3 ó
2). Problema sensible al tamaño muestral
73 Residuals for Covariances/Correlations/Residual
Correlations X1 X2
X3 X4 X5
________ ________ ________
________ ______ X1 -0.001 X2
-0.001 -0.002 X3 -0.244
0.218 -0.002 X4 -1.056
10.266 0.637 -0.003 X5
-2.027 -5.594 -0.516
-0.001 -0.001
1
e1
x1
?11
1
?21
x2
e2
?1
?31
1
?32
x3
e3
?42
1
x4
e4
?2
?52
1
x5
e5
74TESTS OF MODEL FIT Chi-Square Test of Model
Fit Value
3.465 Degrees of Freedom
3 P-Value
0.3254
Nuestro modelo
Modelo de independencia de variables
Chi-Square Test of Model Fit for the Baseline
Model Value
110.211 Degrees of Freedom
10 P-Value
0.0000
MODELO DE INDEPENDENCIA MODELO EN EL QUE SE
ESTIMAN COMO PARÁMETROS LAS VARIANZAS Y SE FIJAN
EL RESTO DE PARÁMETROS (COVARIANZAS) A 0.
75x1
e1
e2
x2
x3
e3
x4
e4
x5
e5
76Medidas de bondad de ajuste
- Índices de ajuste comparativo
Regla 0.95. Rango 0 1.
77Chi-Square Test of Model Fit Value
3.465 Degrees
of Freedom 3
P-Value
0.3254 Chi-Square Test of Model Fit for the
Baseline Model Value
110.211 Degrees of Freedom
10 P-Value
0.0000 CFI/TLI CFI
0.995 TLI
0.985
78- RMR
- - El promedio de los residuos. Poco informativo
si no se analiza la matriz de correlaciones. - SRMR
- - promedio de los residuos calculados sobre la
matriz de correlaciones, debe ser menor que .06. - .
79- SRMR (Standardized Root Mean Square Residual)
- Value 0.031
80Afecta al tamaño de los residuos
FP Error de Aproximación en la
población (disminuye al aumentar el número de
parámetros) (no depende del tamaño de la muestra)
S (nuestro modelo)
S(modelo real)
Error de estimación (depende del tamaño de la
muestra)
VARIACION MUESTRAL
S (observada)
S (nuestro modelo)
F Función de discrepancia (mayor que el error
de aproximación)
VARIACION DEBIDA AL MODELO
81Medidas de bondad de ajuste
- Medidas basadas en errores de aproximación
- RMSEA (root mean square error of aproximation)
- Hemos visto que (N-1)F ?2 con parámetro gl. si
el modelo propuesto en H0 es correcto. En ese
caso, en sucesivas muestras, tendremos diferentes
valores de (N-1)F cuya distribución es ?2 con
parámetro gl. Error de estimación. - En realidad, (N-1)F ?2 es no centrada con
parámetros gl y parámetro de no centralidad
(N-1)F0, (cuando el modelo no es correcto. Error
de aproximación.
82- RMSEA
- (Raiz del Error Cuadrático de Aproximación)
- - mayor que 0. Preferiblemente por debajo de
0.05 (recomendable por debajo de 0.08, nunca por
encima de 0.10) - - Indica el error de aproximación medio por cada
grado de libertad. - - No depende del tamaño de la muestra
- - Penaliza por la complejidad del modelo.
83Ejemplo (continua)
RMSEA (Root Mean Square Error Of Approximation)
Estimate
0.039 90 Percent C.I.
0.000 0.178 Probability RMSEA lt .05
0.433
84Medidas de bondad de ajuste
- Medidas basadas en la información
- Akaike Information criterion AIC 2k - 2ln(L)
- Medidas basadas en la información
- Bayes Information criterion BIC kln(N) -
2ln(L) - k número de parámetros libres
- L función de verosimilitud H0
- N tamaño muestra
- Regla cuanto menor, mas apropiado el modelo.
Medida indicada para la comparación de modelos no
anidados.
85Loglikelihood H0 Value
-1804.876 H1 Value
-1803.144 Information Criteria
Number of Free Parameters 12
Akaike (AIC) 3633.752
Bayesian (BIC) 3665.014
86The Journal of Educational Research, 2006, 99, 6,
323-337
87Recomendaciones
- Para decidir el ajuste hay que fijarse en
- Los indicadores de ajuste vistos.
- - Si los coeficientes estimados son
significativos. - La comunalidad de cada indicador.
88Reespecificación de los modelosÍndices de
modificación
- Cambio ?2 si añadieramos el nuevo parámetro al
modelo. Si es mayor que 3.84 eso indica que el
cambio sería significativo al 5. - Preferiblemente no utilizar o solo utilizar si
las muestras son muy grandes (capitalización del
azar).