Tema.9.Predicci - PowerPoint PPT Presentation

About This Presentation
Title:

Tema.9.Predicci

Description:

Title: Tema 7. Transformaciones. Transformaciones lineales. Puntuaciones t picas. Transformaciones no lineales. Author: Manuel Perea Last modified by – PowerPoint PPT presentation

Number of Views:81
Avg rating:3.0/5.0
Slides: 30
Provided by: Manuel238
Category:

less

Transcript and Presenter's Notes

Title: Tema.9.Predicci


1
Tema.9.Predicción y estimación. Concepto. Cálculo
de la ecuación de regresión lineal. Modelo
general lineal. Evaluación del modelo.
Diagnóstico del modelo. Introducción a la
regresión múltiple.
2
Concepto El establecimiento de una correlación
entre dos variables es importante, pero esto se
considera un primer paso para predecir una
variable a partir de la otra. (U otras, en el
caso de la regresión múltiple.) Claro está, si
sabemos que la variable X está muy relacionada
con Y, ello quiere decir que podemos predecir Y a
partir de X. Estamos ya en el terreno de la
predicción. (Evidentemente si, X no está
relacionada con Y, X no sirve como predictor de
Y.)
Nota Emplearemos los términos regresión y
predicción como casi sinónimos. (La razón del
uso del término regresión es antigua, y se ha
mantenido como tal.)
3
Concepto (2)
El tema básico en regresión (con 2 variables) es
ajustar los puntos del diagrama de dispersión de
las variables X e Y. Para simplificar, nos
centraremos especialmente (por simplicidad) en el
caso de que la relación entre X e Y sea lineal.
rendimiento
Claro está, el tema ahora es cómo conseguir cuál
es la mejor línea que parece unir los puntos.
Necesitamos para ello un criterio. Si bien hay
otros criterios, el más empleado comúnmente, y el
que veremos aquí, es el criterio de mínimos
cuadrados.
inteligencia
Criterio de mínimos cuadrados Es aquel que
minimiza las distancias cuadráticas de los puntos
con la línea.
4
Repaso de la ecuación de una recta
YABX A es la ordenada en el origen (es donde
la recta corta el eje Y) B es la pendiente
(observad que en el caso de las relaciones
positivas, B será positivo en el caso de las
relación negativas, B será negativo si no hay
relación, B será aproximadamente 0)
rendimiento
inteligencia
Si queremos predecir Y a partir de X, necesitamos
calcular (en el caso de relación lineal) la recta
de regresión de Y sobre (a partir de) X.
5
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
El criterio de mínimos cuadrados nos proporciona
un valor de A y uno de B, tal que
Y
Rendimiento (Y)
sea mínimo
Inteligencia (X)
6
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
CI (X) Rendim (Y) 120 10 100
9 90 4 110
6
7
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
La recta por mínimos cuadrados es Y-85015X
es mínimo
Esa expresión vale 11.5 en nuestro caso
Observa.... -Cada unidad de CI hace aumentar
015 la nota. -Aunque en este caso, lo siguiente
no tiene sentido, una persona con CI de 0,
sacaría un -8.5
8
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
Las fórmulas.... En puntuaciones directas
Ordenada origen
Pendiente
Nota Tanto A como B se pueden obtener fácilmente
en cualquier calculadora con opción LR (Linear
Regression)
9
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
Luego
Y-85015X
10
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
Las fórmulas en puntuaciones diferenciales
Fijaros que la media de X y la media de Y serán 0
en puntuación típicas
Ordenada origen
IMPORTANTE Bb Es decir, la pendiente en
puntuaciones diferenciales es la MISMA que en
puntuaciones directas
Pendiente
Por tanto, la recta de regresión en puntuaciones
diferenciales es en nuestro caso y015x
11
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
Las fórmulas en puntuaciones típicas
Al igual que en las puntuaciones diferenciales
Ordenada origen
IMPORTANTE Como veremos, la pendiente en
puntuaciones típicas COINCIDE con el índice de
correlación de Pearson
Pendiente
Por tanto, la recta de regresión en puntuaciones
típicas es en nuestro caso zy 0703zx
12
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
OUTPUT DEL ORDENADOR
Ord. y pendiente (punt.típicas)
Ord. y pendiente (punt.directas)
Observad que el índice de corr.Pearson coincide
con la pendiente expresada en puntuaciones
típicas.
13
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
Sabemos que
y
Y por el tema anterior
Y por el tema de variabilidad
Se deduce que
14
Cálculo de la ecuación de regresión lineal (de Y
sobre X)
En definitiva,
y
Evidentemente, la ordenada en el origen de la
recta de regresión de Y sobre X será 0 para
puntuaciones diferenciales y típicas (dado que
las medias para las respectivas puntuaciones
tanto en X como en Y serán 0 en tales casos).
15
Los errores de predicción en la recta de
regresión de Y sobre X
Puntuaciones observadas
Puntuaciones predichas
Error de predicción con la recta de regresión de
Y sobre X
La cuestión ahora en cuánto se reduce la varianza
al emplear la recta de regresión de Y sobre X (es
decir, teniendo X como predictor) en comparación
con el caso en que no tuviéramos la recta de
regresión
16
Los errores de predicción en la recta de
regresión de Y sobre X
Si no tuviéramos el predictor X, qué puntuación
prediríamos para las puntuaciones de Y?
En tal caso, dado el criterio de mínimos
cuadrados, si tenemos datos en Y y carecemos de
datos en X, nuestra mejor estimación de Y será su
media Recordemos que la media minimiza el
sumatorio de las diferencias Cuadráticas
es mínimo
Si empleamos la media como predictor, la varianza
de las predicciones será
17
Los errores de predicción en la recta de
regresión de Y sobre X
Pero si tenemos un predictor X, la varianza será
Esta es la varianza de Y no explicada por X Se
puede demostrar que
Que despejando sale
18
Cuán buena es la predicción de la recta de
regresión? El coeficiente de determinación como
índice de la bondad de ajuste de nuestro modelo
(la recta de regresión)
Acabamos de mostrar que
Es el llamado coeficiente de determinación y
permite conocer cuán bueno es el ajuste de la
recta de regresión (o en general del modelo
lineal). Está acotado entre 0 y 1.
Si todos los puntos del diagrama de dispersión
están sobre la recta (con pendiente diferente de
0), entonces será 0, y el
coeficiente de determinación será 1
Cuanto más se alejen los puntos de la recta de
regresión, mayor será el valor de el
valor del coeficiente de determinación será menor
y menor.
19
El coeficiente de determinación y la proporción
de varianza asociada/explicada/común (1)
Empecemos con una tautología
Esta expresión indica que la puntuación observada
por el sujeto i-ésimo es igual a la puntuación
predicha para dicho sujeto más un error de
predicción.
Se puede demostrar que las puntuaciones predichas
y los errores de predicción son independientes,
con lo que podemos señalar
Varianza total de Y
Varianza de las puntuaciones de Y predichas por
el predictor X
Varianza de los errores de predicción (varianza
no explicada por X)
20
El coeficiente de determinación y la proporción
de varianza asociada/explicada/común (2)
De la transparencia anterior, tenemos
Y sabíamos que
luego
En definitiva, el coeficiente de determinación
mide la proporción de la varianza de Y que está
asociada/explicada por el predictor X
21
El coeficiente de determinación y la reducción
del error en la estimación
Ya hemos dicho antes, que caso de no tener el
predictor X, la mejor predicción que podemos dar
de un dato cualquiera en Y será la propia media
de Y. Por tanto el error cuadrático promedio en
la estimación será la varianza TOTAL de Y
Pero si tenemos el predictor X, predecimos con
la recta de regresión Y y ahora el error
cuadrático promedio en la estimación de los
valores de Y será Como sabemos que
22
El coeficiente de determinación y la reducción
del error en la estimación
Podemos despejar
Esto quiere decir que al emplear la recta de
regresión para efectuar las estimaciones de Y se
reduce el error de estimación en una cantidad
igual a Puesto que sabemos que
El coeficiente de determinación representa la
proporción en que se reduce el error de
estimación que se hubiera cometido al emplear
como estimador
Por ejemplo, un coeficiente de determinación de
016 quiere decir que el emplear la recta de
regresión reduce el error en los pronósticos un
16 respecto al caso de que hubiéramos adjudicado
la media aritmética de Y a cada dato de la
variable predicha.
23
Introducción a la regresión lineal múltiple (1)
Hemos visto el caso de un predictor (X) y una
variable predicha (Y), y obtenido la recta de
regresión de Y sobre X por el procedimiento de
mínimos cuadrados. Dada la naturaleza del
comportamiento humano, en el que cada conducta
observada puede ser influida por diferentes
variables, resulta más ecológico examinar no ya
cuán bueno es un predictor X para predecir Y,
sino más bien tendremos varios predictores X1,
X2, ...., para predecir Y (o si se quiere, varios
predictores, X2, X3,...., para predecir X1). Es
el caso de la regresión múltiple.
Hasta ahora teníamos
criterio, variable a predecir, variable
dependiente
Ahora tendremos k predictores
Variables predictoras
24
Recta regresión
Introducción a la regresión lineal múltiple (2)
Es importante que os deis cuenta que las
ponderaciones B2, B3, ..., son análogas a las que
vimos en el caso de la recta de regresión.
Por ejemplo
Tales coeficientes representan cuán importante es
la respectiva variable predictora en la ecuación
de regresión.
Al igual que ocurría en la recta de regresión
(fijaros que el caso de 1 predictor es un caso
particular de la regresión múltiple), A
representa el lugar donde el hiperplano de
regresión múltiple corta el eje de la variable
predicha.
Por simplicidad, y dado que normalmente todo el
proceso se hace mediante ordenador, no veremos
las fórmulas (ver el texto de Botella y otros, en
el que está todo bien explicado)...pero ahora
veremos unas puntualizaciones.
25
Introducción a la regresión lineal múltiple (3)
En puntuaciones directas, la ecuación de
regresión es la que sabemos
En puntuaciones diferenciales, recordad que A
valía 0 en la recta de regresión lo mismo se
aplica en la ecuación de regresión.
Y aplicando la misma lógica, el valor de los
pesos es el mismo que el que teníamos en
puntuaciones directas
etcétera
26
Introducción a la regresión lineal múltiple (4)
Datos (N5) Rendim Ansied Neurot
9 3 5 3 12 15
6 8 8 2 9
7 7 7 6
Como en el caso de 1 predictor
27
El modelo lineal general El modelo lineal
general subyace a buena parte de las pruebas
estadísticas que se efectúan en psicología y en
otras ciencias sociales. Por decir unas
pocas -Análisis de regresión (ya
vistos) -Análisis de Varianza (se verán 2º
cuatrimestre) -Pruebas t (se verán 2º
cuatrimestre) -Análisis de covarianza -Análisis
de conglomerados (cluster analysis) -Análisis
factorial -Escalamiento multidimensional -Correlac
ión canónica -Análisis discriminante y más....
28
El modelo lineal general (2) Claramente, los
análisis de regresión que hemos visto son un caso
particular del modelo lineal general, en el caso
de 2 variables una actúa como predictor y una
variable predicha.
O si se quiere expresar así
Observado Predicho Error estimación
en términos generales
29
El modelo lineal general (3) La expresión
general es
Y Variable dependiente X1, X2, ..., variables
independientes (predictoras de Y) e error
aleatorio B1, B2, ..., son los pesos que
determinan la contribución de cada variable
independiente.
El caso en el modelo lineal general es que en la
parte izquierda de la ecuación podemos tener no
sólo una variable dependiente, sino varias.
Write a Comment
User Comments (0)
About PowerShow.com