1 / 48

Tercera sesión

Tercera sesión. Fases en la construcción de un modelo de Estructura de covarianza. 1. Especificación 2. Identificación 3. Selección de variables observadas . 4. Estimación del modelo 5. Valoración del ajuste del modelo 6. Re-especificación. Especificación del modelo.

wanda-ortiz
Download Presentation

Tercera sesión

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Tercera sesión

  2. Fases en la construcción de un modelo de Estructura de covarianza • 1. Especificación • 2. Identificación • 3. Selección de variables observadas. • 4. Estimación del modelo • 5. Valoración del ajuste del modelo • 6. Re-especificación

  3. Especificación del modelo • Previo al diseño de un modelo es necesario un conocimiento sustantivo del tema objeto de estudio que representaremos en el modelo. • Etapas en la especificación del modelo - decidir las variable (observables o latentes) que intervendrán en el modelo. - clasificar las variables en exógenas (nunca les llegan flechas) y endógenas. - especificar las relaciones entre las variables

  4. Aspectos a tener en cuenta en la Especificación del modelo • 1. Las variables que se van a considerar • 2. Cuál va a ser la escala de dichas variables • 3. El tipo de relación entre las variables • 4. La dirección de la relación • 5. Complejidad del modelo o identificación • 6. Tamaño muestral

  5. Identificación del modelo • En los modelos de estructura de covarianza se da el nombre de número de observaciones (que no hay que confundir con el tamaño de la muestra) al número de varianzas y covarianzas entre las variables observadas Nº Observaciones = nº varianzas + nº covarianzas. • Nº varianzas = v (tantas como variables) • Nº covarianzas = combinaciones de v elementos tomados de 2 en 2 = v(v-1)/2 • nº varianzas + nº covarianzas = v + v(v-1)/2 = v(v+1)/2 • v(v+1)/2 es el número de observaciones • El número de parámetros a estimar no puede superar al número de observaciones

  6. Si el número de parámetros a estimar coincide con el número de observaciones se dice que tenemos un modelo identificado, también se le llama modelo saturado y la solución es única Si el número de parámetros a estimar es mayor al número de observaciones tenemos un modelo no identificado y para hacerle identificado se suelen poner restricciones a los parámetros. Para que el programa pueda realizar los cálculos que conducen al cálculo de los parámetros es necesario que el número de parámetros a estimar sea igual o menor que el número de observaciones

  7. Grados de libertad • Cuando el número de variables (V) (parámetros a estimar) es mayor que (>) el número de observaciones ( ecuaciones E), V > E significa que existen MULTIPLES soluciones al sistema de ecuaciones, es decir, se pueden elegir libremente la cantidad (V-E) de valores de variables y cada grupo de valores que se elija genera una solución distinta para las E variables que se decida calcular. • Dado que se eligen libremente, este número de variables define el número de GRADOS DE LIBERTAD • f=V-E

  8. Ajuste del modelo • Para medir la consistencia entre los datos y el modelo propuesto, se estudia la semejanza entre la matriz de covarianzas de la población, que se suele representar como , obtenida mediante inferencia de la matriz de covarianzas de la muestra, que se suele representar por S y la matriz de covarianzas que el modelo predice para la población, que se suele representar por ().

  9. La hipótesis fundamental en la que se basa el desarrollo de los modelos causales de estructuras de covarianza se puede formalizar mediante la ecuación = (). Donde  sigue siendo la matriz de covarianzas de la población y  es un vector que contiene los parámetros del modelo, esto es los coeficientes que aparecen en las ecuaciones estructurales

  10. Para resolver el sistema de ecuaciones el programa usa métodos iterativos. Después de cada iteración el programa calcula la función de discrepancia, que expresa la separación existente entre los datos observados y los datos que predice el modelo. Este proceso se repite hasta que ya no es posible mejorar los resultados. En ese momento se dice que se ha alcanzado la convergencia. A veces el programa no converge en un número razonable de iteraciones, lo que se interpreta como que algo intrínseco al modelo no es correcto. Será necesario realizar alguna modificación en el modelo o abandonarlo.

  11. Clasificación de los métodos de estimación 1 • Los programas pueden estimar los parámetros mediante diferentes métodos que se pueden clasificar en dos grupos • 1 Basados en la teoría de la distribución Normal: • A) LS. Mínimos cuadrados (ordinarios, generalizados, etc) tambien denominados regresión • B) Máxima verosimilitud. Es el mas empleado para los SEM y el que aparece por defecto en los programas

  12. Clasificación de los métodos de estimación 2 • Basados en teorías de distribución no normales • 1. ELS: Basados en la teoría de distribución elíptica para lo cual basta con que la distribución de las variables sea simétrica. Precisa como “input” los datos y requiere mayor tamaño muestral • 2. ALS: Basados en la teoría de distribución arbitraria. Precisa como “input” los datos y requiere un tamaño muestral superior a 1000

  13. Interpretación de los resultados • Al estimar un modelo se obtienen diversos estadísticos asociados a sus correspondientes hipótesis que habrá que interpretar. Hay de dos tipos • 1. Parámetros: coeficientes de los caminos o efectos directos y Varianzas y covarianzas • 2. Estadísticos de ajuste: de los parámetros y globales del ajuste del modelo

  14. Para los estadísticos de ajuste de los caminos hay dos soluciones equivalentes estadísticamente, aunque con interpretaciones diferentes • 1. Solución estandarizada: obtenida a partir de las variables estandarizadas (puntuaciones Z) • 2. Solución no estandarizada obtenida a partir del valor real de las variables

  15. Coeficientes estandarizados • Una de las ventajas de los coeficientes estandarizados es que se pueden establecer comparaciones entre ellos porque no dependen de la escala en la que se miden las variables. • Como contrapartida es mas difícil saber si el efecto es grande, medio o pequeño. • Se recomienda la siguiente regla: • Coeficiente menor que 0’1 → efecto pequeño • Coeficiente entre 0’1 y 0’5 → efecto medio • Coeficiente mayor que 0’5 → efecto grande

  16. Los coeficientes del camino o efectos directos permiten calcular los efectos indirectos ( los efectos que tiene una variable X sobre otra Y a través de variables endógenas intermedias). El efecto total es la suma de los efectos directos e indirectos. En la primera ecuación todos son efectos directos, pero en la segunda hay directos e indirectos. Esta posibilidad es una de las grandes aportaciones del análisis de caminos, respecto de la regresión. y1 = 11 x1 + 12 x2 + 13 x3 + 1 y2 = 21 x1 + 21 y1 + 23 x3 + 2

  17. Ejemplo con los datos de la encuesta del CIS • Simpatía hacia los marroquíes, teniendo en cuenta las respuestas a las preguntas: • ¿Le importa tener compañeros de trabajo de Marruecos? • ¿Le importa tener vecinos de Marruecos? • ¿Le importaría que su hijo/a se casara con un/a marroquí? • Le importa que sus hijos/as compartan colegio con inmigrantes de Marruecos?

  18. Ejemplos con variables observables

  19. Puntuaciones estandarizadas

  20. Puntuaciones no estandarizadas

  21. Squared Multiple Correlations: • Estimate 0,292 • Un 30% de la variación de la variable “simpatía hacia los marroquís” la explican las variables introducidas en el modelo.

  22. Trabajo con grupos • Podemos ajustar el mismo modelo, pero separando los sujetos según los grupos creados por una variable. (Ej.:Sexo, p32, separando hombres de mujeres) • Hay que hacer dos cosas: • 1. Abrir el rectángulo “Group number 1”, pulsando doble click en el boton izquierdo del ratón y se abrirá el cuadro de diálogo:“Manage Groups” y escribiremos los nombres de los grupos que vamos a crear • 2. Abrir el icono con forma de hoja de cálculo “select data files”, con el que indicaremos la variable que crea los grupos y los valores que toma para cada grupo

  23. Ejemplo del PIB • Goldberger A.S. (1964) en Econometric theory. New York. Wiley (pg. 187) presentó el ajuste del producto interior bruto en billones de dólares a partir de las variables • x1= entradas laborales en millones por hombre-año • X2= capital real en millones • X3= periodo en años desde 1928 Los datos constan de 23 observaciones anuales para los EEUU durante los periodos de 1929-1941 y 1946-1955.

  24. Ajuste del PIB

  25. Datos del modelo del PIB • n 23,00 23,000 23,000 23,000 • cov pib 4256,53 . . . • cov trabajo 449,016 52,984 . . • cov capital 1535,000 139,449 1114,447 . • cov tiempo 537,482 53,291 170,024 73,747 • mean 180,435 45,565 50,087 13,739 • La matriz de correlaciones

  26. Ajuste sin estandarizar

  27. Squared Multiple Correlations: (Group number 1 - Default model) • EstimatePIB= 0,997 • El ajuste para el PIB a partir de las variables del modelo es casi perfecto

  28. La variación del PIB la explica “totalmente” el modelo

  29. La varianza del error (11,987) es muy pequeña en comparación con la varianza total del PIB que es superior a 1000. • Las tres variables: trabajo, capital y tiempo dan cuenta de casi toda la varianza del PIB

  30. Pesos de regresión, error estandar y razón crítica • Estimate S.E. C.R. • PIB<---TRABAJO 3,819 0,201 18,998 • PIB<---CAPITAL 0,322 0,028 11,308 • PIB<---TIEMPO 3,786 0,173 21,845 • La ecuación de regresión estimada: • PIB=3,82* trabajo + 0,32*capital + 3,79 * tiempo • Su interpretación será: si el trabajo se incrementa en una unidad, pero capital y tiempo permanecen sin cambiar, el incremento esperado para el PIB será de 3,82 unidades….

  31. Estimate S.E. C.R. • PIB<---TRABAJO 3,819 0,201 18,998 • PIB<---CAPITAL 0,322 0,028 11,308 • PIB<---TIEMPO 3,786 0,173 21,845 • Los coeficientes de regresión van bajo “estimate” • Los errores estandar de las estimaciones van bajo “S.E” • Cada error estandar es una medida de la exactitud de la estimación del parámetro. • Bajo C.R aparecen las razones críticas que son valores t y se calculan dividiendo ESTIMATE entre S.E. • Cuando los valores de C.R. (t) son grandes, como en este caso se dice que el parámetro es significativo, y que podemos tener bastante confianza en que la variable correspondiente influye realmente en la variable dependiente PIB

  32. Ejemplo de Regresión Múltiple Divariada • Predicción notas • El fichero de entrada son las puntuaciones de 15 estudiantes de primer curso de Universidad, en 5 mediciones educativas. • Y1: media cursos obligatorios cursados • Y2: media cursos optativos • X1: Test cultura general • X2: Coeficiente Inteligencia • X3: nota de motivación educacional

  33. FICHERO DE DATOS • Caso y1 y2 x1 x2 x3 • 1 ,80 2,00 72,00 114,00 17,30 • 2 2,20 2,20 78,00 117,00 17,60 • 3 1,60 2,00 84,00 117,00 15,00 • 4 2,60 3,70 95,00 120,00 18,00 • 5 2,70 3,20 88,00 117,00 18,70 • 6 2,10 3,20 83,00 123,00 17,90 • 7 3,10 3,70 92,00 118,00 17,30 • 8 3,00 3,10 86,00 114,00 18,10 • 9 3,20 2,60 88,00 114,00 16,00 • 10 2,60 3,20 80,00 115,00 16,40 • 11 2,70 2,80 87,00 114,00 17,60 • 12 3,00 2,40 94,00 112,00 19,50 • 13 1,60 1,40 73,00 115,00 12,70 • 14 ,90 1,00 80,00 111,00 17,00 • 15 1,90 1,20 83,00 112,00 16,10

  34. El gráfico del modelo

  35. Pesos de regresión calculados por AMOS • Estimate S.E. C.R. P • Y1<---X1 ,085 ,0243 ,574 *** • Y1<---X2 ,008 ,043 ,191 ,848 • Y1<---X3 -,015 ,099 -,151 ,880 • Y2<---X1 ,047 ,0232 ,057 ,040 • Y2<---X2 ,145 ,0413 ,516 *** • Y2<---X3 ,126 ,0951 ,320 ,187

  36. Intercepts (términos independientes) • Estimate S.E. C.R. P • Y1 -5,619 4,977 -1,129 0,259 • Y2 -20,405 4,785 -4,265 ***

  37. Estimaciones no estandarizadas

  38. Estimaciones estandarizadas

  39. Las ecuaciones de regresión • Media C. Obligatorios= -5,62 + 0’085 test cul general + 0´008 CI – 0’015 Motivación • Media C. Optativos = -20,405 + 0,047 test cul general + 0,145 CI + 0,126 Motivación • Pero teniendo en cuenta los C.R., sólo el test de cultura general (x1) es un predictor significativo de la Media Cursos obligatorios (y1) y sólo CI(x2) es un predictor significativo para la Media cursos optativos (y2), la motivación no parece significativo para ninguna de las dos variables, pero hay que tener en cuenta que el tamaño de la muestra es demasiado pequeño para obtener conclusiones con seguridad

  40. Chi-square = 8,886 • Degrees of freedom = 1 • Probability level = ,003 • Por defecto AMOS asume que los términos de error no están correlacionados.

  41. Squared Multiple Correlations: (Group number 1 - Default model) • Estimate • Y1 0,568 • Y2 0,685 • El modelo explicaría el 57% de la varianza de Y1(media en los cursos obligatorios) y el 70 % de la de Y2 (media en los cursos optativos)

  42. Análisis de caminos • Es una técnica que usó por primera vez el genetista Wright (1934) • Se trata de calcular la contribución causal directa de unas variables en otras en una situación no experimental. • En general el método sirve para calcular los coeficientes de un grupo de ecuaciones estructurales lineales, estando las relaciones causa efecto explicitadas por el investigador.

  43. En el análisis de caminos intervienen: 1. Variables independientes o de causa: x 1, x2, … xp 2. Variables dependientes o de efecto: y 1, y2, … yq 3. Variables de error de las variables dependientes e1, e2, … eq • En desarrollos posteriores se han incluido en estos modelos variables latentes, pero empezaremos con un ejemplo en el que intervienen solamente variables observables directamente.

  44. La diferencia fundamental entre el análisis de caminos y la regresión lineal está en que de las variables dependientes pueden salir flechas que terminan en otras variables dependientes. • El ejemplo que vamos a ver estudia el “sentimiento sindical de los trabadores del sector textil”. McDonald y Clelland (1984) analizaron datos sobre el sentimiento sindical en los trabajadores del sector textil no sindicalistas en el sur de los Estados Unidos.

  45. error3 1 x1 Log de años Y3 sentimiento en la fabrica hacia sindicatos erro2 1 x2 Y2 apoyo edad activismo laboral Y1deferencia a los gerentes 1 error1 • Después de transformar una variable (años de trabajo) en su logaritmo Bollen (1989) volvió a analizar un subconjunto de las variables según el modelo:

  46. La matriz de datos es: • n n 173 173 173 173 • cov y1 14,610 • cov y2 -5,250 11,0 • cov y3 -8,057 11,08 31,971 • cov x1 -,482 ,677 1,559 1,021 • cov x2 -18,857 17,861 28,25 7,139 215,66

  47. Chi-square = 1,251 • Degrees of freedom = 3 • Probability level = ,741 • Squared Multiple Correlations: (Group number 1 - Default model) • Estimate • Y1 0,113 • Y2 0,230 • Y3 0,390 • Las variables del modelo dan cuanta del 40% del sentimiento hacia los sindicatos Y3,

More Related