1 / 103

Podstawy statystyczne

Złożone modele skalowania liniowego. Podstawy statystyczne. Henryk Banaszak Zakład Statystyki, Demografii i Socjologii Matematycznej. Krótki program. Wskaźnik, cecha ukryta, reguła korespondencji, skala. Model skalowania.

lot
Download Presentation

Podstawy statystyczne

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Złożone modele skalowania liniowego Podstawy statystyczne Henryk Banaszak Zakład Statystyki, Demografii i Socjologii Matematycznej

  2. Krótki program • Wskaźnik, cecha ukryta, reguła korespondencji, skala. Model skalowania. • Modele kumulatywne, liniowe. Probabilistyczne i deterministyczne modele skalowania. • Reflektywne i formatywne modele skalowania. Analiza czynnikowa, analiza głównych składowych. • Liniowe modelowanie procesów: analiza ścieżkowa. • Złożone liniowe modele skalowania w socjologii i badaniach rynku – przykłady: skalowanie zadowolenia z miejsca zamieszkania, ISEI, kapitał społeczny, umiejętności złożone. • Skalowanie satysfakcji konsumenta za pomocą modelu równań strukturalnych. Dwa warianty modelowania strukturalnego. • Strukturalne skalowanie satysfakcji klienta: ACSI –MJR. • Statystyczne i obliczeniowe problemy estymacji parametrów modelu skalowania metodą PLS.

  3. Program szczegółowy

  4. Program szczegółowy

  5. Abdullah, Mokhtar, et. al., 2001, Malaysian Customer Satisfaction Index. TQM World Congress Papers, Saint Petersburg. American Customer Satisfaction Index (ACSI) Methodology Report, 2001, National Quality Research Center (NQRC), University of Michigan, Business School. Byrne, B. M., 2010, Structural Equation Modeling With AMOS: Basic Concepts,Applications, and Programming, 2nd ed. Taylor and Francis Group, LLC. Chatelin, Yves Marie et. al., 2002, State of art on PLS modeling, ECSI. Chin Wynne W., Matthew K. O. Lee, 2000, A proposed model and measurement instrument for the formation of IS satisfaction: the case of end-user computing satisfaction. 2000 ICIS Conference Proceedings. Dunteman, G. H. 1989. Principal components analysis: Quantitative applications in the social sciences. SAGE Publications, Thousand Oaks. Fornell, Claes, 1992, A National Customer Satisfaction Barometer: The Swedish Experience. Journal of Marketing; Jan 1992; 56. Fornell, Claes; et.al., 1996, The American Customer Satisfaction Index: Nature, purpose, and findings. Journal of Marketing; Oct 1996; 60, Freed Larry, 2009, American Customer Satisfaction Index. E-Government Satisfaction Index. 2009 ForeSee Results. Ganzeboom, Harry, B.G. et. al., 1992, A Standard International Socio-Economic Index Of Occupational Status. Social Science Research, 21, 1-56 (1992). Johnson Michael D., et. al., 2001, The evolution and future of national customer satisfaction index models. Journal of Economic Psychology, 22 (2001), 217-245. Kaplan, D. 2008. Structural equation modeling: Foundations and extensions. Sage Publications, Inc. Kim, J. O. and C. W. Mueller. 1978. Factor analysis: Statistical methods and practical issues.Sage Publications, Inc. Kim, J. O. and C. W. Mueller. 1978. Introduction to factor analysis: What it is and how to do it. Sage Publications, Inc. Kline, R. B. 2005. Principles and practice of structural equation modeling. The Guilford Press. Konarski, Roman. 2010. Modele równań strukturalnych. Teoria i praktyka. PWN. Lissowski, Grzegorz, et. al., 2008, Podstawy statystyki dla socjologów. Oficyna Naukowa Scholar. Nie, Norman H. 1975. SPSS: statistical package for the social sciences. 2d ed. New York: McGraw-Hill. (wybranerozdziały) Pirouz Dante M., 2006, An Overview of Partial Least Squares. The Paul Merage School of Business, University of California, Irvine (draft). Sellin Norbert, Otto Versand, 2007, Partial Least Squares Modeling in Research on Educational Achievement, Hamburg. Tacq Jacques, 1997, Multivariate Analysis Techniques in Social Science Research. From Problem to Analysis. SAGE Publications, London. Temme, D. et. al., 2006, PLS Path Modeling – A Software Review, SFB 649 Discussion Paper 2006-084. Tenenhaus, M. et al., 2004, PLS path modeling, Computational Statistics & Data Analysis 48 (2005) 159 – 205. Yang, Xiaoming, et. al., 2000, A Comparative Study on Several National Customer Satisfaction Indices (CSI). Shanghai Jiao Tong University, Shanghai, P.R.China. Lektury uzupełniające

  6. O skalowaniu

  7. Zmienne obserwowalne i ukryte Poziom pomiaru – typy zmiennych Pomiar a skalowanie Skalowanie Skalowalność Wymiarowość Wskaźniki niezbędne Własności wskaźników Algorytm skalowania Wynik skalowania

  8. SKALUJĄC: problemy do rozwiązania

  9. Kryteria oceny modelu skalowania • Niezmienniczość wyników skalowania przy dopuszczalnych poziomem pomiaru przekształceniach wskaźników; • Optymalność algorytmu skalowania, • Jednoznaczność i przekonywujące uzasadnienia dla decyzji, które trzeba podejmować rozwiązując problemy (1) - (8) wymienione wyżej.

  10. NURTY TEORII SKALOWANIA Typ relacji między cechą ukrytą, wymiarem a wskaźnikami Addytywne Kumulatywne nominalne interwałowe binarne porządkowe Mieszane Poziom pomiaru wskaźników

  11. Popularne metody analizy danych - szczególne przypadki modeli skalowania

  12. Elementy algebry wektorów i macierzy

  13. Multiplication of a vector by a scalar k Vector mx1 Linear combination of vectors Transposition of a vector Scalar product of vectors

  14. The scalar product of a vector with itself Length of a vector , called also norm of a vector Sum of a vector entries Schwartz inequality

  15. Kolumny macierzy A nazywamy liniowo zależnymi, gdy istnieją liczby x1, x2, ....,xn nie wszystkie równe 0, dla których: Vectors are told to be linearly independent if A necessary and sufficient condition for the set of vectors x1, x2, ... ,xmto be linearly independent is that c1x1 + c2x2 + ... + cmxm = 0 only when all the scalars ci are zero. Rank of a matrix as the number of linearly independent rows or columns. A quadratic form associated with a symmetric square matrix A is defined as the scalar A is called a positive definite matrix if and only if a) tr(k A) = k tr(A) where k is a real number b) tr(A+B) = tr(A) + tr(B) c) tr(AB) = tr (BA) • d) tr(A) = rank A if A is idempotent, i.e. (A+B The matrix A is positive definite if

  16. All principal minors and the determinant of a matrix A are positive if A is positive definite. A very important property is that all positive definite matrices are non singular! • If A is positive definite (pos. semi def.) and B is non singular then B'AB is also positive definite (pos. semi def.). If there exists a square symmetric and positive definite matrix A then there always exists a non singular matrix P such that P'P = A. eigenvalue lambda and an eigenvectorx of the square matrix A ; x0 and x has length 1

  17. Dane statystyczne w ujęciu macierzowym Macierz R współczynników korelacji liniowej między zmiennymi X1 oraz X2 składa się z iloczynów skalarnych odpowiadających im wektorów x1std oraz x2stdpomnożonych przez stałą (1/n-1)

  18. Problem głównych składowych Znaleźć takie dwie liniowe kombinacje wektorów x1 oraz x2które tworzą zmienne C1 oraz C2 tak, aby C1 miała największa możliwie wariancję oraz była nieskorelowana liniowo z C2 ; U jest macierzą współczynników tych kombinacji

  19. Rozwiązanie problemu głównych składowychSingular Value DecompositionSVD

  20. wektor u oraz skalar  , dla których zachodzi równość nazwywają się wektorem własnym i wartością własną macierzy R Dla R o wymiarach 2x2 Wartości własne równanie charakterystyczne ma tyle rowiązań, ile wynosi rząd macierzy R Gdy znane są wartości własne R, można wyznaczyć wektory własne u1 i u2 z równań postaci: Macierz wartości własnych Niestety, istnieje ich wiele, trzeba założyć, że mają długość 1 Macierz wektorów własnych Każda nieosobliwa kwadratowa macierz ma tyle wartości własnych i tyle wektorów własnych , ile wynosi jej rząd

  21. Własności wektorów i wartości własnych Każdą nieosobliwą macierz kwadratową daje się przedstawić jako iloczyn trzech macierzy; takie przedstawienie nazywa się rozkładem ze względu na wektory i wartości własne (SVD) • Wektory własne są względem siebie ortogonalne - ich iloczyny skalarne są równe 0 • Wartości własne sumują się do rozmiaru macierzy • Iloczyn wartości własnych kwadratowej macierzy R jest równy wyznacznikowi tej macierzy

  22. Własności rozwiązania problemu głównych składowych Rozwiązanie problemu głównych składowych Wartość własna to wariancja głównej składowej Kolejne składowe mają coraz mniejszą wariancję Każda składowa „reprezentuje” jaką część sumy wariancji wskaźników Macierzy korelacji między wskaźnikami daje sie wyrazic jako suma macierzy korelacji wynikacjącyh z poszczególnych wymiarów czynnikowych

  23. Przykład X1 X2

  24. Rozkład SVD macierzy korelacji R dla 2 zmiennych

  25. Wyznaczenie głównych składowych macierzy korelacji R

  26. Rozkład macierzy korelacji R na sumę macierzy Macierzy korelacji między wskaźnikami daje sie wyrazic jako suma macierzy korelacji wynikacjącyh z poszczególnych wymiarów czynnikowych

  27. Rozkład sumy wariancji zmiennych między główne składowe

  28. Przykład n=3: SVD + główne składowe R l

  29. Główne składowe a czynniki

  30. Jeśli wyznaczyliśmy główne składowe, możemy z nich wrócić do wskaźników Jeśli rozwiążemy problem PCA, wyznaczymy C1 i C2, wskaźniki X1 i X2 możemy wyrazić jako liniową kombinację głównych składowych Parametry liniowej kombinacji głónych skłądowych, które tworzą zmienne obserwowalne otrzymujemy dzięki SVD

  31. Single latent common factor F and two manifest indicators X1, X2 d1 b1 X1 U1 F b2 d2 X2 U2 Model assunptions Unique variables U1 and U2 are linearly independent and independent on common latent factor F: Consequences: Common (explained) variance of an indicator Xi with common factor F equals the square of a factor loading bi: Correlation coefficient between indicators Xi and Xj is a product of their loadings with common factor F:

  32. Single factor F and two manifest indicators X1, X2 Factor matrix d1 0,8 X1 U1 F • Reproduction of correlation coefficient by the factor model is not unique d2 0,6 X2 U2 Solution 1 Solution 2 Solution 3 Solution 4 0,90*0,53=0,48 0,70*0,69=0,48 0,60*0,80=0,48 0,50*0,96=0,48

  33. Two independent factors F1, F2, two indicators X1, X2 d1 b11 X1 X1 U1 F1 b21 d2 X2 X2 U2 b12 b22 F2 Assumptions Unique factors U1 and U2 are linearly independent and independent on common factors F1 and F2: Common factors are linearly independent: Orthogonality of factors Consequences: Common (explained) variance of an indicator with a common factor is the sum of factor loadings squares, with both common factors F1 and F2: Correlation coefficient between indicators is the sum of factor loadings products

  34. X1 0,80 0,70 F1 X2 0,60 X3 0,60 0,80 X4 F2 0,60 X5 Two orthogonal factors – five indicators

  35. F1 Model 1 F1’ X3 Perfect reproduction of correlations between indicators can be derived from different factor models X1 F2’ X2 X4 X5 F2 Model 2

  36. X1 0,80 0,70 F1 X2 0,60 0,40 X3 0,70 X4 F2 0,60 X5 0,50 X6 Oblique factor model algebraically

  37. Oblique factor model geometrically • F1 • F1 • F1 • F2 • F2 X1 X2 X3 X4 X5 X6 66 • F2 Orthogonal factors Oblique factors initial rotated Factor loadings are coordinates on the factor axes

  38. How to find factor solution Permanent Problems of FACTOR ANALYSIS as a scaling tool How to evaluate its quality Which indicators are useless What variables can be used as an indicators of latent factor What to do if my indicators are binary or ordinary

  39. Factor model in matrix notation X Common assumptions indicators (n) (1) F common factors (k < n) Unique factors are mutually independent U unique factors (n) (2) B Factor loadings matrix (n,k) Unique and common factors are independent Factor model assumptions Orthogonal factors (3) Common factors are mutually linearly independent; C(Fi, Fj) = 0 Oblique factors (3) Common factors are linearly dependent; C(Fi, Fj) ≠ 0

  40. Factor equation X = Where: Ψ – diagonal matrix with di2 on main diagonal Σ – symmetric matrix with rij out-diagonal and hi2 on the diagonal Decomposition of R between Σ and Ψ is not unique

  41. Factor model Data: empirical correlation between indicators with unknown decomposition between Decomposition theorem Solution: factor loading matrix Correlations between indicators implied by the solution Finding factor model parameters

  42. Obliczalnośćkowariancjimiędzy elementami modelu ścieżkowego

  43. E4 e4 E2 X4 e2 41.23 42.13 X2 21 43.12 X1 32.1 31.2 X3 e3 E3 Model ścieżkowy = układ równań regresji wielokrotnej Rekursywne modele ścieżkowe • wszystkie zależności są jednokierunkowe • wszystkie błędy sa liniowo nieskorelowane parami • błędy są nieskorelowane liniowo z wszystkimi zmiennymi niezależnymi równania, w którym występują • parametry każdego rekursywnego modelu ścieżkowego dają się wyznaczyć

  44. E2 e2 21 X2 32.1 X1 31.2 X3 e3 E3

  45. E2 e2 X2 0,64 0,29 X1 0,29 X3 e3 E3

  46. X1 0,80 0,80 F X2 0,60 X3

  47. Strukturalne modele skalowania liniowego SEI Potencjał partycypacyjny Zadowolenie z okolicy miejsca zamieszkania Pozycja społeczna ACSI - MJR

More Related