Analiza czynnikowa

Niniejszą analizę i raport opisowy wykonano w Systemie Zautomatyzowanego Tworzenia Opisu Statystycznego - SZTOS (Hryniewicz, Milewska, 2023).

Statystyki opisowe wprowadzonych danych

Podsumowanie wprowadzonych zmiennych przedstawiają statystyki opisowe w tabeli 1, korelacje pomiędzy testowanymi zmiennymi przedstawia rysunek nr 1.

Tabela nr 1
Statystyki opisowe analizowanych zmiennych
Zmienna id N M SD Me Min Max Ranga Skośność Kurtoza SE
Obawy1 1 303 2.83 0.86 3.00 1.00 4.00 3.00 -0.29 -0.60 0.05
Obawy2 2 303 2.57 0.92 3.00 1.00 4.00 3.00 -0.09 -0.84 0.05
Obawy3 3 303 3.05 0.88 3.00 1.00 4.00 3.00 -0.67 -0.26 0.05
Obawy4 4 303 2.61 0.95 3.00 1.00 4.00 3.00 -0.23 -0.86 0.05
Obawy5 5 303 2.87 0.84 3.00 1.00 4.00 3.00 -0.41 -0.38 0.05
Cele1 6 303 2.08 0.87 2.00 1.00 4.00 3.00 0.49 -0.41 0.05
Cele2 7 303 2.17 0.87 2.00 1.00 4.00 3.00 0.43 -0.45 0.05
Cele3 8 303 2.09 0.82 2.00 1.00 4.00 3.00 0.43 -0.33 0.05
Cele4 9 303 2.24 0.89 2.00 1.00 4.00 3.00 0.39 -0.53 0.05
Cele5 10 303 2.27 0.88 2.00 1.00 4.00 3.00 0.28 -0.62 0.05
Cele6 11 303 2.05 0.89 2.00 1.00 4.00 3.00 0.61 -0.29 0.05

Nota: N = Ilość obserwacji; M = Średnia arytmetyczna; SD = Odchyelnie standardowe; Me = Mediana; SE = Błąd standardowy.

Rysunek nr 1
Oszacowania korelacji między zmiennymi

Nota: Wykorzystana metoda korelacji: spearman

Diagnostyka danych wejściowych do analizy czynnikowej

Miara KMO

W celu weryfikacji zasadności użycia zmiennych w analizie czynnikowej wykorzystano miarę Kaisera Meyera Olkina (KMO) (Kaiser, 1974). Analiza miary KMO wykazała, że zmienne nadają się do wykorzystania w toku analizy czynnikowej KMO = 0.91. Tabela nr 2 przedstawia indywidualne oszacowania dopasowania zmiennych do analizy czynnikowej

Test Bartletta

Test sferyczności Bartletta porównuje obserwowaną macierz korelacji do macierzy tożsamościowej. Zasadniczo sprawdza, czy istnieje pewna nadmiarowość między zmiennymi, które możemy podsumować kilkoma czynnikami (Bartlett, 1950). Analiza tym testem wykazała, że zmienne poddane analizie są skorelowane na tyle, że mogą być zredukowane i podsumowane za pośrednictwem analizy czynnikowej χ²(55) = 2055.40; p < 0.001.

Tabela nr 2
Statystyki dopasowania analizowanych zmiennych
Zmienne MSA
Obawy1 0.90
Obawy2 0.85
Obawy3 0.93
Obawy4 0.84
Obawy5 0.90
Cele1 0.93
Cele2 0.92
Cele3 0.94
Cele4 0.93
Cele5 0.94
Cele6 0.90

Nota: MSA = Measure of Sampling Adequacy (wartości poniżej 0.6 wskazują na możliwy brak dopasowania zmiennej do analizy czynnikowej)

Wykres osypiska

W celu wykrycia optymalnej ilości czynników przyprowadzono analizę wzrokową wykresu osypiska, a także wykresu osypiska wykonanego metodą równoległej symulacji (ang. parallel simulation) (Horn, 1965). Ostry spadek wartości własnych przy danej ilości czynników wskazuje na optymalną ilość czynników do wyodrębnienia (dotyczy to obu metod których wyniki są przedstawione na rysunku nr 2).

Rysunek nr 2
Wykres osypiska

Nota: Ostry spadek wartości własnych przy danej ilości czynników wskazuje na optymalną ilość czynników do wyodrębnienia. Wyniki na danych symulowanych to wyniki metody równoległej symulacji. Czerwona linia przecinająca wskazuje statystyczne optimum liczby czynników.

Statystyki dopasowania danych do eksplorowanej struktury czynnikowej

W celu redukcji wprowadzonych danych do N = 2 czynników, przeprowadzono analizę czynnikową metodą największej wiarygodności (maximum likelihood) przy wykorzystaniu pakietu psych (Revelle, 2022). W celu maksymalizacji wyjaśnionej wariancji wyodrębnienia wykorzystano do analizy metodę rotacji oblimin. Jest to metoda rotacji czynników biorąca poprawkę na możliwą korelację między wyodrębnionymi czynnikami.

Ocena współczynników dopasowania do otrzymanej struktury czynnikowej

Poniższe statystyki dopasowania przedstawiają współczynniki oceniające jakość testowanej struktury czynnikowej.

TLI (Tucker Lewis Fit Index) = 0.99 wskazuje na dobre dopasowanie danych do struktury czynnikowej (Anderson i Gerbing, 1984).

RMSEA (Root mean square error of approximation) = 0.04; 90%CI(0.01; 0.06) wskazuje na dobre dopasowanie danych do struktury czynnikowej (Steiger i Lind, 1980).

Współczynnik złożoności (Complexity) wykazał, że przeciętnie dana zmienna poddana analizie czynnikowej była powiązana z następującą ilością czynników: 1.03 (Hofmann, 1978). Wyniki indywidualnych ocen złożoności poszczególnych zmiennych przedstawia tabela nr 3.

Dopasowanie względem średniego kwadratu reszt wynosił RMS (root mean square of the residuals) = 0.02. Wartość skorygowana tego współczynnika wyniosła 0.03. Im bliżej wartości 0, tym lepsze dopasowanie danych do struktury czynnikowej modelu (Pavlov i inni, 2021).

BIC = -142.86, im niższa wartość tym lepsze dopasowanie danych do struktury czynnikowej modelu (Schwarz, 1978).

• Wyjaśniona wariancja wymiaru Czynnik 1 przez testowane pozycje testowe w analizie czynnikowej wynosiła R² = 0.93.

• Wyjaśniona wariancja wymiaru Czynnik 2 przez testowane pozycje testowe w analizie czynnikowej wynosiła R² = 0.89.

Wynik R² bliższy wartości 1 wskazuje na silniejsze wyjaśnienie danego czynnika przez testowane zmienne.

Wyniki analizy czynnikowej

Tabela nr 3 i Rysunek nr 3 przedstawiają wyniki analizy czynnikowej, która wykazała, że:

• Z wymiarem Czynnik 1 była wyraźnie (ładunek czynnikowy powyżej 0.5) powiązana zmienna: Cele2, Cele6, Cele1, Cele4, Cele5, Cele3.

• Z wymiarem Czynnik 2 była wyraźnie (ładunek czynnikowy powyżej 0.5) powiązana zmienna: Obawy4, Obawy2, Obawy1, Obawy5, Obawy3.

Tabela nr 4 przedstawia szczegółowe oszacowania podsumowujące wyjaśnioną wariancję wyników po przeprowadzonej redukcji. Wiersz “Proporcja wariancji” wskazuje na ile wyłonione czynniki wyjaśniają zmienne po ich redukcji w czynnik. Analiza ogólnie wykazała, że po redukcji danych nowe wyniki wyjaśniały około 63% wariancji wyników. Co stanowi akceptowalny wynik w redukcji wymiarowości danych.

Tabela nr 3
Oszacowania ładunków czynnikowych, wspólności, unikalności i złożoności

Czynnik 1 Czynnik 2 Wspólność Unikalność Złożoność
Cele2 0.89 0.02 0.78 0.22 1.00
Cele6 0.87 0.01 0.76 0.24 1.00
Cele1 0.85 -0.01 0.73 0.27 1.00
Cele4 0.81 0.02 0.64 0.36 1.00
Cele5 0.76 -0.11 0.65 0.35 1.04
Cele3 0.75 0.04 0.54 0.46 1.01
Obawy4 0.02 0.88 0.76 0.24 1.00
Obawy2 0.01 0.79 0.62 0.38 1.00
Obawy1 0.06 0.72 0.49 0.51 1.01
Obawy5 -0.06 0.71 0.54 0.46 1.01
Obawy3 -0.21 0.54 0.43 0.57 1.31

Nota: Im silniejszy ładunek tym silniejsza korelacja zmiennej z czynnikiem; Im silniejsza wspólność tym zmienna jest silniej wyjaśniana przez czynniki; Unikalność = Im silniejsza unikalność tym słabiej zmienna jest wyjaśniana przez czynniki (zawiera zmienność która nie jest wyjaśniana przez wyodrębnione czynniki); Ładunki czynnikowe nie różniące się siłą ładunków czynnikowych więcej niż 0.3 są oznaczone kolorem czerwonym; Ładunki czynnikowe mniejsze niż 0.5 są zacienione; Ładunki czynnikowe opisane kursywą wskazują na różnicę krzyżową między czynnikami

Rysunek nr 3
Oszacowania ładunków czynnikowych

Nota: Ładunki czynnikowe mniejsze niż 0.5 są ukryte

Tabela nr 5
Miary podsumowujące wyniki analizy czynnikowej
Czynnik 1 Czynnik 2
Kwadraty ładunków 4.15 2.77
Proporcja wariancji 0.38 0.25
Wariancja skumulowana 0.38 0.63
Wyjaśniona proporcja 0.60 0.40
Proporcja skumulowana 0.60 1.00

Nota: Kwadraty ładunków = suma kwadratów ładunków; Proporcja wariancji = wyjaśniona wariancja zmiennych przez dany czynnik; Wariancja skumulowana = Suma wyjaśnionej wariancji zmiennych przez czynnik/i; Wyjaśniona proporcja = Wyjaśniona proporcja wyjaśnionej wariancji zmiennych przez czynniki; Proporcja skumulowana = Suma proporcji wyjaśnionej wariancji.

Korelacje między czynnikami

Rysunek nr 4
Wizualizacja relacji między czynnikami
Nota: Wykorzystana metoda korelacji: spearman. Im ciemniejszy kolor zielony = Bardziej dodatnia korelacja; Im ciemniejszy kolor czerwony = Bardziej ujemna korelacja. Rysunek bazuje na uzyskanych oszacowaniach współczynników korelacji.

Wnioski

Analiza struktury czynnikowej wskaźników obaw i celów wykazała, że przewidywane dwa czynniki obaw i celów zostały zaobserwowane w analizie. Analiza korelacji między pozycjami testowymi wykazała, że testowane zmienne były ze sobą silnie skorelowane, a wstępna analiza Bartletta i współczyniki MSA potwierdziła zasadność przeprowadzenia analizy czynnikowych na wybranych danych. Analiza wykresu osypiska na danych obserwowanych i symulowanych wyakzała, że optymalnym rozwiązaniem była przewidziana wcześniej dwuczynnikowa struktura. Przeprowadzona analiza czynnikowa charakteryzowała się dopasowaniem testowanego modelu do danych i wykazała, że z czynnikiem 1 (Cele) wiązały się wyraźnie wszystkie pozycje testowe odnoszące się do celów. Natomiast z czynnikiem 2 wiązały się wyraźnie wszystkie pozycje testowe odnoszące się do obaw. Nie zaobserwowano aby testowane zmienne z czynnika 1 wiązały się wyraźnie z czynnikiem 2. Ostatecznie analiza czynnikowa wykazała, że redukacja 10 zmiennych do 2 czynników wyjaśniała nadal sporo pierwotnej zmienności wyników, czyli łącznie około 63%. Przy czym czynnik 1 był silniej wyjaśniany (w 38%), a czynnik 2 słabiej (w 25%), co odpowiadało propocji 60% vs 40%. Podsumowując, analiza wykazała zadowalającą redukcję 10 zmiennych do 2 czynników. Uzyskane czynniki były ze sobą negatywnie powiązanie.

Bibliografia:

Anderson, J. & Gerbing, D. (1984) The effect of sampling error on convergence, improper solutions, and goodness-of-fit indices for maximum likelihood confirmatory factor analysis, Psychometrika, 155-173.

Bartlett, M. S. (1950). Tests of significance in factor analysis. British Journal of Psychology, 3, 77–85.

Hofmann, R. J. (1978). Complexity and simplicity as objective indices descriptive of factor solutions. Multivariate Behavioral Research, 13(2), 247–250. https://doi.org/10.1207/s15327906mbr1302_9

Hryniewicz, K., Milewska, A. (2023). SZTOS: System Zautomatyzowanego Tworzenia Opisu Statystycznego (Wersja SZTOS) [Oprogramowanie]. https://sztos-it.com/

Horn, J. L. (1965). A rationale and test for the number of factors in factor analysis.Psychometrica, 30(2), 179–185.

Kaiser H.F. “An Index of Factorial Simplicity” Psychometrika. 1974;39(no. 1):31–36.

Pavlov, G., Maydeu-Olivares, A., & Shi, D. (2021). Using the Standardized Root Mean Squared Residual (SRMR) to Assess Exact Fit in Structural Equation Models. Educational and Psychological Measurement, 81(1), 110–130. https://doi.org/10.1177/0013164420926231

Revelle W (2022). psych: Procedures for Psychological, Psychometric, and Personality Research. Northwestern University, Evanston, Illinois. R package version 2.2.9, https://CRAN.R-project.org/package=psych.

Schwarz, G. (1978). Estimating the Dimension of a Model. The Annals of Statistics, 6(2), 461–464. http://www.jstor.org/stable/2958889

Steiger, J. H., & Lind, J. C. (1980). Statistically based tests for the number of common factors. Paper presented at the Annual Meeting of the Psychometric Society, Iowa City, IA.