Niniejszą analizę i raport opisowy wykonano w Systemie Zautomatyzowanego Tworzenia Opisu Statystycznego - SZTOS (Hryniewicz, Milewska, 2023).
Podsumowanie wprowadzonych zmiennych przedstawiają statystyki opisowe w tabeli 1, korelacje pomiędzy testowanymi zmiennymi przedstawia rysunek nr 1.
Tabela nr 1Zmienna | id | N | M | SD | Me | Min | Max | Ranga | Skośność | Kurtoza | SE |
---|---|---|---|---|---|---|---|---|---|---|---|
Obawy1 | 1 | 303 | 2.83 | 0.86 | 3.00 | 1.00 | 4.00 | 3.00 | -0.29 | -0.60 | 0.05 |
Obawy2 | 2 | 303 | 2.57 | 0.92 | 3.00 | 1.00 | 4.00 | 3.00 | -0.09 | -0.84 | 0.05 |
Obawy3 | 3 | 303 | 3.05 | 0.88 | 3.00 | 1.00 | 4.00 | 3.00 | -0.67 | -0.26 | 0.05 |
Obawy4 | 4 | 303 | 2.61 | 0.95 | 3.00 | 1.00 | 4.00 | 3.00 | -0.23 | -0.86 | 0.05 |
Obawy5 | 5 | 303 | 2.87 | 0.84 | 3.00 | 1.00 | 4.00 | 3.00 | -0.41 | -0.38 | 0.05 |
Cele1 | 6 | 303 | 2.08 | 0.87 | 2.00 | 1.00 | 4.00 | 3.00 | 0.49 | -0.41 | 0.05 |
Cele2 | 7 | 303 | 2.17 | 0.87 | 2.00 | 1.00 | 4.00 | 3.00 | 0.43 | -0.45 | 0.05 |
Cele3 | 8 | 303 | 2.09 | 0.82 | 2.00 | 1.00 | 4.00 | 3.00 | 0.43 | -0.33 | 0.05 |
Cele4 | 9 | 303 | 2.24 | 0.89 | 2.00 | 1.00 | 4.00 | 3.00 | 0.39 | -0.53 | 0.05 |
Cele5 | 10 | 303 | 2.27 | 0.88 | 2.00 | 1.00 | 4.00 | 3.00 | 0.28 | -0.62 | 0.05 |
Cele6 | 11 | 303 | 2.05 | 0.89 | 2.00 | 1.00 | 4.00 | 3.00 | 0.61 | -0.29 | 0.05 |
Nota: N = Ilość obserwacji; M = Średnia arytmetyczna; SD = Odchyelnie standardowe; Me = Mediana; SE = Błąd standardowy.
Rysunek nr 1
Oszacowania korelacji między zmiennymi
Nota: Wykorzystana metoda korelacji: spearman
Miara KMO
W celu weryfikacji zasadności użycia zmiennych w analizie czynnikowej wykorzystano miarę Kaisera Meyera Olkina (KMO) (Kaiser, 1974). Analiza miary KMO wykazała, że zmienne nadają się do wykorzystania w toku analizy czynnikowej KMO = 0.91. Tabela nr 2 przedstawia indywidualne oszacowania dopasowania zmiennych do analizy czynnikowej
Test Bartletta
Test sferyczności Bartletta porównuje obserwowaną macierz korelacji do macierzy tożsamościowej. Zasadniczo sprawdza, czy istnieje pewna nadmiarowość między zmiennymi, które możemy podsumować kilkoma czynnikami (Bartlett, 1950). Analiza tym testem wykazała, że zmienne poddane analizie są skorelowane na tyle, że mogą być zredukowane i podsumowane za pośrednictwem analizy czynnikowej χ²(55) = 2055.40; p < 0.001.
Tabela nr 2Zmienne | MSA |
---|---|
Obawy1 | 0.90 |
Obawy2 | 0.85 |
Obawy3 | 0.93 |
Obawy4 | 0.84 |
Obawy5 | 0.90 |
Cele1 | 0.93 |
Cele2 | 0.92 |
Cele3 | 0.94 |
Cele4 | 0.93 |
Cele5 | 0.94 |
Cele6 | 0.90 |
Nota: MSA = Measure of Sampling Adequacy (wartości poniżej 0.6 wskazują na możliwy brak dopasowania zmiennej do analizy czynnikowej)
W celu wykrycia optymalnej ilości czynników przyprowadzono analizę wzrokową wykresu osypiska, a także wykresu osypiska wykonanego metodą równoległej symulacji (ang. parallel simulation) (Horn, 1965). Ostry spadek wartości własnych przy danej ilości czynników wskazuje na optymalną ilość czynników do wyodrębnienia (dotyczy to obu metod których wyniki są przedstawione na rysunku nr 2).
Rysunek nr 2
Wykres osypiska
Nota: Ostry spadek wartości własnych przy danej ilości czynników wskazuje na optymalną ilość czynników do wyodrębnienia. Wyniki na danych symulowanych to wyniki metody równoległej symulacji. Czerwona linia przecinająca wskazuje statystyczne optimum liczby czynników.
W celu redukcji wprowadzonych danych do N = 2 czynników, przeprowadzono analizę czynnikową metodą największej wiarygodności (maximum likelihood) przy wykorzystaniu pakietu psych (Revelle, 2022). W celu maksymalizacji wyjaśnionej wariancji wyodrębnienia wykorzystano do analizy metodę rotacji oblimin. Jest to metoda rotacji czynników biorąca poprawkę na możliwą korelację między wyodrębnionymi czynnikami.
Ocena współczynników dopasowania do otrzymanej struktury czynnikowej
Poniższe statystyki dopasowania przedstawiają współczynniki oceniające jakość testowanej struktury czynnikowej.
TLI (Tucker Lewis Fit Index) = 0.99 wskazuje na dobre dopasowanie danych do struktury czynnikowej (Anderson i Gerbing, 1984).
RMSEA (Root mean square error of approximation) = 0.04; 90%CI(0.01; 0.06) wskazuje na dobre dopasowanie danych do struktury czynnikowej (Steiger i Lind, 1980).
Współczynnik złożoności (Complexity) wykazał, że przeciętnie dana zmienna poddana analizie czynnikowej była powiązana z następującą ilością czynników: 1.03 (Hofmann, 1978). Wyniki indywidualnych ocen złożoności poszczególnych zmiennych przedstawia tabela nr 3.
Dopasowanie względem średniego kwadratu reszt wynosił RMS (root mean square of the residuals) = 0.02. Wartość skorygowana tego współczynnika wyniosła 0.03. Im bliżej wartości 0, tym lepsze dopasowanie danych do struktury czynnikowej modelu (Pavlov i inni, 2021).
BIC = -142.86, im niższa wartość tym lepsze dopasowanie danych do struktury czynnikowej modelu (Schwarz, 1978).
• Wyjaśniona wariancja wymiaru Czynnik 1 przez testowane pozycje testowe w analizie czynnikowej wynosiła R² = 0.93.
• Wyjaśniona wariancja wymiaru Czynnik 2 przez testowane pozycje testowe w analizie czynnikowej wynosiła R² = 0.89.
Wynik R² bliższy wartości 1 wskazuje na silniejsze wyjaśnienie danego czynnika przez testowane zmienne.
Wyniki analizy czynnikowej
Tabela nr 3 i Rysunek nr 3 przedstawiają wyniki analizy czynnikowej, która wykazała, że:
• Z wymiarem Czynnik 1 była wyraźnie (ładunek czynnikowy powyżej 0.5) powiązana zmienna: Cele2, Cele6, Cele1, Cele4, Cele5, Cele3.
• Z wymiarem Czynnik 2 była wyraźnie (ładunek czynnikowy powyżej 0.5) powiązana zmienna: Obawy4, Obawy2, Obawy1, Obawy5, Obawy3.
Tabela nr 4 przedstawia szczegółowe oszacowania podsumowujące wyjaśnioną wariancję wyników po przeprowadzonej redukcji. Wiersz “Proporcja wariancji” wskazuje na ile wyłonione czynniki wyjaśniają zmienne po ich redukcji w czynnik. Analiza ogólnie wykazała, że po redukcji danych nowe wyniki wyjaśniały około 63% wariancji wyników. Co stanowi akceptowalny wynik w redukcji wymiarowości danych.
Tabela nr 3
Oszacowania ładunków czynnikowych, wspólności, unikalności i
złożoności
Czynnik 1 | Czynnik 2 | Wspólność | Unikalność | Złożoność | |
---|---|---|---|---|---|
Cele2 | 0.89 | 0.02 | 0.78 | 0.22 | 1.00 |
Cele6 | 0.87 | 0.01 | 0.76 | 0.24 | 1.00 |
Cele1 | 0.85 | -0.01 | 0.73 | 0.27 | 1.00 |
Cele4 | 0.81 | 0.02 | 0.64 | 0.36 | 1.00 |
Cele5 | 0.76 | -0.11 | 0.65 | 0.35 | 1.04 |
Cele3 | 0.75 | 0.04 | 0.54 | 0.46 | 1.01 |
Obawy4 | 0.02 | 0.88 | 0.76 | 0.24 | 1.00 |
Obawy2 | 0.01 | 0.79 | 0.62 | 0.38 | 1.00 |
Obawy1 | 0.06 | 0.72 | 0.49 | 0.51 | 1.01 |
Obawy5 | -0.06 | 0.71 | 0.54 | 0.46 | 1.01 |
Obawy3 | -0.21 | 0.54 | 0.43 | 0.57 | 1.31 |
Nota: Im silniejszy ładunek tym silniejsza korelacja zmiennej z czynnikiem; Im silniejsza wspólność tym zmienna jest silniej wyjaśniana przez czynniki; Unikalność = Im silniejsza unikalność tym słabiej zmienna jest wyjaśniana przez czynniki (zawiera zmienność która nie jest wyjaśniana przez wyodrębnione czynniki); Ładunki czynnikowe nie różniące się siłą ładunków czynnikowych więcej niż 0.3 są oznaczone kolorem czerwonym; Ładunki czynnikowe mniejsze niż 0.5 są zacienione; Ładunki czynnikowe opisane kursywą wskazują na różnicę krzyżową między czynnikami
Rysunek nr 3
Oszacowania ładunków czynnikowych
Nota: Ładunki czynnikowe mniejsze niż 0.5 są ukryte
Tabela nr 5Czynnik 1 | Czynnik 2 | |
---|---|---|
Kwadraty ładunków | 4.15 | 2.77 |
Proporcja wariancji | 0.38 | 0.25 |
Wariancja skumulowana | 0.38 | 0.63 |
Wyjaśniona proporcja | 0.60 | 0.40 |
Proporcja skumulowana | 0.60 | 1.00 |
Nota: Kwadraty ładunków = suma kwadratów ładunków; Proporcja wariancji = wyjaśniona wariancja zmiennych przez dany czynnik; Wariancja skumulowana = Suma wyjaśnionej wariancji zmiennych przez czynnik/i; Wyjaśniona proporcja = Wyjaśniona proporcja wyjaśnionej wariancji zmiennych przez czynniki; Proporcja skumulowana = Suma proporcji wyjaśnionej wariancji.
Rysunek nr 4
Wizualizacja relacji między
czynnikami
Nota: Wykorzystana metoda korelacji: spearman. Im ciemniejszy
kolor zielony = Bardziej dodatnia korelacja; Im ciemniejszy kolor
czerwony = Bardziej ujemna korelacja. Rysunek bazuje na uzyskanych
oszacowaniach współczynników korelacji.
Analiza struktury czynnikowej wskaźników obaw i celów wykazała, że przewidywane dwa czynniki obaw i celów zostały zaobserwowane w analizie. Analiza korelacji między pozycjami testowymi wykazała, że testowane zmienne były ze sobą silnie skorelowane, a wstępna analiza Bartletta i współczyniki MSA potwierdziła zasadność przeprowadzenia analizy czynnikowych na wybranych danych. Analiza wykresu osypiska na danych obserwowanych i symulowanych wyakzała, że optymalnym rozwiązaniem była przewidziana wcześniej dwuczynnikowa struktura. Przeprowadzona analiza czynnikowa charakteryzowała się dopasowaniem testowanego modelu do danych i wykazała, że z czynnikiem 1 (Cele) wiązały się wyraźnie wszystkie pozycje testowe odnoszące się do celów. Natomiast z czynnikiem 2 wiązały się wyraźnie wszystkie pozycje testowe odnoszące się do obaw. Nie zaobserwowano aby testowane zmienne z czynnika 1 wiązały się wyraźnie z czynnikiem 2. Ostatecznie analiza czynnikowa wykazała, że redukacja 10 zmiennych do 2 czynników wyjaśniała nadal sporo pierwotnej zmienności wyników, czyli łącznie około 63%. Przy czym czynnik 1 był silniej wyjaśniany (w 38%), a czynnik 2 słabiej (w 25%), co odpowiadało propocji 60% vs 40%. Podsumowując, analiza wykazała zadowalającą redukcję 10 zmiennych do 2 czynników. Uzyskane czynniki były ze sobą negatywnie powiązanie.
Anderson, J. & Gerbing, D. (1984) The effect of sampling error on convergence, improper solutions, and goodness-of-fit indices for maximum likelihood confirmatory factor analysis, Psychometrika, 155-173.
Bartlett, M. S. (1950). Tests of significance in factor analysis. British Journal of Psychology, 3, 77–85.
Hofmann, R. J. (1978). Complexity and simplicity as objective indices descriptive of factor solutions. Multivariate Behavioral Research, 13(2), 247–250. https://doi.org/10.1207/s15327906mbr1302_9
Hryniewicz, K., Milewska, A. (2023). SZTOS: System Zautomatyzowanego Tworzenia Opisu Statystycznego (Wersja SZTOS) [Oprogramowanie]. https://sztos-it.com/
Horn, J. L. (1965). A rationale and test for the number of factors in factor analysis.Psychometrica, 30(2), 179–185.
Kaiser H.F. “An Index of Factorial Simplicity” Psychometrika. 1974;39(no. 1):31–36.
Pavlov, G., Maydeu-Olivares, A., & Shi, D. (2021). Using the Standardized Root Mean Squared Residual (SRMR) to Assess Exact Fit in Structural Equation Models. Educational and Psychological Measurement, 81(1), 110–130. https://doi.org/10.1177/0013164420926231
Revelle W (2022). psych: Procedures for Psychological, Psychometric, and Personality Research. Northwestern University, Evanston, Illinois. R package version 2.2.9, https://CRAN.R-project.org/package=psych.
Schwarz, G. (1978). Estimating the Dimension of a Model. The Annals of Statistics, 6(2), 461–464. http://www.jstor.org/stable/2958889
Steiger, J. H., & Lind, J. C. (1980). Statistically based tests for the number of common factors. Paper presented at the Annual Meeting of the Psychometric Society, Iowa City, IA.