Wykonujemy

✅Analizy statystyczne

✅Projekty metodologii

✅Aplikacje statystyczne

✅Wdrażanie AI

✅Projektowanie i koordynowanie badań

✅Testy psychologiczne

✅Doradztwo naukowo-metodologiczne

✅Przeglądy literatury i budowanie teorii

Kontakt:

@ tel: 798 30 95 31

https://www.metodolog.pl/

https://sztos-it.com/

Zmienna latentna o chakraterze reflektywnym

Jest to teoretyczne zjawisko, zwykle opisane przez teorię lub definicję, co do którego zachodzi przypuszczenie, że jest przyczyną pewnych obserwowalnych zjawisk.

Teoretyczne zjawisko, czyli np. Samoocena = Zgeneralizowana poznawcza i afektywna ocena własnej wartości.

  • Uważam, że posiadam wiele pozytywnych cech.

  • Lubię siebie

  • Czasami czuję się bezużyteczny(a)

itd.

Analiza siły i kierunku ładunków czynnikowych

Analiza ładunków czynnikowych w czynnikowej analizie konfirmacyjnej (CFA) polega na ocenie, jak silnie wskaźniki (pytania, itemy) są związane z latentnym (ukrytym) konstruktrem, który mają mierzyć. CFA jest podejściem hipotezowanym – zakładamy z góry, które itemy mają mierzyć dany czynnik, a następnie testujemy, jak dobrze model pasuje do danych. Ładunek czynnikowy (factor loading) informuje, jak silnie dany wskaźnik odzwierciedla czynnik latentny. Ładunki są interpretowane jako standaryzowane współczynniki regresji – im wyższe, tym lepiej, choć akceptowalny poziom wynosi od 0.5 (akceptowalne) do 0.7 (pożądane). Zmienna latentna powinna tak odzwierciedlać wszystkie swoje obserwowalne wskaźniki.

Rysunek 1

Wizualna ocena wpływu zmiennej latentnej na wskaźniki Samooceny

Tabela 1

Współczynniki konfirmacyjnej analizy czynnikowej dla pomiaru Samooceny

Latentna Wpływ Wskaźnik B s.e. DPU GPU β Z
Samoocena SES1 0.76 0.07 0.62 0.90 0.77 10.70*** 0.59
Samoocena SES2 0.58 0.09 0.40 0.76 0.58 6.23*** 0.34
Samoocena SES3 -0.66 -0.09 -0.84 -0.47 -0.66 -6.95*** 0.44
Samoocena SES4 0.55 0.11 0.34 0.76 0.55 5.07*** 0.31
Samoocena SES5 -0.72 0.09 -0.89 -0.55 -0.72 -8.43*** 0.52
Samoocena SES6 0.85 0.09 0.67 1.03 0.86 9.44*** 0.73
Samoocena SES7 0.80 0.09 0.63 0.98 0.81 8.94*** 0.65
Samoocena SES8 -0.56 0.08 -0.73 -0.40 -0.57 -6.65*** 0.32
Samoocena SES9 -0.83 0.07 -0.98 -0.69 -0.84 -11.13*** 0.70
Samoocena SES10 -0.85 0.06 -0.97 -0.73 -0.85 -14.21*** 0.73

Nota: B = niestandaryzowane ładunki czynnikowe; s.e. = błąd standardowy; DPU = dolna granica 95% przedziału ufności; GPU = górna granica 95% przedziału ufności; β = standaryzowane ładunki czynnikowe; Z = statystyka testowa; R² = proporcja wariancji wyjaśnianej przez czynnik.

Rysunek 2

Rozkład wyników zmiennej latentnej Samoocena

Ocena trafności wewnętrznej (ang. internal validity)

Jak dobrze nasze obserwowalne wskaźniki odzwierciedlają naszą zmienną latentną?

Średnia wariancja wyjaśniona (AVE)

(AVE ang.Average Variance Extracted*)

AVE – Średnia Wariancja Wyjaśniona to miara wykorzystywana w czynnikowej analizie konfirmacyjnej (CFA) i modelach SEM, która mówi jak dobrze konstrukty latentne wyjaśniają wariancję swoich wskaźników (itemów). AVE informuje, jaka część odpowiedzi na itemy wynika z cechy latentnej, a jaka z błędu pomiaru. AVE musi wynosić co najmniej 0.50, aby uznać, że konstrukty mają trafność konwergentną. Dlaczego 0.50? Bo AVE = 0.50 oznacza, że konstrukty wyjaśniają co najmniej 50% wariancji swoich wskaźników, a pozostałe ≤ 50% to błąd pomiaru. 50% = większość wariancji wynika z cechy latentnej, co pozwala oceniać to jako dobry pomiar.

Intuicja stojąca za wzorem: Ile zmienności swoich wskaźników wyjaśnia zmienna latentna?

Definicja (ogólny wzór):

\[ \mathrm{AVE} \;=\; \frac{\sum_{i=1}^k \lambda_i^2} {\sum_{i=1}^k \lambda_i^2 \;+\; \sum_{i=1}^k \theta_i} \]

gdzie: - \(k\) — liczba wskaźników przypisanych do czynnika,
- \(\lambda_i\) — standardowy ładunek czynnikowy i-tego wskaźnika (loading),
- \(\theta_i = \mathrm{Var}(\varepsilon_i)\) — wariancja składnika błędu i-tego wskaźnika.

Uproszczona postać (gdy wskaźniki są standaryzowane, a zazwyczaj są domyślnie standaryzowane):

Ponieważ przy standaryzacji zazwyczaj \(\theta_i = 1 - \lambda_i^2\), mamy:

\[ \mathrm{AVE} \;=\; \frac{\sum_{i=1}^k \lambda_i^2}{k} \]

czyli AVE jest po prostu średnią arytmetyczną z kwadratów ładunków (squared loadings).

Interpretacja

  • AVE mierzy odsetek wariancji wskaźników wyjaśnionej przez czynnik.
  • Przyjęty próg: AVE ≥ 0.50 — uznawane za wystarczającą konwergentną ważność (convergent validity).
  • AVE poniżej 0.50 sugeruje, że więcej wariancji wskaźników jest wynikiem błędu niż wspólnego czynnika.

Przykład liczenia

Załóżmy \(k=3\) i ładunki: \(\lambda = (0.70,\,0.80,\,0.60)\).

\[ \sum \lambda_i^2 = 0.70^2 + 0.80^2 + 0.60^2 = 0.49 + 0.64 + 0.36 = 1.49 \] \[ \mathrm{AVE} = \frac{1.49}{3} \approx 0.50 \]

Interpretacja: AVE ≈ 0.50 — Idealnie na progu 0.50, więc waga zbieżności jest równa progowi akceptacji.

Rzetelność kompozytowa (CR) Composite Reliability)

Intuicja stojąca za wzorem: Jak dokładnie zmienna latentna wyjaśnia swoje wskaźniki?

Rzetelność kompozytowa (Composite Reliability, CR) ocenia, jak dobrze zestaw wskaźników mierzy reflektywny konstrukt latentny. Jedna z wielu miar stosowana do oceny dokładności pomiarowej takich wskaźników. CR to miara rzetelności używana w CFA i SEM, która mówi jak spójnie itemy odzwierciedlają latentny konstrukt. CR jest alternatywą dla alfa Cronbacha, ale jest dokładniejsza, bierze pod uwagę faktyczne ładunki czynnikowe itemów (a nie wskaźniki jako takie), zakłada model refleksyjny (w przeciwieństwie do Alfa Cronbacha). CR jest więc lepszą miarą spójności w modelach CFA, ponieważ opiera się na wynikach analizy konfirmacyjnej.

Jaka wartość Composite Reliability jest uznawana za dobrą?

Standardy literaturowe są jasne: CR ≥ 0.70 — minimum akceptowalne, oznacza, że konstrukty są spójnie mierzone, choć dla pomiarów do celów diagnostycznych CR powinno być znacznie wyższe. Im bliżej 1, tym lepiej.


Wzór na rzetelność kompozytową

\[ CR = \frac{\sum \lambda_i^2}{\sum \lambda_i^2 + \sum \theta_i} \]


Wyjaśnienie symboli

  • \(\lambda_i\) — ładunek czynnikowy wskaźnika
  • \(\lambda_i^2\) — wariancja wspólna wskaźnika
  • \(\theta_i\) — błąd pomiaru wskaźnika wskaźnika

Dla skal standaryzowanych:

\[ \theta_i = 1 - \lambda_i^2 \]

  • \(\sum \lambda_i^2\) — suma wariancji wspólnych
  • \(\sum \theta_i\) — suma błędów pomiaru

Przykład liczenia

Dane: Te same trzy wskaźniki o ładunkach

\[ \lambda_1 = 0.70,\quad \lambda_2 = 0.80,\quad \lambda_3 = 0.60 \]


Dla każdego wskaźnika najpierw liczymy wariancję wspólną (wyjaśnioną)
\[ \lambda_i^2 \]
a następnie błąd pomiaru
\[ \theta_i = 1 - \lambda_i^2. \]


Wskaźnik 1

Wariancja wspólna: \[ \lambda_1^2 = 0.70^2 = 0.49 \]

Błąd pomiaru: \[ \theta_1 = 1 - 0.49 = 0.51 \]


Wskaźnik 2

Wariancja wspólna: \[ \lambda_2^2 = 0.80^2 = 0.64 \]

Błąd pomiaru: \[ \theta_2 = 1 - 0.64 = 0.36 \]


Wskaźnik 3

Wariancja wspólna: \[ \lambda_3^2 = 0.60^2 = 0.36 \]

Błąd pomiaru: \[ \theta_3 = 1 - 0.36 = 0.64 \]


Krok 2: Sumy wariancji wspólnych i błędów pomiaru

Suma wariancji wspólnych \[ \sum \lambda_i^2 = 0.49 + 0.64 + 0.36 = 1.49 \]

Suma błędów pomiaru \[ \sum \theta_i = 0.51 + 0.36 + 0.64 = 1.51 \]


Krok 3: Obliczenie rzetelności kompozytowej (CR)

\[ CR = \frac{1.49}{1.49 + 1.51} \]

\[ CR = \frac{1.49}{3.00} \approx 0.50 \]


Interpretacja

Wartość
\[ CR \approx 0.50 \]
oznacza niską rzetelność, poniżej akceptowalnych progów w modelach pomiaru zmiennych reflektywnych

Ocena trafności różnicowej (ang. discriminant validity)

Na ile różnią się od siebie dwa psychometryczne pomiary?

Czasem możemy mieć wrażenie, że mierzymy dwie zupełnie różne cechy (tak jak jest to pokazane na rysunku nr 3). Ale,

Rysunek nr 3

Wizualizacja relacji między zmiennymi SES1, SES2, SES3, SES4, SES5, SES6, SES7, SES8, SES9, SES10 a ich czynnikami

z jakichś względów (specyficznej próby lub przyjętej metody badawczej), okazuje się, że wszystkie obserwowalne wskaźniki są ze sobą podobnie powiązane (Rysunek nr 4) i ciężko dostrzec dwie “rodziny” różnych obserwowalnych wskaźników, ktore korespondują z dwoma przewidywanymi wcześniej czynnikami.

Rysunek nr 4

Wizualizacja relacji między zmiennymi SES1, SES2, SES3, SES4, SES5, SES6, SES7, SES8, SES9, SES10

Nota: Im ciemniejszy kolor zielony = Bardziej dodatnia korelacja; Im ciemniejszy kolor czerwony = Bardziej ujemna korelacja. Rysunek bazuje na uzyskanych oszacowaniach współczynników korelacji Spearmana.

Dlatego, konieczne jest zastosowanie metod które pozwolną nam ocenić czy nasze dwie cechy latentne są faktycznie różne, czy może jednak są jednym i tym samym, czyli? Czyli, czy obserwowalne wskaźniki są silniej powiązane ze swoim czynnikiem niż innym czynnikiem? A jeśli tak, to jaka jest tego siła? Tę “odróżnialność” od siebie zmiennych latentnych wyraża współczynnik HTMT.

Współczynnik HTMT (ang heterotrait-monotrait)

Intuicja stojąca za wzorem: Czy dwa różne konstrukty są naprawdę różne, czy może w praktyce mierzą to samo?

Wzór HTMT

HTMT dla konstruktu \(\xi_i\) i \(\xi_j\) definiuje się jako:

\[ \text{HTMT}_{ij} = \frac{ \frac{1}{K_i K_j} \sum_{g=1}^{K_i} \sum_{h=1}^{K_j} r_{ig,jh} }{ \sqrt{ \frac{2}{K_i (K_i - 1)} \sum_{g=1}^{K_i-1} \sum_{h=g+1}^{K_i} r_{ig,ih} \;\cdot\; \frac{2}{K_j (K_j - 1)} \sum_{g=1}^{K_j-1} \sum_{h=g+1}^{K_j} r_{jg,jh} } } \]

Gdzie:

  • \(K_i\) – liczba wskaźników konstruktu \(\xi_i\)
  • \(K_j\) – liczba wskaźników konstruktu \(\xi_j\)
  • \(r_{ig,jh}\) – korelacja między wskaźnikiem \(g\) konstruktu \(i\) a wskaźnikiem \(h\) konstruktu \(j\)
  • \(r_{ig,ih}\) – korelacja między wskaźnikami \(g\) i \(h\) konstruktu \(i\)
  • \(r_{jg,jh}\) – korelacja między wskaźnikami \(g\) i \(h\) konstruktu \(j\)

Przykład obliczenia dla dwóch konstrukcji latentnych:

Mamy konstrukty \(\xi_1\) i \(\xi_2\), każdy z 2 wskaźnikami:

  • \(\xi_1\) – x1, x2
  • \(\xi_2\) – y1, y2

Korelacje heterotrait-heteromethod:

\[ r_{x1,y1} = 0.5, \quad r_{x1,y2} = 0.4, \quad r_{x2,y1} = 0.6, \quad r_{x2,y2} = 0.55 \]

Średnia korelacja heterotrait-heteromethod:

\[ \text{avg}_{\text{HTHM}} = \frac{0.5 + 0.4 + 0.6 + 0.55}{2 \cdot 2} = 0.5125 \]

Korelacje monotrait-heteromethod:

\[ r_{x1,x2} = 0.7, \quad r_{y1,y2} = 0.65 \]

Mianownik (geometric mean):

\[ \text{mianownik} = \sqrt{0.7 \cdot 0.65} \approx 0.675 \]

HTMT:

\[ \text{HTMT} = \frac{0.5125}{0.674} \approx 0.76 \]

Interpretacja: HTMT = 0.76 – mierzone zmienne latentne są od siebie znacząco różne (przy standardowej granicy 0.80-0.85).

Macierz loadings-crossloadings

Na czym polega ocena trafności różnicowej przy użyciu macierzy loadings–cross-loadings? Do oceny tego wykorzystuje się macierz ładunków (loadings) i ładunków krzyżowych (cross-loadings). Loadings (ładunki główne), to ładunki itemów na konstrukcie, do którego te itemy są teoretycznie przypisane. Cross-loadings (ładunki krzyżowe), to ładunki tych samych itemów na pozostałych konstruktach, do których itemy nie powinny należeć. Test trafności różnicowej polega na prostym porównaniu: Każdy item powinien mieć swój główny ładunek ze swoją zmienną latetną wyższy niż z jakąkolwiek inną zmienną latentną, czyli wskażnik a1 powinien być silniej związany z cechą X niż z cechą Y.

Tabela 2

Współczynniki ładunków czynnikowych w macierzy loadings (ładunki dla korespondentnego pomiaru) cross-loadings (ładynki krzyżowe z innym pomiarem)

Wskaźnik Samoocena Ja Samoocena Socjo
SES1 0.78 0.62
SES2 0.74 0.78
SES3 0.81 0.85
SES4 0.76 0.62
SES5 0.72 0.77
SES6 0.69 0.68
SES7 0.75 0.99
SES8 0.79 0.71
SES9 0.44 0.82
SES10 0.31 0.76


Bibliografia

Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334. https://doi.org/10.1007/bf02310555

Dijkstra, T. K., Jörg Henseler, and, & and. (2015). Consistent partial least squares path modeling. MIS Quarterly, 39(2), 297–316. https://doi.org/10.25300/misq/2015/39.2.02

Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104

Hair, J. F., Sarstedt, M., Ringle, C. M., & Mena, J. A. (2011). An assessment of the use of partial least squares structural equation modeling in marketing research. Journal of the Academy of Marketing Science, 40(3), 414–433. https://doi.org/10.1007/s11747-011-0261-6

Henseler, J., Ringle, C. M., & Sarstedt, M. (2014). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115–135. https://doi.org/10.1007/s11747-014-0403-8

Podsakoff, P. M., MacKenzie, S. B., Lee, J.-Y., & Podsakoff, N. P. (2003). Common method biases in behavioral research: A critical review of the literature and recommended remedies. Journal of Applied Psychology, 88(5), 879–903. https://doi.org/10.1037/0021-9010.88.5.879

R Core Team. (2022). R: A language and environment for statistical computing. R Foundation for Statistical Computing. https://www.R-project.org/

Ray, S., Danks, N. P., & Calero Valdez, A. (2022). Seminr: Building and estimating structural equation models. https://CRAN.R-project.org/package=seminr

Sarstedt, M., Hair, J. F., Ringle, C. M., Thiele, K. O., & Gudergan, S. P. (2016). Estimation issues with PLS and CBSEM: Where the bias lies! Journal of Business Research, 69(10), 3998–4010. https://doi.org/10.1016/j.jbusres.2016.06.007