Wykonujemy
✅Analizy statystyczne
✅Projekty metodologii
✅Aplikacje statystyczne
✅Wdrażanie AI
✅Projektowanie i koordynowanie badań
✅Testy psychologiczne
✅Doradztwo naukowo-metodologiczne
✅Przeglądy literatury i budowanie teorii
Kontakt:
@ metodolog.pl@gmail.com tel: 798 30 95 31
Jest to teoretyczne zjawisko, zwykle opisane przez teorię lub definicję, co do którego zachodzi przypuszczenie, że jest przyczyną pewnych obserwowalnych zjawisk.
Teoretyczne zjawisko, czyli np. Samoocena = Zgeneralizowana poznawcza i afektywna ocena własnej wartości.
Uważam, że posiadam wiele pozytywnych cech.
Lubię siebie
Czasami czuję się bezużyteczny(a)
itd.
Analiza ładunków czynnikowych w czynnikowej analizie konfirmacyjnej (CFA) polega na ocenie, jak silnie wskaźniki (pytania, itemy) są związane z latentnym (ukrytym) konstruktrem, który mają mierzyć. CFA jest podejściem hipotezowanym – zakładamy z góry, które itemy mają mierzyć dany czynnik, a następnie testujemy, jak dobrze model pasuje do danych. Ładunek czynnikowy (factor loading) informuje, jak silnie dany wskaźnik odzwierciedla czynnik latentny. Ładunki są interpretowane jako standaryzowane współczynniki regresji – im wyższe, tym lepiej, choć akceptowalny poziom wynosi od 0.5 (akceptowalne) do 0.7 (pożądane). Zmienna latentna powinna tak odzwierciedlać wszystkie swoje obserwowalne wskaźniki.
Rysunek 1
Wizualna ocena wpływu zmiennej latentnej na wskaźniki Samooceny
Tabela 1
Współczynniki konfirmacyjnej analizy czynnikowej dla pomiaru Samooceny
| Latentna | Wpływ | Wskaźnik | B | s.e. | DPU | GPU | β | Z | R² |
|---|---|---|---|---|---|---|---|---|---|
| Samoocena | → | SES1 | 0.76 | 0.07 | 0.62 | 0.90 | 0.77 | 10.70*** | 0.59 |
| Samoocena | → | SES2 | 0.58 | 0.09 | 0.40 | 0.76 | 0.58 | 6.23*** | 0.34 |
| Samoocena | → | SES3 | -0.66 | -0.09 | -0.84 | -0.47 | -0.66 | -6.95*** | 0.44 |
| Samoocena | → | SES4 | 0.55 | 0.11 | 0.34 | 0.76 | 0.55 | 5.07*** | 0.31 |
| Samoocena | → | SES5 | -0.72 | 0.09 | -0.89 | -0.55 | -0.72 | -8.43*** | 0.52 |
| Samoocena | → | SES6 | 0.85 | 0.09 | 0.67 | 1.03 | 0.86 | 9.44*** | 0.73 |
| Samoocena | → | SES7 | 0.80 | 0.09 | 0.63 | 0.98 | 0.81 | 8.94*** | 0.65 |
| Samoocena | → | SES8 | -0.56 | 0.08 | -0.73 | -0.40 | -0.57 | -6.65*** | 0.32 |
| Samoocena | → | SES9 | -0.83 | 0.07 | -0.98 | -0.69 | -0.84 | -11.13*** | 0.70 |
| Samoocena | → | SES10 | -0.85 | 0.06 | -0.97 | -0.73 | -0.85 | -14.21*** | 0.73 |
Nota: B = niestandaryzowane ładunki czynnikowe; s.e. = błąd standardowy; DPU = dolna granica 95% przedziału ufności; GPU = górna granica 95% przedziału ufności; β = standaryzowane ładunki czynnikowe; Z = statystyka testowa; R² = proporcja wariancji wyjaśnianej przez czynnik.
Rysunek 2
Rozkład wyników zmiennej latentnej Samoocena
Jak dobrze nasze obserwowalne wskaźniki odzwierciedlają naszą zmienną latentną?
(AVE ang.Average Variance Extracted*)
AVE – Średnia Wariancja Wyjaśniona to miara wykorzystywana w czynnikowej analizie konfirmacyjnej (CFA) i modelach SEM, która mówi jak dobrze konstrukty latentne wyjaśniają wariancję swoich wskaźników (itemów). AVE informuje, jaka część odpowiedzi na itemy wynika z cechy latentnej, a jaka z błędu pomiaru. AVE musi wynosić co najmniej 0.50, aby uznać, że konstrukty mają trafność konwergentną. Dlaczego 0.50? Bo AVE = 0.50 oznacza, że konstrukty wyjaśniają co najmniej 50% wariancji swoich wskaźników, a pozostałe ≤ 50% to błąd pomiaru. 50% = większość wariancji wynika z cechy latentnej, co pozwala oceniać to jako dobry pomiar.
Intuicja stojąca za wzorem: Ile zmienności swoich wskaźników wyjaśnia zmienna latentna?
Definicja (ogólny wzór):
\[ \mathrm{AVE} \;=\; \frac{\sum_{i=1}^k \lambda_i^2} {\sum_{i=1}^k \lambda_i^2 \;+\; \sum_{i=1}^k \theta_i} \]
gdzie: - \(k\) — liczba wskaźników
przypisanych do czynnika,
- \(\lambda_i\) — standardowy ładunek
czynnikowy i-tego wskaźnika (loading),
- \(\theta_i =
\mathrm{Var}(\varepsilon_i)\) — wariancja składnika błędu i-tego
wskaźnika.
Uproszczona postać (gdy wskaźniki są standaryzowane, a zazwyczaj są domyślnie standaryzowane):
Ponieważ przy standaryzacji zazwyczaj \(\theta_i = 1 - \lambda_i^2\), mamy:
\[ \mathrm{AVE} \;=\; \frac{\sum_{i=1}^k \lambda_i^2}{k} \]
czyli AVE jest po prostu średnią arytmetyczną z kwadratów ładunków (squared loadings).
Interpretacja
Załóżmy \(k=3\) i ładunki: \(\lambda = (0.70,\,0.80,\,0.60)\).
\[ \sum \lambda_i^2 = 0.70^2 + 0.80^2 + 0.60^2 = 0.49 + 0.64 + 0.36 = 1.49 \] \[ \mathrm{AVE} = \frac{1.49}{3} \approx 0.50 \]
Interpretacja: AVE ≈ 0.50 — Idealnie na progu 0.50, więc waga zbieżności jest równa progowi akceptacji.
Intuicja stojąca za wzorem: Jak dokładnie zmienna latentna wyjaśnia swoje wskaźniki?
Rzetelność kompozytowa (Composite Reliability, CR) ocenia, jak dobrze zestaw wskaźników mierzy reflektywny konstrukt latentny. Jedna z wielu miar stosowana do oceny dokładności pomiarowej takich wskaźników. CR to miara rzetelności używana w CFA i SEM, która mówi jak spójnie itemy odzwierciedlają latentny konstrukt. CR jest alternatywą dla alfa Cronbacha, ale jest dokładniejsza, bierze pod uwagę faktyczne ładunki czynnikowe itemów (a nie wskaźniki jako takie), zakłada model refleksyjny (w przeciwieństwie do Alfa Cronbacha). CR jest więc lepszą miarą spójności w modelach CFA, ponieważ opiera się na wynikach analizy konfirmacyjnej.
Jaka wartość Composite Reliability jest uznawana za dobrą?
Standardy literaturowe są jasne: CR ≥ 0.70 — minimum akceptowalne, oznacza, że konstrukty są spójnie mierzone, choć dla pomiarów do celów diagnostycznych CR powinno być znacznie wyższe. Im bliżej 1, tym lepiej.
\[ CR = \frac{\sum \lambda_i^2}{\sum \lambda_i^2 + \sum \theta_i} \]
Dla skal standaryzowanych:
\[ \theta_i = 1 - \lambda_i^2 \]
Dane: Te same trzy wskaźniki o ładunkach
\[ \lambda_1 = 0.70,\quad \lambda_2 = 0.80,\quad \lambda_3 = 0.60 \]
Dla każdego wskaźnika najpierw liczymy wariancję wspólną
(wyjaśnioną)
\[
\lambda_i^2
\]
a następnie błąd pomiaru
\[
\theta_i = 1 - \lambda_i^2.
\]
Wskaźnik 1
Wariancja wspólna: \[ \lambda_1^2 = 0.70^2 = 0.49 \]
Błąd pomiaru: \[ \theta_1 = 1 - 0.49 = 0.51 \]
Wskaźnik 2
Wariancja wspólna: \[ \lambda_2^2 = 0.80^2 = 0.64 \]
Błąd pomiaru: \[ \theta_2 = 1 - 0.64 = 0.36 \]
Wskaźnik 3
Wariancja wspólna: \[ \lambda_3^2 = 0.60^2 = 0.36 \]
Błąd pomiaru: \[ \theta_3 = 1 - 0.36 = 0.64 \]
Krok 2: Sumy wariancji wspólnych i błędów pomiaru
Suma wariancji wspólnych \[ \sum \lambda_i^2 = 0.49 + 0.64 + 0.36 = 1.49 \]
Suma błędów pomiaru \[ \sum \theta_i = 0.51 + 0.36 + 0.64 = 1.51 \]
Krok 3: Obliczenie rzetelności kompozytowej (CR)
\[ CR = \frac{1.49}{1.49 + 1.51} \]
\[ CR = \frac{1.49}{3.00} \approx 0.50 \]
Wartość
\[
CR \approx 0.50
\]
oznacza niską rzetelność, poniżej akceptowalnych progów
w modelach pomiaru zmiennych reflektywnych
Na ile różnią się od siebie dwa psychometryczne pomiary?
Czasem możemy mieć wrażenie, że mierzymy dwie zupełnie różne cechy (tak jak jest to pokazane na rysunku nr 3). Ale,
Rysunek nr 3
Wizualizacja relacji między zmiennymi SES1, SES2, SES3, SES4, SES5, SES6, SES7, SES8, SES9, SES10 a ich czynnikami
z jakichś względów (specyficznej próby lub przyjętej metody badawczej), okazuje się, że wszystkie obserwowalne wskaźniki są ze sobą podobnie powiązane (Rysunek nr 4) i ciężko dostrzec dwie “rodziny” różnych obserwowalnych wskaźników, ktore korespondują z dwoma przewidywanymi wcześniej czynnikami.
Rysunek nr 4
Wizualizacja relacji między zmiennymi SES1, SES2, SES3, SES4, SES5, SES6, SES7, SES8, SES9, SES10
Nota: Im ciemniejszy kolor zielony = Bardziej dodatnia korelacja; Im ciemniejszy kolor czerwony = Bardziej ujemna korelacja. Rysunek bazuje na uzyskanych oszacowaniach współczynników korelacji Spearmana.
Dlatego, konieczne jest zastosowanie metod które pozwolną nam ocenić czy nasze dwie cechy latentne są faktycznie różne, czy może jednak są jednym i tym samym, czyli? Czyli, czy obserwowalne wskaźniki są silniej powiązane ze swoim czynnikiem niż innym czynnikiem? A jeśli tak, to jaka jest tego siła? Tę “odróżnialność” od siebie zmiennych latentnych wyraża współczynnik HTMT.
Intuicja stojąca za wzorem: Czy dwa różne konstrukty są naprawdę różne, czy może w praktyce mierzą to samo?
Wzór HTMT
HTMT dla konstruktu \(\xi_i\) i \(\xi_j\) definiuje się jako:
\[ \text{HTMT}_{ij} = \frac{ \frac{1}{K_i K_j} \sum_{g=1}^{K_i} \sum_{h=1}^{K_j} r_{ig,jh} }{ \sqrt{ \frac{2}{K_i (K_i - 1)} \sum_{g=1}^{K_i-1} \sum_{h=g+1}^{K_i} r_{ig,ih} \;\cdot\; \frac{2}{K_j (K_j - 1)} \sum_{g=1}^{K_j-1} \sum_{h=g+1}^{K_j} r_{jg,jh} } } \]
Gdzie:
Przykład obliczenia dla dwóch konstrukcji latentnych:
Mamy konstrukty \(\xi_1\) i \(\xi_2\), każdy z 2 wskaźnikami:
Korelacje heterotrait-heteromethod:
\[ r_{x1,y1} = 0.5, \quad r_{x1,y2} = 0.4, \quad r_{x2,y1} = 0.6, \quad r_{x2,y2} = 0.55 \]
Średnia korelacja heterotrait-heteromethod:
\[ \text{avg}_{\text{HTHM}} = \frac{0.5 + 0.4 + 0.6 + 0.55}{2 \cdot 2} = 0.5125 \]
Korelacje monotrait-heteromethod:
\[ r_{x1,x2} = 0.7, \quad r_{y1,y2} = 0.65 \]
Mianownik (geometric mean):
\[ \text{mianownik} = \sqrt{0.7 \cdot 0.65} \approx 0.675 \]
HTMT:
\[ \text{HTMT} = \frac{0.5125}{0.674} \approx 0.76 \]
Interpretacja: HTMT = 0.76 – mierzone zmienne latentne są od siebie znacząco różne (przy standardowej granicy 0.80-0.85).
Na czym polega ocena trafności różnicowej przy użyciu macierzy loadings–cross-loadings? Do oceny tego wykorzystuje się macierz ładunków (loadings) i ładunków krzyżowych (cross-loadings). Loadings (ładunki główne), to ładunki itemów na konstrukcie, do którego te itemy są teoretycznie przypisane. Cross-loadings (ładunki krzyżowe), to ładunki tych samych itemów na pozostałych konstruktach, do których itemy nie powinny należeć. Test trafności różnicowej polega na prostym porównaniu: Każdy item powinien mieć swój główny ładunek ze swoją zmienną latetną wyższy niż z jakąkolwiek inną zmienną latentną, czyli wskażnik a1 powinien być silniej związany z cechą X niż z cechą Y.
Tabela 2
Współczynniki ładunków czynnikowych w macierzy loadings (ładunki dla korespondentnego pomiaru) cross-loadings (ładynki krzyżowe z innym pomiarem)
| Wskaźnik | Samoocena Ja | Samoocena Socjo |
|---|---|---|
| SES1 | 0.78 | 0.62 |
| SES2 | 0.74 | 0.78 |
| SES3 | 0.81 | 0.85 |
| SES4 | 0.76 | 0.62 |
| SES5 | 0.72 | 0.77 |
| SES6 | 0.69 | 0.68 |
| SES7 | 0.75 | 0.99 |
| SES8 | 0.79 | 0.71 |
| SES9 | 0.44 | 0.82 |
| SES10 | 0.31 | 0.76 |
Bibliografia
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297–334. https://doi.org/10.1007/bf02310555
Dijkstra, T. K., Jörg Henseler, and, & and. (2015). Consistent partial least squares path modeling. MIS Quarterly, 39(2), 297–316. https://doi.org/10.25300/misq/2015/39.2.02
Fornell, C., & Larcker, D. F. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of Marketing Research, 18(1), 39–50. https://doi.org/10.1177/002224378101800104
Hair, J. F., Sarstedt, M., Ringle, C. M., & Mena, J. A. (2011). An assessment of the use of partial least squares structural equation modeling in marketing research. Journal of the Academy of Marketing Science, 40(3), 414–433. https://doi.org/10.1007/s11747-011-0261-6
Henseler, J., Ringle, C. M., & Sarstedt, M. (2014). A new criterion for assessing discriminant validity in variance-based structural equation modeling. Journal of the Academy of Marketing Science, 43(1), 115–135. https://doi.org/10.1007/s11747-014-0403-8
Podsakoff, P. M., MacKenzie, S. B., Lee, J.-Y., & Podsakoff, N. P. (2003). Common method biases in behavioral research: A critical review of the literature and recommended remedies. Journal of Applied Psychology, 88(5), 879–903. https://doi.org/10.1037/0021-9010.88.5.879
R Core Team. (2022). R: A language and environment for statistical computing. R Foundation for Statistical Computing. https://www.R-project.org/
Ray, S., Danks, N. P., & Calero Valdez, A. (2022). Seminr: Building and estimating structural equation models. https://CRAN.R-project.org/package=seminr
Sarstedt, M., Hair, J. F., Ringle, C. M., Thiele, K. O., & Gudergan, S. P. (2016). Estimation issues with PLS and CBSEM: Where the bias lies! Journal of Business Research, 69(10), 3998–4010. https://doi.org/10.1016/j.jbusres.2016.06.007