Biểu đồ so sánh trung bình hai nhóm spss

So sánh khác biệt trung bình là một trong những kiểm định phổ biến và lâu đời trong thống kê; Hôm nay chaydinhluong.com sẽ hướng dẫn các bạn thực hiện đầy đủ và chi tiết nhất trong phần mềm SPSS; nhằm mục đích cho các bạn ứng dụng vào thực tế một cách dễ dàng.

Giả định để so sánh t-test và Anova

  1. Giả thiết đầu tiên được đưa ra liên quan đến phép thử t liên quan đến thang đo. Giả định cho bài kiểm tra t là thang đo áp dụng cho dữ liệu thu thập được tuân theo thang đo liên tục hoặc theo thứ tự, chẳng hạn như điểm của bài kiểm tra IQ.
  2. Giả định thứ hai được đưa ra là một mẫu ngẫu nhiên đơn giản, dữ liệu được thu thập từ một phần đại diện, được chọn ngẫu nhiên của tổng dân số.
  3. Giả thiết thứ ba là dữ liệu, khi được vẽ biểu đồ, dẫn đến một phân phối chuẩn, đường cong phân phối hình chuông. Nói tóm lại là dữ liệu có phân phối chuẩn.
  4. Giả thiết cuối cùng là tính đồng nhất của phương sai. Phương sai đồng nhất, hoặc bằng nhau tồn tại khi độ lệch chuẩn của các mẫu xấp xỉ bằng nhau.

Trong phạm vi ví dụ thí chúng tôi sẽ giả định tất cả điều kiện trên là đạt.

Giả thuyết thống kê

  • H0: Không có sự khác biệt trung bình của các nhóm so sánh
  • H1: Có sự khác biệt trung bình của các nhóm so sánh

Kiểm định

So sanh t-test với một số

Analyze > Compare means > One Sample t-test

  • Test variables: Bạn chọn biến cần só sánh
  • Test value: Bạn chọn giá trị cần so sánh

Và ta có kết quả sau:

One-Sample Test Test Value = 15 t df Sig. (2-tailed) Mean Difference 95% Confidence Interval of the Difference Lower Upper CPHI 4.123 199 0.000 1.485 0.77 2.20

Ta có Sig < 0.05 = > Có sự khác biệt của mẫu so sánh với mẫu thử.

So sánh khác biệt với 2 nhóm

Analyze > Compare means > Independent Sample t-test

  • Test variables: Bạn chọn biến cần só sánh (CPHI)
  • Grouping variables: Bạn chọn giá trị cần so sánh ( MUAXE: 0;1) Independent Samples Test Levene’s Test for Equality of Variances t-test for Equality of Means F Sig. t df Sig. (2-tailed) Mean Difference Std. Error Difference 95% Confidence Interval of the Difference Lower Upper CPHI Equal variances assumed 0.127 0.722 -11.461 198 0.000 -6.726 0.587 -7.884 -5.569 Equal variances not assumed -11.438 140.602 0.000 -6.726 0.588 -7.889 -5.564

Ta có Sig < 0.05 = > Ta bác bỏ H0 chấp nhận H1 = > Có sự khác biệt giữ 2 nhóm so sánh

Diễn giả nghĩa: Chi phí sinh hoạt của 2 nhóm: 0 có xe hơi và 1 là có xe hơi, có sự khác biệt nhau.

So sánh 2 biến bằng t-test

Analyze > Compare means > Paired Sample t-test

  • Variable1: Biến thứ 1 (CPHI)
  • Variable2: Biến thứ 2( TKIEM) Paired Samples Test Paired Differences t df Sig. (2-tailed) Mean Std. Deviation Std. Error Mean 95% Confidence Interval of the Difference Lower Upper Pair 1 CPHI – TKIEM 7.485 4.761 0.337 6.821 8.149 22.236 199 0.000

Ta có Sig < 0.05 => Có sự khác biệt của 2 mẫu thử.

Phân tích phương sai ANOVA

Trong so sánh t-test nếu > 2 nhóm thì chúng ta phải dùng phương pháp phân tích phương sai.

Analyze > Compare means > Oneway Anova

  • Dependent list: Biến độc lập ( CPHI)
  • Factor: Nhóm phân tích ( MUAHANG)
  • Tab Post-Hoc: Bonfferroni + Tukey ( Bạn chọn nhiều hơn cũng được)

Kết quả phân tích One-way Anova

ANOVA CPHI Sum of Squares df Mean Square F Sig. Between Groups 2651.622 2 1325.811 104.044 0.000 Within Groups 2510.333 197 12.743 Total 5161.955 199

Chúng ta có Sig < 0.05 => Có sự khác biệt giữa các nhóm trong mẫu thử ( Nhưng không biết nhóm nào với nhóm nào có sự khác biệt, vì vậy chúng ta cần thêm bước hậu kiểm định Post-Hoc)

Kiểm tra Post-Hoc

Mục đích là tìm khác biết so sánh từng cặp với nhau.

Multiple Comparisons Dependent Variable: (I) MUAHANG Mean Difference (I-J) Std. Error Sig. 95% Confidence Interval Lower Bound Upper Bound Tukey HSD 1 2 -4.274* 0.626 0.000 -5.75 -2.79 3 -8.797* 0.610 0.000 -10.24 -7.36 2 1 4.274* 0.626 0.000 2.79 5.75 3 -4.524* 0.620 0.000 -5.99 -3.06 3 1 8.797* 0.610 0.000 7.36 10.24 2 4.524* 0.620 0.000 3.06 5.99 Bonferroni 1 2 -4.274* 0.626 0.000 -5.79 -2.76 3 -8.797* 0.610 0.000 -10.27 -7.32 2 1 4.274* 0.626 0.000 2.76 5.79 3 -4.524* 0.620 0.000 -6.02 -3.03 3 1 8.797* 0.610 0.000 7.32 10.27 2 4.524* 0.620 0.000 3.03 6.02 *. The mean difference is significant at the 0.05 level.

Ta có Sig < 0.05 = > Tất cả các cặp điều có sự khác biệt với nhau.

So sánh Wilcoxson

Cũng giống như t-test ở trên, chúng tôi chỉ thực hiện 1 ví dụ thôi.

Giả định của Wilcoxson

Giả định số 1: Biến phụ thuộc của bạn nên được đo lường ở mức thứ tự hoặc liên tục . Ví dụ về các biến thứ tự bao gồm các mặt hàng Likert (ví dụ: một mặt hàng 7 điểm từ “rất đồng ý” đến “hoàn toàn không đồng ý”), trong số các cách xếp hạng danh mục khác (ví dụ: một mặt hàng 5 điểm giải thích mức độ thích một sản phẩm của khách hàng , từ “Không nhiều lắm” đến “Có, rất nhiều”).

Giả định số 2: Biến độc lập của bạn phải bao gồm hai phân loại , “nhóm có liên quan” hoặc “cặp đối sánh”. “Các nhóm có liên quan” chỉ ra rằng các đối tượng giống nhau có mặt trong cả hai nhóm. Lý do có thể có các đối tượng giống nhau trong mỗi nhóm là vì mỗi đối tượng đã được đo lường hai lần trên cùng một biến phụ thuộc.

Giả định số 3: Sự phân bố sự khác biệt giữa hai nhóm có liên quan (tức là sự phân phối sự khác biệt giữa điểm số của cả hai nhóm của biến độc lập; ví dụ: thời gian phản ứng trong phòng có “ánh sáng xanh” và phòng có “đèn đỏ”) cần có hình dạng đối xứng.

Nếu sự phân bố của sự khác biệt có hình dạng đối xứng, bạn có thể phân tích nghiên cứu của mình bằng cách sử dụng bài kiểm tra xếp hạng có chữ ký của Wilcoxon.

Trên thực tế, việc kiểm tra giả định này chỉ làm tăng thêm một chút thời gian cho phân tích của bạn, yêu cầu bạn nhấp thêm một vài nút trong Thống kê SPSS khi thực hiện phân tích, cũng như suy nghĩ thêm một chút về dữ liệu của bạn, nhưng không phải vậy.

Tóm lại: Khi dữ liệu không có phân phối chuẩn thì dùng Wilcoxson

Analyze > Nonparametric Tests > Legacy Dialogs >Two-Sample Independent Sample t-test

  • Test variables: Bạn chọn biến cần só sánh (CPHI)
  • Grouping variables: Bạn chọn giá trị cần so sánh ( MUAXE: 0;1)
  • Check: Kolmogorov-Smirnov và Wald ( Cái nào cũng được) Test StatisticsaCPHI Most Extreme Differences Absolute 0.677 Positive 0.677 Negative 0.000 Kolmogorov-Smirnov Z 4.566 Asymp. Sig. (2-tailed) 0.000 a. Grouping Variable: MUAXE

Với kiểm định Kolmogorov-Smirnov Test

Ta có: Pvalue < 0.05 => Có sự khác biệt của 2 nhóm

Test Statisticsa,bNumber of Runs Z Asymp. Sig. (1-tailed) CPHI Minimum Possible 14c-12.158 0.000 Maximum Possible 62c-4.676 0.000 a. Wald-Wolfowitz Test b. Grouping Variable: MUAXE c. There are 11 inter-group ties involving 140 cases.

Còn kiểm định Wald-Wolfowitz test cũng cho kết quả tương tự.

Tóm lại so sánh khác biệt trung bình

  • Do là ” Trung bình” nên ta biết ngay biến dùng để đo khác biệt là biến liên tục
  • Nếu dữ liệu có phân phối chuẩn thì dùng: t-test + Oneway anova
  • Nếu dữ liệu không có phân phối chuẩn thì dùng Wilcoxson

Các bạn cứ dùng “mẹo” trên để so sánh khác biệt trung bình, chứ còn thực tế thì không kiểm định tất cả những giả định ở trên hết; Cái phân phối chuẩn và phương sai tương đồng là quan trọng nhất trong kiểm định so sánh trung bình khác biệt.