So sánh khác biệt trung bình là một trong những kiểm định phổ biến và lâu đời trong thống kê; Hôm nay chaydinhluong.com sẽ hướng dẫn các bạn thực hiện đầy đủ và chi tiết nhất trong phần mềm SPSS; nhằm mục đích cho các bạn ứng dụng vào thực tế một cách dễ dàng. Show Giả định để so sánh t-test và Anova
Trong phạm vi ví dụ thí chúng tôi sẽ giả định tất cả điều kiện trên là đạt. Giả thuyết thống kê
Kiểm địnhSo sanh t-test với một sốAnalyze > Compare means > One Sample t-test
Và ta có kết quả sau: One-Sample Test Test Value = 15 t df Sig. (2-tailed) Mean Difference 95% Confidence Interval of the Difference Lower Upper CPHI 4.123 199 0.000 1.485 0.77 2.20 Ta có Sig < 0.05 = > Có sự khác biệt của mẫu so sánh với mẫu thử. So sánh khác biệt với 2 nhómAnalyze > Compare means > Independent Sample t-test
Ta có Sig < 0.05 = > Ta bác bỏ H0 chấp nhận H1 = > Có sự khác biệt giữ 2 nhóm so sánh Diễn giả nghĩa: Chi phí sinh hoạt của 2 nhóm: 0 có xe hơi và 1 là có xe hơi, có sự khác biệt nhau. So sánh 2 biến bằng t-testAnalyze > Compare means > Paired Sample t-test
Ta có Sig < 0.05 => Có sự khác biệt của 2 mẫu thử. Phân tích phương sai ANOVATrong so sánh t-test nếu > 2 nhóm thì chúng ta phải dùng phương pháp phân tích phương sai. Analyze > Compare means > Oneway Anova
Kết quả phân tích One-way AnovaANOVA CPHI Sum of Squares df Mean Square F Sig. Between Groups 2651.622 2 1325.811 104.044 0.000 Within Groups 2510.333 197 12.743 Total 5161.955 199 Chúng ta có Sig < 0.05 => Có sự khác biệt giữa các nhóm trong mẫu thử ( Nhưng không biết nhóm nào với nhóm nào có sự khác biệt, vì vậy chúng ta cần thêm bước hậu kiểm định Post-Hoc) Kiểm tra Post-HocMục đích là tìm khác biết so sánh từng cặp với nhau. Multiple Comparisons Dependent Variable: (I) MUAHANG Mean Difference (I-J) Std. Error Sig. 95% Confidence Interval Lower Bound Upper Bound Tukey HSD 1 2 -4.274* 0.626 0.000 -5.75 -2.79 3 -8.797* 0.610 0.000 -10.24 -7.36 2 1 4.274* 0.626 0.000 2.79 5.75 3 -4.524* 0.620 0.000 -5.99 -3.06 3 1 8.797* 0.610 0.000 7.36 10.24 2 4.524* 0.620 0.000 3.06 5.99 Bonferroni 1 2 -4.274* 0.626 0.000 -5.79 -2.76 3 -8.797* 0.610 0.000 -10.27 -7.32 2 1 4.274* 0.626 0.000 2.76 5.79 3 -4.524* 0.620 0.000 -6.02 -3.03 3 1 8.797* 0.610 0.000 7.32 10.27 2 4.524* 0.620 0.000 3.03 6.02 *. The mean difference is significant at the 0.05 level. Ta có Sig < 0.05 = > Tất cả các cặp điều có sự khác biệt với nhau. So sánh WilcoxsonCũng giống như t-test ở trên, chúng tôi chỉ thực hiện 1 ví dụ thôi. Giả định của WilcoxsonGiả định số 1: Biến phụ thuộc của bạn nên được đo lường ở mức thứ tự hoặc liên tục . Ví dụ về các biến thứ tự bao gồm các mặt hàng Likert (ví dụ: một mặt hàng 7 điểm từ “rất đồng ý” đến “hoàn toàn không đồng ý”), trong số các cách xếp hạng danh mục khác (ví dụ: một mặt hàng 5 điểm giải thích mức độ thích một sản phẩm của khách hàng , từ “Không nhiều lắm” đến “Có, rất nhiều”). Giả định số 2: Biến độc lập của bạn phải bao gồm hai phân loại , “nhóm có liên quan” hoặc “cặp đối sánh”. “Các nhóm có liên quan” chỉ ra rằng các đối tượng giống nhau có mặt trong cả hai nhóm. Lý do có thể có các đối tượng giống nhau trong mỗi nhóm là vì mỗi đối tượng đã được đo lường hai lần trên cùng một biến phụ thuộc. Giả định số 3: Sự phân bố sự khác biệt giữa hai nhóm có liên quan (tức là sự phân phối sự khác biệt giữa điểm số của cả hai nhóm của biến độc lập; ví dụ: thời gian phản ứng trong phòng có “ánh sáng xanh” và phòng có “đèn đỏ”) cần có hình dạng đối xứng. Nếu sự phân bố của sự khác biệt có hình dạng đối xứng, bạn có thể phân tích nghiên cứu của mình bằng cách sử dụng bài kiểm tra xếp hạng có chữ ký của Wilcoxon. Trên thực tế, việc kiểm tra giả định này chỉ làm tăng thêm một chút thời gian cho phân tích của bạn, yêu cầu bạn nhấp thêm một vài nút trong Thống kê SPSS khi thực hiện phân tích, cũng như suy nghĩ thêm một chút về dữ liệu của bạn, nhưng không phải vậy. Tóm lại: Khi dữ liệu không có phân phối chuẩn thì dùng Wilcoxson Analyze > Nonparametric Tests > Legacy Dialogs >Two-Sample Independent Sample t-test
Với kiểm định Kolmogorov-Smirnov Test Ta có: Pvalue < 0.05 => Có sự khác biệt của 2 nhóm Test Statisticsa,bNumber of Runs Z Asymp. Sig. (1-tailed) CPHI Minimum Possible 14c-12.158 0.000 Maximum Possible 62c-4.676 0.000 a. Wald-Wolfowitz Test b. Grouping Variable: MUAXE c. There are 11 inter-group ties involving 140 cases. Còn kiểm định Wald-Wolfowitz test cũng cho kết quả tương tự. Tóm lại so sánh khác biệt trung bình
Các bạn cứ dùng “mẹo” trên để so sánh khác biệt trung bình, chứ còn thực tế thì không kiểm định tất cả những giả định ở trên hết; Cái phân phối chuẩn và phương sai tương đồng là quan trọng nhất trong kiểm định so sánh trung bình khác biệt. |