
Tài liệu trình bày về phân tích tổng hợp (meta-analysis), một kỹ thuật thống kê tổng hợp kết quả từ nhiều nghiên cứu độc lập để cho ra kết quả hợp lý, có ý nghĩa thống kê, đánh giá mức độ ảnh hưởng và khả năng ứng dụng.
Phân tích tổng hợp ra đời từ năm 1904 bởi Karl Pearson nhưng chỉ thực sự phổ biến từ thập niên 1980. Khác với nghiên cứu sơ cấp (primary studies) thu thập dữ liệu từ cá nhân, phân tích tổng hợp sử dụng dữ liệu từ chính các nghiên cứu sơ cấp này. Nó giúp gia tăng lực nghiên cứu, cải thiện độ chính xác, giải quyết các vấn đề còn tranh cãi, và đưa ra giả thuyết mới. Quy trình thực hiện phân tích tổng hợp gồm 7 bước: xác định câu hỏi nghiên cứu, xây dựng tiêu chuẩn, tìm kiếm nghiên cứu, lựa chọn và đánh giá chất lượng nghiên cứu, trích xuất số liệu, phân tích tổng hợp, và cuối cùng là giải thích kết quả và viết báo cáo.
Bước phân tích tổng hợp bao gồm ước tính trọng số cho từng nghiên cứu (Wi = 1/SDi2) và tổng thể, phân tích ảnh hưởng cố định (giả định hệ số ảnh hưởng giống nhau) và ảnh hưởng ngẫu nhiên (khác biệt giữa các nghiên cứu), đánh giá publication bias (xu hướng ưu tiên công bố nghiên cứu có kết quả có ý nghĩa thống kê), và phân tích độ nhạy. Tài liệu cũng đề cập đến các chỉ số đánh giá như chỉ số đồng nhất (Q) và không đồng nhất (I2), cùng các biểu đồ như Forest, Funnel, và Galbraith để phát hiện heterogeneity (tính không đồng nhất). Khi có heterogeneity, có thể thực hiện phân tích ảnh hưởng ngẫu nhiên, thay đổi cách đo lường, loại bỏ outliers, phân tích nhóm nhỏ, hoặc không thực hiện phân tích tổng hợp.
Cuối cùng, tài liệu cũng đề cập đến việc đánh giá publication bias thông qua biểu đồ Funnel và các kiểm định Egger, Harbord, và Peters, cũng như phân tích độ nhạy bằng cách điều chỉnh publication bias, loại bỏ ảnh hưởng của nghiên cứu nhỏ, loại bỏ outliers, và phân tích nhóm nhỏ.
- Đăng nhập để gửi ý kiến