Katakanlah kita punya model
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Di sini kita amati kesesuaian singular, karena korelasi antara intersep dan x efek acak adalah -1. Sekarang, menurut tautan yang bermanfaat ini satu cara untuk menangani model ini adalah dengan menghilangkan efek acak tingkat tinggi (misalnya, X: ConditionB) dan melihat apakah itu membuat perbedaan ketika menguji singularitas. Yang lainnya adalah menggunakan pendekatan Bayesian, misalnya blme
paket untuk menghindari singularitas.
Apa metode yang dipilih dan mengapa?
Saya menanyakan hal ini karena menggunakan yang pertama atau yang kedua menghasilkan hasil yang berbeda - dalam kasus pertama, saya akan menghapus X: efek acak ConditionB dan tidak akan dapat memperkirakan korelasi antara X dan X: efek acak ConditionB. Di sisi lain, menggunakan blme
memungkinkan saya untuk tetap X: ConditionB dan untuk memperkirakan korelasi yang diberikan. Saya tidak melihat alasan mengapa saya harus menggunakan estimasi non-bayesian dan menghapus efek acak ketika cocok singular terjadi ketika saya bisa memperkirakan semuanya dengan pendekatan Bayesian.
Dapatkah seseorang menjelaskan kepada saya manfaat dan masalah menggunakan salah satu metode untuk menangani kesesuaian tunggal?
Terima kasih.