Sunting: Saya salah mengerti pertanyaan Anda. Ada dua aspek:
a) na.omit
dan na.exclude
keduanya melakukan penghapusan dengan santai sehubungan dengan prediktor dan kriteria. Mereka hanya berbeda dalam fungsi ekstraktor yang suka residuals()
atau fitted()
akan NA
mengisi output mereka dengan s untuk kasus yang dihilangkan na.exclude
, sehingga memiliki output dengan panjang yang sama dengan variabel input.
> N <- 20 # generate some data
> y1 <- rnorm(N, 175, 7) # criterion 1
> y2 <- rnorm(N, 30, 8) # criterion 2
> x <- 0.5*y1 - 0.3*y2 + rnorm(N, 0, 3) # predictor
> y1[c(1, 3, 5)] <- NA # some NA values
> y2[c(7, 9, 11)] <- NA # some other NA values
> Y <- cbind(y1, y2) # matrix for multivariate regression
> fitO <- lm(Y ~ x, na.action=na.omit) # fit with na.omit
> dim(residuals(fitO)) # use extractor function
[1] 14 2
> fitE <- lm(Y ~ x, na.action=na.exclude) # fit with na.exclude
> dim(residuals(fitE)) # use extractor function -> = N
[1] 20 2
> dim(fitE$residuals) # access residuals directly
[1] 14 2
b) Masalah sebenarnya bukan dengan perbedaan antara na.omit
dan na.exclude
, Anda tampaknya tidak ingin penghapusan dengan santai yang memperhitungkan variabel kriteria, yang keduanya lakukan.
> X <- model.matrix(fitE) # design matrix
> dim(X) # casewise deletion -> only 14 complete cases
[1] 14 2
Hasil regresi tergantung pada matriks (pseudoinverse dari matriks desain , koefisien ) dan topi matriks , nilai yang dipasang ). Jika Anda tidak ingin penghapusan dengan santai, Anda memerlukan matriks desain berbeda untuk setiap kolom , jadi tidak ada jalan lain untuk menyesuaikan regresi terpisah untuk setiap kriteria. Anda dapat mencoba menghindari overhead dengan melakukan sesuatu di sepanjang baris berikut ini: X β = X + Y H = X X + Y = H Y X YX+= ( X′X)- 1X′Xβ^= X+YH= XX+Y^= HYXYlm()
> Xf <- model.matrix(~ x) # full design matrix (all cases)
# function: manually calculate coefficients and fitted values for single criterion y
> getFit <- function(y) {
+ idx <- !is.na(y) # throw away NAs
+ Xsvd <- svd(Xf[idx , ]) # SVD decomposition of X
+ # get X+ but note: there might be better ways
+ Xplus <- tcrossprod(Xsvd$v %*% diag(Xsvd$d^(-2)) %*% t(Xsvd$v), Xf[idx, ])
+ list(coefs=(Xplus %*% y[idx]), yhat=(Xf[idx, ] %*% Xplus %*% y[idx]))
+ }
> res <- apply(Y, 2, getFit) # get fits for each column of Y
> res$y1$coefs
[,1]
(Intercept) 113.9398761
x 0.7601234
> res$y2$coefs
[,1]
(Intercept) 91.580505
x -0.805897
> coefficients(lm(y1 ~ x)) # compare with separate results from lm()
(Intercept) x
113.9398761 0.7601234
> coefficients(lm(y2 ~ x))
(Intercept) x
91.580505 -0.805897
Perhatikan bahwa mungkin ada cara yang lebih baik secara numerik untuk menghitung dan , Anda dapat memeriksa dekomposisi- sebagai gantinya. Pendekatan SVD dijelaskan di sini di SE . Saya belum waktunya pendekatan di atas dengan matriks besar terhadap benar-benar menggunakan . H Q R YX+HQ RYlm()