Tidak semuanya. Besarnya koefisien tergantung langsung pada skala yang dipilih untuk variabel, yang merupakan keputusan pemodelan agak sewenang-wenang.
Untuk melihat ini, pertimbangkan model regresi linier yang memprediksi lebar kelopak iris (dalam sentimeter) dengan panjang kelopak (dalam sentimeter):
summary(lm(Petal.Width~Petal.Length, data=iris))
# Call:
# lm(formula = Petal.Width ~ Petal.Length, data = iris)
#
# Residuals:
# Min 1Q Median 3Q Max
# -0.56515 -0.12358 -0.01898 0.13288 0.64272
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) -0.363076 0.039762 -9.131 4.7e-16 ***
# Petal.Length 0.415755 0.009582 43.387 < 2e-16 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 0.2065 on 148 degrees of freedom
# Multiple R-squared: 0.9271, Adjusted R-squared: 0.9266
# F-statistic: 1882 on 1 and 148 DF, p-value: < 2.2e-16
Model kami mencapai nilai R ^ 2 yang disesuaikan dari 0,9266 dan memberikan nilai koefisien 0,415755 ke variabel Petal.Length.
Namun, pilihan untuk mendefinisikan Petal. Panjang dalam sentimeter cukup arbitrer, dan kita bisa mendefinisikan variabel dalam meter:
iris$Petal.Length.Meters <- iris$Petal.Length / 100
summary(lm(Petal.Width~Petal.Length.Meters, data=iris))
# Call:
# lm(formula = Petal.Width ~ Petal.Length.Meters, data = iris)
#
# Residuals:
# Min 1Q Median 3Q Max
# -0.56515 -0.12358 -0.01898 0.13288 0.64272
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) -0.36308 0.03976 -9.131 4.7e-16 ***
# Petal.Length.Meters 41.57554 0.95824 43.387 < 2e-16 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 0.2065 on 148 degrees of freedom
# Multiple R-squared: 0.9271, Adjusted R-squared: 0.9266
# F-statistic: 1882 on 1 and 148 DF, p-value: < 2.2e-16
Tentu saja, ini tidak benar-benar mempengaruhi model yang dipasang dengan cara apa pun - kami hanya menetapkan koefisien 100x lebih besar untuk Petal. Panjang (41,57554) daripada yang kami lakukan untuk Petal. Panjang (0,415755). Semua sifat lain dari model (disesuaikan R ^ 2, t-statistik, nilai-p, dll) adalah identik.
Secara umum ketika memasang model linier yang teratur, pertama-tama orang akan menormalkan variabel (misalnya, memiliki mean 0 dan varians unit) untuk menghindari lebih menyukai beberapa variabel daripada yang lain berdasarkan skala yang dipilih.
Dengan asumsi Data Normalisasi
Bahkan jika Anda telah menormalkan semua variabel, variabel dengan koefisien yang lebih tinggi mungkin masih tidak berguna dalam prediksi karena variabel independen jarang ditetapkan (memiliki varian rendah). Sebagai contoh, pertimbangkan dataset dengan variabel dependen Z dan variabel bebas X dan Y yang mengambil nilai biner
set.seed(144)
dat <- data.frame(X=rep(c(0, 1), each=50000),
Y=rep(c(0, 1), c(1000, 99000)))
dat$Z <- dat$X + 2*dat$Y + rnorm(100000)
Dengan konstruksi, koefisien untuk Y kira-kira dua kali lebih besar dari koefisien untuk X ketika keduanya digunakan untuk memprediksi Z melalui regresi linier:
summary(lm(Z~X+Y, data=dat))
# Call:
# lm(formula = Z ~ X + Y, data = dat)
#
# Residuals:
# Min 1Q Median 3Q Max
# -4.4991 -0.6749 -0.0056 0.6723 4.7342
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) -0.094793 0.031598 -3.00 0.0027 **
# X 0.999435 0.006352 157.35 <2e-16 ***
# Y 2.099410 0.031919 65.77 <2e-16 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 0.9992 on 99997 degrees of freedom
# Multiple R-squared: 0.2394, Adjusted R-squared: 0.2394
# F-statistic: 1.574e+04 on 2 and 99997 DF, p-value: < 2.2e-16
Namun, X menjelaskan lebih banyak varians dalam Z daripada Y (model regresi linier yang memprediksi Z dengan X memiliki nilai R ^ 2 0,2065, sedangkan model regresi linier yang memprediksi Z dengan Y memiliki nilai R ^ 2 0,0511):
summary(lm(Z~X, data=dat))
# Call:
# lm(formula = Z ~ X, data = dat)
#
# Residuals:
# Min 1Q Median 3Q Max
# -5.2587 -0.6759 0.0038 0.6842 4.7342
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 1.962629 0.004564 430.0 <2e-16 ***
# X 1.041424 0.006455 161.3 <2e-16 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 1.021 on 99998 degrees of freedom
# Multiple R-squared: 0.2065, Adjusted R-squared: 0.2065
# F-statistic: 2.603e+04 on 1 and 99998 DF, p-value: < 2.2e-16
melawan:
summary(lm(Z~Y, data=dat))
# Call:
# lm(formula = Z ~ Y, data = dat)
#
# Residuals:
# Min 1Q Median 3Q Max
# -5.0038 -0.7638 -0.0007 0.7610 5.2288
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) -0.09479 0.03529 -2.686 0.00724 **
# Y 2.60418 0.03547 73.416 < 2e-16 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 1.116 on 99998 degrees of freedom
# Multiple R-squared: 0.05114, Adjusted R-squared: 0.05113
# F-statistic: 5390 on 1 and 99998 DF, p-value: < 2.2e-16
Kasus Multi-Collinearity
Kasus ketiga di mana nilai-nilai koefisien besar bisa menipu adalah dalam kasus multi-collinearity yang signifikan antara variabel. Sebagai contoh, pertimbangkan dataset di mana X dan Y sangat berkorelasi tetapi W tidak berkorelasi tinggi dengan dua lainnya; kami mencoba memprediksi Z:
set.seed(144)
dat <- data.frame(W=rnorm(100000),
X=rnorm(100000))
dat$Y <- dat$X + rnorm(100000, 0, 0.001)
dat$Z <- 2*dat$W+10*dat$X-11*dat$Y + rnorm(100000)
cor(dat)
# W X Y Z
# W 1.000000e+00 5.191809e-05 5.200434e-05 0.8161636
# X 5.191809e-05 1.000000e+00 9.999995e-01 -0.4079183
# Y 5.200434e-05 9.999995e-01 1.000000e+00 -0.4079246
# Z 8.161636e-01 -4.079183e-01 -4.079246e-01 1.0000000
Variabel-variabel ini memiliki rata-rata (0) dan varians (~ 1) yang sama, dan regresi linier memberikan nilai koefisien yang jauh lebih tinggi (dalam nilai absolut) ke X (kira-kira 15) dan Y (kira-kira 16) daripada pada W ( kira-kira 2):
summary(lm(Z~W+X+Y, data=dat))
# Call:
# lm(formula = Z ~ W + X + Y, data = dat)
#
# Residuals:
# Min 1Q Median 3Q Max
# -4.1886 -0.6760 0.0026 0.6679 4.2232
#
# Coefficients:
# Estimate Std. Error t value Pr(>|t|)
# (Intercept) 1.831e-04 3.170e-03 0.058 0.954
# W 2.001e+00 3.172e-03 630.811 < 2e-16 ***
# X 1.509e+01 3.177e+00 4.748 2.05e-06 ***
# Y -1.609e+01 3.177e+00 -5.063 4.13e-07 ***
# ---
# Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
#
# Residual standard error: 1.002 on 99996 degrees of freedom
# Multiple R-squared: 0.8326, Adjusted R-squared: 0.8326
# F-statistic: 1.658e+05 on 3 and 99996 DF, p-value: < 2.2e-16
Namun, di antara tiga variabel dalam model W adalah yang paling penting: Jika Anda menghapus W dari model penuh, R ^ 2 turun dari 0,833 menjadi 0,166, sedangkan jika Anda menjatuhkan X atau Y, R ^ 2 hampir tidak berubah.