Regresi berganda atau koefisien korelasi parsial? Dan hubungan keduanya


35

Saya bahkan tidak tahu apakah pertanyaan ini masuk akal, tetapi apa perbedaan antara regresi berganda dan korelasi parsial (terlepas dari perbedaan yang jelas antara korelasi dan regresi, yang bukan tujuan saya)?

Saya ingin mencari tahu yang berikut:
Saya memiliki dua variabel independen ( x1 , x2 ) dan satu variabel dependen ( y ). Sekarang secara individual variabel independen tidak berkorelasi dengan variabel dependen. Tetapi untuk yang diberikan x1 y berkurang ketika x2 berkurang. Jadi, apakah saya menganalisisnya melalui regresi berganda atau korelasi parsial ?

sunting untuk semoga meningkatkan pertanyaan saya: Saya mencoba memahami perbedaan antara regresi berganda dan korelasi parsial. Jadi, ketika y menurun untuk diberikan x1 ketika x2 menurun, apakah itu karena efek gabungan dari x1 dan x2 pada y (regresi berganda) atau apakah karena menghilangkan efek x1 (korelasi parsial)?


3
Apa pertanyaan substantif yang Anda coba jawab?
gung - Reinstate Monica

Lihat juga stats.stackexchange.com/q/50156/3277 pertanyaan yang sangat mirip .
ttnphns

Jawaban:


32

Koefisien regresi linier berganda dan korelasi parsial terkait langsung dan memiliki signifikansi yang sama (nilai-p). Parsial r hanyalah cara lain untuk membakukan koefisien, bersama dengan koefisien beta (koefisien regresi terstandarisasi) 1 . Jadi, jika variabel dependen adalah y dan independen adalah x 1 dan x 2 maka1yx1x2

Beta:βx1=ryx1ryx2rx1x21rx1x22

Partial r:ryx1.x2=ryx1ryx2rx1x2(1ryx22)(1rx1x22)

Anda melihat bahwa pembilang sama yang memberitahu bahwa kedua rumus mengukur efek unik yang sama dari . Saya akan mencoba menjelaskan bagaimana kedua formula itu identik secara struktural dan bagaimana keduanya tidak.x1

Misalkan Anda memiliki z-standar (rata-rata 0, varian 1) ketiga variabel. Pembilang maka sama dengan kovarians antara dua jenis residual : (a) residual yang tersisa dalam memprediksi oleh x 2 [kedua variabel standar] dan (b) residual yang tersisa dalam memprediksi x 1 dengan x 2 [kedua variabel standar] . Selain itu, varian residu (a) adalah 1 - r 2 y x 2 ; varians residu (b) adalah 1 - r 2 x 1 x 2 .yx2x1x21ryx221rx1x22

Rumus untuk korelasi parsial kemudian muncul dengan jelas rumus polos Pearson , seperti yang dihitung dalam contoh ini antara residual (a) dan residual (b): Pearson r , kita tahu, adalah kovarians dibagi dengan penyebut yang merupakan rata-rata geometri dari dua varian yang berbeda.rr

Koefisien beta terstandarisasi secara struktural seperti Pearson , hanya saja penyebutnya adalah rerata geometris dari varian dengan diri sendiri . Varians residu (a) tidak dihitung; itu digantikan oleh penghitungan kedua varian residual (b). Beta dengan demikian adalah kovarians dari dua residual relatif varians dari salah satu dari mereka (khususnya, yang berkaitan dengan prediktor minat, x 1 ). Sementara korelasi parsial, sebagaimana telah diperhatikan, adalah bahwa kovarians yang sama relatif varian hibrida mereka . Kedua jenis koefisien ini merupakan cara untuk menstandarisasi pengaruh x 1 di lingkungan prediktor lain.rx1x1

Beberapa konsekuensi numerik dari perbedaan. Jika R-kuadrat dari regresi berganda oleh x 1 dan x 2 terjadi menjadi 1 maka kedua korelasi parsial dari prediktor dengan dependen juga akan menjadi 1 nilai absolut (tetapi beta umumnya tidak akan menjadi 1). Memang, seperti yang dikatakan sebelumnya, r y x 1 . x 2 adalah korelasi antara residu dan residu . Jika apa tidak x 2 dalam y adalah persis apa yang tidak x 2 dalam x 1yx1x2ryx1.x2y <- x2x1 <- x2x2y x2x1maka tidak ada apa-apa di dalam yang tidak x 1 maupun x 2 : cocok sepenuhnya. Berapapun jumlah porsi yang tidak dijelaskan (dengan x 2 ) yang tersisa di y ( 1 - r 2 y x 2 ), jika ditangkap secara relatif tinggi oleh bagian independen x 1 (oleh 1 - r 2 x 1 x 2 ), r y x 1 . x 2 akan menjadi tinggi. β x 1yx1x2x2y1ryx22x11rx1x22ryx1.x2βx1, di sisi lain, akan menjadi tinggi hanya asalkan bagian yang ditangkap yang tidak dijelaskan dari itu sendiri merupakan bagian substansial dari y .yy


Dari rumus di atas satu memperoleh (dan membentang dari regresi 2-prediktor untuk regresi dengan jumlah sewenang-wenang prediktor ) Rumus konversi antara beta dan sesuai parsial r:x1,x2,x3,...

ryx1.X=βx1var(ex1X)var(eyX),

di mana adalah kumpulan semua prediktor kecuali arus ( x 1 ); e y X adalah residu dari kemunduran y oleh X , dan e x 1X adalah residu dari kemunduran x 1 oleh X , variabel-variabel di kedua regresi ini memasukkannya terstandarisasi .Xx1eyXyXex1Xx1X

Catatan: jika kita perlu menghitung korelasi parsial dengan setiap prediktor x kita biasanya tidak akan menggunakan rumus ini yang membutuhkan dua regresi tambahan. Sebaliknya, operasi sweep (sering digunakan secara bertahap dan semua algoritma regresi subset) akan dilakukan atau matriks korelasi anti-gambar akan dihitung.yx


β x 1 = b x 1 σ x 11 adalah hubungan antarabbakudankoefisienβterstandarisasidalam regresi dengan intersep.βx1=bx1σx1σybβ


Terima kasih. Tetapi bagaimana saya memutuskan yang mana yang harus saya ikuti, misalnya untuk tujuan yang dijelaskan dalam pertanyaan saya?
user34927

2
Jelas, Anda bebas memilih: pembilangnya sama, sehingga mereka menyampaikan informasi yang sama . Adapun pertanyaan Anda (tidak sepenuhnya diklarifikasi), tampaknya tentang topik "dapat menyesal. Coef. Menjadi 0 ketika r bukan 0"; "dapat menyesal. coef. bukan 0 ketika r adalah 0". Ada banyak pertanyaan tentang itu di situs. Sebagai contoh, Anda dapat membaca stats.stackexchange.com/q/14234/3277 ; stats.stackexchange.com/q/44279/3277 .
ttnphns

Saya mencoba mengklarifikasi pertanyaan saya ..
user34927

Memperbaiki X1 ("diberikan x1") = menghapus (mengendalikan) efek X1. Tidak ada yang namanya "efek gabungan" dalam regresi berganda (kecuali jika Anda menambahkan interaksi X1 * X2). Efek dalam regresi multuple kompetitif. Efek regresi linier sebenarnya korelasi parsial.
ttnphns

1
Tunggu sebentar, @ user34927. to prove that the DV (Y) is significantly correlated with one of two IVs (X1) if the effect of the other IV (X2) is removedEfeknya dihapus dari mana ? Jika Anda "menghapus" X2 dari Y dan X1 maka kor. antara Y dan X1 adalah korelasi parsial . Jika Anda "menghapus" X2 dari X1 hanya maka kor. antara Y dan X1 disebut korelasi bagian (atau setengah parsial). Apakah Anda benar-benar bertanya tentang itu ?
ttnphns

0

βx1SSY/SSX1

βx1=ryx1ryx2 rx1x21rx1x22×SSYSSX1,
where SSY=i(yiy¯)2 and SSX1=i(x1ix¯1)2.

You are giving the formula of b. My answer was about β.
ttnphns
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.