Apakah -squared memiliki -value?


18

Saya sepertinya telah membingungkan diri saya sendiri mencoba memahami jika nilai -quared juga memiliki -value.rp

Seperti yang saya pahami, dalam korelasi linier dengan sekumpulan titik data dapat memiliki nilai mulai dari hingga dan nilai ini, apa pun itu, dapat memiliki nilai yang menunjukkan jika berbeda secara signifikan dari (yaitu , jika ada korelasi linier antara kedua variabel).r11pr0

Pindah ke regresi linier, suatu fungsi dapat dipasang ke data, dijelaskan oleh persamaan . dan (intersep dan slope) juga memiliki nilai- untuk menunjukkan apakah mereka berbeda secara signifikan dari .Y=a+bXabp0

Dengan asumsi saya sejauh ini telah memahami segalanya dengan benar, apakah nilai untuk dan nilai untuk adalah hal yang sama? Maka apakah benar mengatakan bahwa itu bukan kuadrat yang memiliki nilai- melainkan atau yang memiliki?prpbrprb

Jawaban:


14

Selain banyak (yang benar) komentar oleh pengguna lain menunjukkan bahwa p -nilai untuk r2 identik dengan p -nilai untuk global F tes, catatan bahwa Anda juga bisa mendapatkan p -nilai terkait dengan r2 " langsung "menggunakan fakta bahwa r2 bawah hipotesis nol didistribusikan sebagai , di manavndanvdadalah derajat pembilang dan penyebut kebebasan, masing-masing, untukF-statisticterkait.Beta(vn2,vd2)vnvdF

Poin ke-3 dalam turunan dari subbagian distribusi lain dari entri Wikipedia tentang distribusi beta memberi tahu kita bahwa:

Jika dan Y χ 2 ( β ) independen, maka XXχ2(α)Yχ2(β).XX+YBeta(α2,β2)

Kita bisa menulis di X itur2Formulir X + Y.XX+Y

Biarkan adalah jumlah total kotak untuk variabel Y , S S E adalah jumlah dari kesalahan kuadrat untuk regresi Y pada beberapa variabel lain, dan S S R menjadi "jumlah kuadrat berkurang," yaitu, S S R = S S Y - S S E . Kemudian r 2 = 1 - S S ESSYYSSEYSSRSSR=SSYSSE Dan tentu saja, sebagai jumlah kuadrat,SSRdanSSEkeduanya didistribusikan sebagaiχ2denganvndanvdderajat kebebasan, masing-masing. Oleh karena itu, r2Beta(vn

r2=1SSESSY=SSYSSESSY=SSRSSR+SSE
SSRSSEχ2vnvd (Tentu saja, saya tidak menunjukkan bahwa kedua chi-square itu independen. Mungkin seorang komentator dapat mengatakan sesuatu tentang itu.)
r2Beta(vn2,vd2)

Demonstrasi dalam R (meminjam kode dari @ung):

set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)

# Pearson's product-moment correlation
# 
# data:  x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
#  -0.2043606  0.6312210
# sample estimates:
#       cor 
# 0.2618393 

summary(lm(y~x))

# Call:
#   lm(formula = y ~ x)
# 
# Residuals:
#     Min      1Q  Median      3Q     Max 
# -1.6399 -0.6246  0.1968  0.5168  2.0355 
# 
# Coefficients:
#             Estimate Std. Error t value Pr(>|t|)    
# (Intercept)   4.6077     0.4534  10.163 6.96e-09 ***
# x             1.1121     0.9662   1.151    0.265    
# ---
#   Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# 
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared:  0.06856,  Adjusted R-squared:  0.01681 
# F-statistic: 1.325 on 1 and 18 DF,  p-value: 0.2648

1 - pbeta(0.06856, 1/2, 18/2)

# [1] 0.2647731

6

Saya harap jawaban keempat ini (!) Mengklarifikasi lebih lanjut.

Dalam regresi linier sederhana, ada tiga tes setara:

  1. uji-t untuk kemiringan populasi nol X
  2. uji-t untuk korelasi nol populasi antara dan respon YXY
  3. Uji F untuk populasi nol R-kuadrat, yaitu tidak ada variabilitas dapat dijelaskan dengan X yang berbeda .YX

Ketiga tes memeriksa hubungan linier antara dan Y dan, untungnya (!), Semuanya mengarah pada hasil yang sama. Statistik pengujian mereka setara. (Tes 1 & 2 didasarkan pada distribusi Student dengan n - 2 df yang sesuai dengan distribusi sampel F tes 3, hanya dengan statistik uji kuadrat).XYn2

Contoh cepat dalam R:

# Input
set.seed(3)

n <- 100
X <- runif(n)
Y <- rnorm(n) + X

cor.test(~ X + Y) # For test 2 (correlation)

# Output (part)
# t = 3.1472, df = 98, p-value = 0.002184
# alternative hypothesis: true correlation is not equal to 0

# Input (for the other two tests)
fit <- lm(Y ~ X)
summary(fit)      

# Output (partial)
Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -0.03173    0.18214  -0.174  0.86204   
X            1.02051    0.32426   3.147  0.00218 **
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9239 on 98 degrees of freedom
Multiple R-squared:  0.09179,   Adjusted R-squared:  0.08253 
F-statistic: 9.905 on 1 and 98 DF,  p-value: 0.002184

Seperti yang Anda lihat, ketiga tes menghasilkan nilai p yang sama 0,00218. Perhatikan bahwa tes 3 adalah yang ada di baris terakhir dari output.

Jadi uji F Anda untuk kuadrat-R adalah yang sangat sering, meskipun tidak banyak ahli statistik menafsirkannya sebagai tes untuk kuadrat-R.


5

Anda tampaknya memiliki pemahaman yang layak kepada saya. Kita bisa mendapatkan nilai- untuk r 2 , tetapi karena ini adalah fungsi (non-stokastik) dari r , p s akan identik. pr2rp


Saya kira tidak. Menghubungkan inferensi tentang dan r 2 ke inferensi tentang α dan β dari OLS, ρ signifikan jika β adalah nol, terlepas dari α . Namun, r 2 adalah signifikan jika α atau β tidak nol. Ini membantu memvisualisasikan penilaian masing-masing tes. ρr2αβρβαr2αβ
AdamO

1
@ AdamO, saya tidak bisa mengikuti argumen dalam komentar Anda. Mirip dengan Michael Mayer posting di bawah, di R coba: set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x)). P untuk r adalah .265. P untuk b & untuk uji F global identik, meskipun p untuk a adalah 6.96e-09.
gung - Reinstate Monica

Poin saya tepat. berbeda dari r 2 dan p -value mereka TIDAK identik. r 2 mungkin merupakan fungsi r , tetapi itu bahkan bukan fungsi monoton. r 2 dapat menjadi signifikan ketika r tidak. Apa yang diukur r 2 ? Ini adalah kesalahan standar residual setelah menggambar trendline OLS dan menghitung residu. Dalam contoh Anda, apakah varian sisa kurang dari varian Y tanpa syarat ? Benar. r 2rr2pr2rr2rr2Yr2itu penting. Anda dapat menghitung karakteristik operasi dengan bootstrap dan koneksi antara ANOVA dan kuadrat terkecil biasa juga menjelaskan masalah ini.
AdamO

4
Anda juga bisa mendapatkan nilai- terkait dengan r 2 "langsung" menggunakan fakta bahwa r 2 di bawah hipotesis nol didistribusikan sebagai B e t a ( v npr2r2, di manavndanvdadalah derajat pembilang dan penyebut kebebasan, masing-masing, untukF-statisticterkait. (Lihat identitas ke-3 di sini:en.wikipedia.org/wiki/….) Jadi, dengan menggunakan contoh data @ gung, jika dalamkita memasukkankita dapatkan. Beta(vn2,vd2)vnvdFR1 - pbeta(0.06856, 1/2, 18/2)0.2647731
Jake Westfall

4
@ AdamO, saya masih tidak mengerti. Mereka berdua .265, bagaimana mereka tidak identik?
gung - Reinstate Monica

4

Ada beberapa cara untuk memperoleh statistik uji untuk tes korelasi Pearson, . Untuk mendapatkan nilai- p , perlu ditekankan bahwa Anda memerlukan tes dan distribusi sampel statistik uji di bawah hipotesis nol. Judul dan pertanyaan Anda tampaknya memiliki beberapa kebingungan antara korelasi Pearson dan "perbedaan dijelaskan" r 2 . Saya akan mempertimbangkan koefisien korelasi terlebih dahulu.ρpr2

Tidak ada cara "terbaik" untuk menguji korelasi Pearson yang saya sadari. Transformasi Fisher's Z adalah salah satu cara, berdasarkan transformasi hiperbolik, sehingga kesimpulannya sedikit lebih efisien. Ini tentu saja merupakan pendekatan "baik", tetapi yang menyedihkan adalah bahwa inferensi untuk parameter ini konsisten dengan inferensi tentang parameter slope untuk asosiasi: mereka menceritakan kisah yang sama dalam jangka panjang.β

Alasan mengapa ahli statistik memiliki (secara klasik) tes yang sepenuhnya lebih disukai dari adalah karena kami memang memiliki tes "terbaik": regresi linier, yang merupakan estimator BLUE. Di masa statistik modern, kita tidak benar-benar peduli jika tes itu "terbaik" lagi, tetapi regresi linier memiliki banyak sifat fantastis lainnya yang membenarkan penggunaannya yang berkelanjutan untuk menentukan hubungan antara dua variabel. Secara umum, intuisi Anda benar: intinya hal yang sama, dan kami memfokuskan perhatian kami pada β sebagai ukuran asosiasi yang lebih praktis.ββ

The adalah fungsi dari kedua lereng dan mencegat. Jika salah satu dari nilai-nilai ini bukan nol, r 2 harus memiliki distribusi sampel yang dapat dilihat relatif terhadap apa yang diharapkan jika parameter linier adalah nol. Namun, menurunkan distribusi r 2 di bawah nol dan membandingkan dengan r 2r2r2r2r2di bawah beberapa hipotesis alternatif tidak memberi saya kepercayaan diri bahwa tes ini memiliki banyak kekuatan untuk mendeteksi apa yang kita inginkan. Hanya firasat. Sekali lagi beralih ke penaksir "terbaik", OLS memberi kami perkiraan "terbaik" untuk kemiringan dan penyadapan, jadi kami memiliki keyakinan bahwa pengujian kami setidaknya baik untuk menentukan hubungan yang sama (jika ada) dengan langsung menguji parameter model . Bagi saya, bersama-sama menguji dan β dengan OLS lebih unggul daripada tes apa pun tentang r 2 kecuali dalam kasus yang jarang terjadi (mungkin) aplikasi kalibrasi pemodelan prediksi non-bersarang ... tapi BIC mungkin akan menjadi ukuran yang lebih baik dalam skenario itu bagaimanapun.αβr2


1
"The adalah fungsi dari kedua lereng dan mencegat." Mungkin saya melewatkan sesuatu tetapi ... bukankah itu hanya fungsi lereng? Mungkin Anda bisa memberikan demonstrasi nyata? r2
Jake Westfall

Tentu. Ingatlah bahwa jika data yang diamati sangat sesuai dengan garis tren, maka tepat. Pertimbangkan data "respons datar" tanpa variabilitas tetapi intersep yang tidak nol, sehingga semua tupel berbentuk ( x i , β 0 ) untuk semua i { 1 , 2 , ... n } . r 2 = 1 seperti yang disinggung. Koefisien determinasi berfungsi sebagai ringkasan yang masuk akal dari kemampuan prediksi untuk persamaan linier, dan untuk mendapatkan prediksi tersebut membutuhkan kemiringan dan intersep. r2=1(xi,β0)i{1,2,n}r2=1
AdamO

1

Ini bukan cara saya menafsirkan banyak hal. Saya tidak berpikir saya akan pernah menghitung nilai untuk r atau r 2 . r dan r 2 adalah ukuran kualitatif dari suatu model, bukan ukuran yang kami bandingkan dengan distribusi, sehingga nilai p tidak masuk akal.prr2rr2p

pbb0rr2r2

pa000

pr2


4
FR2FR2nF=(n2)R2/(1R2)bR2

Dalam praktiknya sepertinya orang tidak berpikir dalam arti pentingnya r atau r ^ 2. Yang mungkin lebih bermanfaat adalah interval kepercayaan di sekitar mereka.
N Brouwer
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.