Penyebut penduga varians (tidak bias) adalah karena ada pengamatan dan hanya satu parameter yang diperkirakan.
Dengan cara yang sama saya bertanya-tanya mengapa penyebut kovarians tidak menjadi ketika dua parameter diperkirakan?
Penyebut penduga varians (tidak bias) adalah karena ada pengamatan dan hanya satu parameter yang diperkirakan.
Dengan cara yang sama saya bertanya-tanya mengapa penyebut kovarians tidak menjadi ketika dua parameter diperkirakan?
Jawaban:
Kasus khusus harus memberi Anda intuisi; pikirkan hal-hal berikut:
Anda senang bahwa yang terakhir adalah karena koreksi Bessel.
Tetapi mengganti dengan X di ^ C o v ( X , Y ) untuk yang pertama memberi ∑ n i = 1 ( X i - ¯ X ) ( X i - ¯ X , jadi apa yang menurut Anda paling baik mengisi kekosongan?
Jawaban cepat dan kotor ... Mari kita pertimbangkan dulu ; jika Anda memiliki n pengamatan dengan nilai ekspektasi yang diketahui E ( X ) = 0 Anda akan menggunakan 1 untuk memperkirakan varians.
Nilai yang diharapkan tidak diketahui, Anda dapat mengubah pengamatan Anda menjadi pengamatan n - 1 dengan nilai harapan yang diketahui dengan mengambil A i = X i - X 1 untuk i = 2 , … , n . Anda akan mendapatkan formula dengan n - 1 di penyebut - namun A i tidak independen dan Anda harus mempertimbangkan ini; pada akhirnya Anda akan menemukan formula yang biasa.
Sekarang untuk kovarians Anda dapat menggunakan ide yang sama: jika nilai yang diharapkan dari adalah ( 0 , 0 ) , Anda akan memiliki 1 dalam rumus. Dengan mengurangi(X1,Y1)ke semua nilai yang diamati lainnya, Anda mendapatkann-1pengamatan dengan nilai yang diharapkan diketahui ... dan1 dalam formula - sekali lagi, ini memperkenalkan beberapa ketergantungan untuk diperhitungkan.
PS Cara bersih untuk melakukannya adalah untuk memilih basis ortonormal dari , yaitu n - 1 vektor c 1 , ... , c n - 1 ∈ R n sehingga
You can then define variables and . The are independent, have expected value , and have same variance/covariance than the original variables.
All the point is that if you want to get rid of the unknown expectation, you drop one (and only one) observation. This works the same for both cases.
Here is a proof that the p-variate sample covariance estimator with denominator is an unbiased estimator of the covariance matrix:
.
To show:
Proof:
Next:
(1)
(2)
Therefore:
And so , with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Mulai .
2) Sampel kovarians sebanding dengan . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?