Tindakan berulang ANOVA vs. ANOVA faktorial dengan faktor subjek: memahami "kesalahan strata" dan istilah Kesalahan () dalam aov


8

Pertimbangkan tindakan berulang ANOVA (RM-ANOVA) dengan satu faktor dalam subjek Adan beberapa pengukuran per subjek untuk setiap level A.

Ini terkait erat dengan ANOVA dua arah dengan dua faktor: Adan subject. Mereka menggunakan dekomposisi identik jumlah kuadrat menjadi empat bagian: A, subject, A⋅subject, dan residual. Namun, ANOVA dua arah menguji efek A dengan membandingkan SS A dengan SS residual, sedangkan RM-ANOVA menguji efek A dengan membandingkan SS A dengan A interaksi subjek SS.

Kenapa bedanya?

  1. Apakah perbedaan ini secara otomatis mengikuti dari struktur ukuran data yang diulang, atau apakah itu suatu konvensi?
  2. Apakah perbedaan antara ANOVA dua arah dan RM-ANOVA sesuai dengan pengujian dua null berbeda? Jika demikian, apa sebenarnya mereka dan mengapa kami menggunakan null yang berbeda dalam dua kasus ini?
  3. Tes ANOVA dua arah dapat dipahami sebagai uji F antara dua model bersarang: model lengkap, dan model tanpa A. Bisakah RM-ANOVA dipahami dengan cara yang sama?

(Jika hanya ada satu pengukuran per subjek untuk setiap level A, maka perbedaannya menghilang karena subjek A dan variasi residu tidak dapat dipisahkan: Apakah pengulangan satu arah mengukur ANOVA setara dengan ANOVA dua arah? )


Demonstrasi

Saya akan menggunakan data mainan yang d2dihasilkan di http://dwoll.de/rexrepos/posts/anovaMixed.html . Halaman web yang sama menunjukkan sintaks yang benar untuk RM-ANOVA.

# Discarding between-subject factors and leaving only one within-subject factor
d = d2[d2$Xb1=='CG' & d2$Xb2 == 'f', c(1,4,6)]

(Lihat versi yang dapat direproduksi di sini di pastebin .) Data terlihat seperti itu:

     id Xw1     Y
1    s1   A  28.6
2    s1   A  96.6
3    s1   A  64.8
4    s1   B 107.5
5    s1   B  77.3
6    s1   B 120.9
7    s1   C 141.2
8    s1   C 124.1
9    s1   C  88.0
10   s2   A  86.7
...

Inilah ANOVA dua arah: summary(aov(Y ~ Xw1*id, d))

             Df Sum Sq Mean Sq F value   Pr(>F)    
Xw1           2  95274   47637  16.789 3.73e-07 ***
id           19  31359    1650   0.582    0.913    
Xw1:id       38  71151    1872   0.660    0.929    
Residuals   120 340490    2837                 

Inilah RM-ANOVA: summary(aov(Y ~ Xw1 + Error(id/Xw1), d))

Error: id
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 19  31359    1650               

Error: id:Xw1
          Df Sum Sq Mean Sq F value   Pr(>F)    
Xw1        2  95274   47637   25.44 9.73e-08 ***
Residuals 38  71151    1872                     

Error: Within
           Df Sum Sq Mean Sq F value Pr(>F)
Residuals 120 340490    2837            

Perhatikan SS dekomposisi identik, tapi dua arah tes ANOVA Xw1terhadap sisa, sementara tes RM-ANOVA Xw1terhadap Xw1:idinteraksi.

Mengapa?

Pertanyaan ini terkait dengan Cara menulis istilah kesalahan dalam tindakan berulang ANOVA di R: Kesalahan (subjek) vs Kesalahan (subjek / waktu) . Jika kita mencoba menggunakan Error(id)alih-alih Error(id/Xw1)dalam contoh di atas, maka Xw1akan diuji terhadap Xw1:idinteraksi yang disatukan dengan variasi residu.

(Masalah yang sama muncul dalam faktorial RM-ANOVA dengan beberapa faktor dalam-subjek, di mana setiap faktor atau interaksi diuji terhadap "istilah kesalahan" sendiri alias "strata kesalahan". Strata kesalahan ini selalu diberikan oleh interaksi yang sesuai dengan blok tersebut) / plot / variabel subjek id.)


Utas yang relevan: r.789695.n4.nabble.com/AOV-and-Error-td865845.html - tetapi tidak ada jawaban nyata di sana.
amoeba

Oke, saya membaca kembali makalah @ JakeWestfall jakewestfall.org/publications/JWK.pdf dan menyadari bahwa seluruh masalah bermuara pada subjectefek pengobatan RM-ANOVA (dan semua interaksinya!) Secara acak, sedangkan ANOVA 2-arah memperlakukannya sebagai tetap. Saya harus memikirkan lebih lanjut untuk mengetahui semua detailnya.
amoeba

Untuk poin (2), hipotesis nol adalah persis apa yang membuat rasio kuadrat rata-rata yang diharapkan dari dua jumlah kuadrat yang sama sama dengan satu dan parameter noncentralitas yang sesuai dengan kedua jumlah kuadrat sama dengan 0. Hal ini agar nilai untuk statistik dapat dihitung. Saat ini tidak jelas bagi saya mengapa kita dapat mencapai ketiga tujuan ini dalam nol yang biasa kita lihat di ANOVA, tapi sepertinya kita hanya perlu fokus pada rasio EMS ketika efeknya acak dan parameter noncentrality pembilang SS ketika efek (pembilang) diperbaiki. pF
user795305

Komentar-komentar ini berhubungan dengan teorema cochran ( en.wikipedia.org/wiki/Cochran%27s_theorem ). (Buku yang saya gunakan sebagai referensi ANOVA menyebut ini "Bhat's Lemma", by the way.)
user795305

Pertanyaan serupa di sini, Memahami plot yang dipisah , tetapi belum ada jawaban yang hebat
Aaron meninggalkan Stack Overflow

Jawaban:


2

... ANOVA dua arah menguji efek A dengan membandingkan SS A dengan SS residual, sedangkan RM-ANOVA menguji efek A dengan membandingkan SS A dengan SS interaksi subjek.

1) Apakah perbedaan ini secara otomatis mengikuti dari struktur ukuran data yang diulang, atau apakah itu suatu konvensi?

Ini mengikuti dari struktur ukuran data yang diulang. Prinsip dasar analisis ragam adalah bahwa kami membandingkan variasi antara tingkat perawatan dengan variasi antara unit yang menerima perlakuan itu. Apa yang membuat ukuran kasus yang diulang agak rumit adalah memperkirakan variasi kedua ini.

Dalam kasus paling sederhana ini, hal yang kami minati adalah perbedaan antara level A. Jadi, berapa unit yang telah kami ukur perbedaannya? Ini jumlah mata pelajaran, bukan jumlah pengamatan. Artinya, setiap subjek memberi kita informasi independen tambahan tentang perbedaan, bukan setiap pengamatan. Menambahkan lebih banyak tindakan berulang meningkatkan akurasi informasi kami tentang setiap subjek, tetapi tidak memberi kami lebih banyak subjek.

Apa yang dilakukan oleh RM-Anova saat menggunakan interaksi subjek-A sebagai istilah kesalahan adalah dengan menggunakan variasi dalam perbedaan di antara level A di antara subjek sebagai variasi untuk menguji efek level A. Menggunakan kesalahan observasi sebagai gantinya menggunakan variasi dalam tindakan yang diulang pada setiap individu, yang tidak benar.

Pertimbangkan kasus di mana Anda mengambil lebih banyak dan lebih banyak data hanya pada beberapa individu. Jika menggunakan kesalahan tingkat observasi, Anda pada akhirnya akan mencapai signifikansi statistik, meskipun Anda hanya memiliki beberapa individu. Anda membutuhkan lebih banyak orang, bukan lebih banyak data pada mereka, untuk benar-benar meningkatkan kekuatan.

2) Apakah perbedaan antara ANOVA dua arah dan RM-ANOVA sesuai dengan pengujian dua null berbeda? Jika demikian, apa sebenarnya mereka dan mengapa kami menggunakan null yang berbeda dalam dua kasus ini?

Tidak, hipotesis nol yang sama. Yang berbeda adalah bagaimana kami memperkirakan statistik pengujian dan distribusi nolnya.

3) Uji ANOVA dua arah dapat dipahami sebagai uji F antara dua model bersarang: model penuh, dan model tanpa A. Bisakah RM-ANOVA dipahami dengan cara yang sama?

Ya, tapi tidak dengan cara yang Anda harapkan. Seperti yang Anda lihat dalam output dari aov, satu cara berpikir tentang model-model ini adalah mereka benar-benar beberapa model dalam satu, dengan satu model untuk setiap level.

Seseorang dapat menyesuaikan model untuk level yang lebih tinggi secara individual dengan rata-rata data pada level yang lebih rendah. Artinya, tes RM-Anova untuk A setara dengan standar Anova pada data rata-rata. Maka kita dapat membandingkan model dengan cara biasa.

> library(plyr)
> d2 <- ddply(d, ~Xw1 + id, summarize, Y=mean(Y))
> a1 <- aov(Y ~ id, d2)
> a2 <- aov(Y ~ Xw1+id, d2)
> anova(a1, a2)
Analysis of Variance Table

Model 1: Y ~ id
Model 2: Y ~ Xw1 + id
  Res.Df   RSS Df Sum of Sq      F    Pr(>F)    
1     40 55475                                  
2     38 23717  2     31758 25.442 9.734e-08 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Atau, seseorang dapat mencocokkan penuh aovdengan semua data tetapi tanpa persyaratan bunga, dan kemudian membandingkan kecocokan dengan data penuh aov, tetapi kemudian untuk membandingkan model, Anda perlu memilih tingkat model yang telah Anda pilih. berubah (di sini id:Xw1level) dan kemudian Anda dapat membandingkan kedua model.

> summary(aov(Y ~ 1 + Error(id/Xw1), d))

Error: id
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 19  31359    1650               

Error: id:Xw1
          Df Sum Sq Mean Sq F value Pr(>F)
Residuals 40 166426    4161               

Error: Within
           Df Sum Sq Mean Sq F value Pr(>F)
Residuals 120 340490    2837               
> (F <- ((166426 - 71151)/2) / (71151/38))
[1] 25.44202
> pf(F, 2, 38, lower=FALSE)
[1] 9.732778e-08

(+1) Terima kasih telah meluangkan waktu untuk menulis ini! Ini adalah perspektif yang menarik yang memungkinkan kita untuk mendapatkan beberapa intuisi tentang mengapa itu wajar untuk dibandingkan dengan jumlah interaksi kuadrat dalam kasus tindakan yang berulang. Namun, tampaknya gagal dalam menjelaskan rincian pengujian, karena Anda salah (menurut argumen dalam jawaban saya) mengklaim bahwa hipotesis nol adalah sama. Paragraf terakhir dari jawaban saya menulis apa yang saya jadikan hipotesis nol. Tolong beri tahu saya jika Anda pikir saya salah!
user795305

Saya pikir kita perlu membedakan antara apa yang sedang diuji dan apa asumsi dari hipotesis nol (yang merupakan bagian dari apa yang saya maksud ketika saya mengatakan distribusi nol berbeda). Σ ^ 2_ {id ∗ Xw1} = 0 yang Anda miliki sebenarnya tidak sedang diuji, Anda dapat memiliki data yang sama sekali tidak benar, tetapi jika X_ {w1j} persis sama dengan 0 untuk semua j maka Anda tidak akan menolak batal.
Aaron meninggalkan Stack Overflow

1
Pertanyaannya adalah, apa yang Anda simpulkan ketika Anda menolak nol? Dalam kedua kasus, Anda menyimpulkan bahwa Anda memiliki bukti bahwa cara kelompok berbeda. Anda tidak menyimpulkan bahwa rata-rata grup berbeda ATAU variansnya besar. Yaitu, hipotesis nol dalam kedua kasus itu hanyalah bahwa semua rata-rata kelompok adalah sama. Apa perubahan adalah statistik uji yang kami gunakan untuk menguji itu dan distribusi statistik uji itu.
Aaron meninggalkan Stack Overflow

1
Saya menyadari bahwa saya bingung dengan seluruh alur pemikiran Anda. Sebuah hipotesis nol tidak diturunkan, itu hanya dinyatakan apriori, dan kemudian seseorang memilih statistik uji dan menentukan distribusinya di bawah nol. Dalam kedua kasus ini, hipotesis nol adalah bahwa semua rata-rata kelompok adalah sama.
Aaron meninggalkan Stack Overflow

1
@ Harun Dalam obrolan, amuba dengan baik hati menunjukkan bahwa saya tampaknya telah salah memahami respons Anda terhadap pertanyaan 2. Saya menafsirkan Anda dengan mengatakan bahwa dalam kasus tindakan berulang, hipotesis nol terkait dengan statistik uji dengan MSE dalam denom atau MS_inter dalam denom adalah sama. (Memang, paragraf terakhir saya yang saya tunjukkan kepada Anda adalah dalam pengaturan langkah-langkah yang berulang.) Namun, sepertinya sekarang bukan itu yang Anda katakan. Kesalahanku! amoeba dan saya menghapus komentar kami agar tidak menyesatkan pembaca di masa mendatang.
user795305

2

Catatan ini tergantung pada hasil yang terkandung dalam Moser's Linear Models: A Mean Model Approach . Saya akan mengutip beberapa hasil dari buku ini sebagai berikut. Ketika saya melihat pertanyaan Anda, saya mulai melihat-lihat buku: catatan ini adalah cara pikiran saya diorganisir setelah itu.

Membiarkan yNn(μ,Σ) menjadi respons, dengan μ mengandung efek tetap dan Σ mengandung efek acak.

Mengambil yTAiyuntuk menjadi jumlah kuadrat yang sesuai dengan setiap istilah (kovariat dan interaksi) dalam model. Perhatikan bahwa jumlah kuadrat ini tidak sama dengan apakah ketentuannya tetap atau acak. Asumsikan masing-masingAi simetris dan idempoten, yang akan berlaku di sebagian besar model minat.

Ketika itu memegang itu

I=iAi,
yang berjumlah jumlah kuadrat sesuai dengan dekomposisi menjadi subruang ortogonal sejak kita mengasumsikan Ai adalah proyektor, dan
Σ=iciAi,
oleh teorema Cochran (lemma 3.4.1),
yTAiyciχdi2(μTAiμ/ci),
untuk di=tr(Ai), dan yTAjy independen dari yTAky untuk jk.

Syarat

F~=yTAjy/djyTAky/dkcjχdj2(μTAjμ/cj)/djckχdk2(μTAkμ/ck)/dk
memang (pusat) F statistik jika dan hanya jika
(1)cjck=1,(2)μTAjμ=0,(3)μTAkμ=0, and 
Ketika ketiga kondisi ini terpenuhi, kita dapat menghitung p-nilai yang sesuai dengan statistik F~. Istilah-istilah ini pada dasarnya hanya membantu dalam perhitungan sejakciTergantung pada komponen varians dan parameter noncentrality tergantung pada rata-rata μ. Kondisi kedua memastikan ituF~ akan memiliki (setidaknya) noncentral Fdistribusi. Di bawah kondisi kedua, kondisi ketiga memberikan ituF~ memiliki pusat F distribusi.

Kuadrat rata-rata yang diharapkan (EMS) sesuai dengan ith jumlah kotak yTAiy adalah

EMSi:=1tr(Ai)E[yTAiy]=tr(AiΣ)+μTAiμtr(Ai)=ci+μTAiμtr(Ai),
dimana tr(AiΣ)=citr(Ai)karena cor 3.1.2. Rasio
EMSjEMSk=cj+μTAjμtr(Aj)ck+μTAkμtr(Ak)=1
jika kondisinya (1), (2), dan (3)memegang. Inilah sebabnya mengapa orang memeriksa rasioEMS saat menentukan jumlah kuadrat mana yang harus dibagi untuk membentuk a F statistik untuk menguji hipotesis nol tertentu.

Kami menggunakan kondisi (1),(2), dan (3)untuk menentukan hipotesis nol. Dalam pengalaman saya, ketika istilah (sesuai denganj) bahwa kami tertarik untuk menguji secara acak, kami membuat hipotesis nol menjadi cj/ck=1, dan, ketika sudah diperbaiki, kami membuat hipotesis nol menjadi yTAjy=0. Khususnya, jumlah ini yang dapat kita pilihk sehingga sisa kondisinya (1),(2) dan (3)puas. Pilihan seperti ituktidak selalu mungkin, yang mengarah pada kesulitan seperti Behrens-Fisher .

Ini tidak menjelaskan apa-apa terutama terkait dengan masalah yang dihadapi, tetapi itu hanya berarti komputasi μ dan Σ. Saya harap ini dipandang sebagai cara berpikir yang berguna tentang masalah ini. Perhatikan bahwa contoh 4.4.1 menghitung semua jumlah di atas dalam contoh ANOVA dua arah.

Perbedaannya adalah karena struktur masalah dan bukan karena konvensi. Berbagai pendekatan yang berbeda ini (perubahan dua arah vs berulang) berubahμ dan Σ, yang mengubah EMS, yang mengubah mana k kami memilih untuk membuat tes.


Mari kita perhatikan modelnya

yijk=μ0+idi+Xw1j+idXw1ij+R(idXw1)k(ij),
dimana i menunjukkan tingkat id, dll. Di sini k menunjukkan mana dari 3 ulangan yang dipertimbangkan.

Kami sekarang memperkenalkan beberapa notasi vektor yang bermanfaat: tulis y=(y111,y112,y113,y121,y20,3,3). Karena data ini seimbang, kita dapat membuat kita dari notasi produk kronecker . (Sebagai tambahan, saya diberi tahu bahwa Charlie Van Loan pernah menyebut produk Kroner "operasi tahun 2000-an!") TentukanJ¯Rm×m menjadi matriks dengan semua entri sama dengan 1m dan C=IJ¯menjadi matriks keterpusatan. (Matriks centering dinamai karena, misalnya,Cx22=i(xix¯)2 untuk vektor x.)

Dengan notasi produk kronecker ini di bawah sabuk, kita dapat menemukan matriks Aidisebutkan di atas. Jumlah kuadrat sesuai denganμ0 adalah

SS(μ0)=n(y¯)2=(J¯J¯J¯)y22=yT(J¯J¯J¯)y,
dimana komponen pertama J¯R20×20, yang kedua adalah R3×3, dan yang ketiga adalah di R3×3. Secara umum, matriks dalam komponen tersebut akan selalu sebesar itu. Juga, jumlah kotak karenaid adalah
SS(id)=ijk(y¯iy¯)2=(CJ¯J¯)y22=yT(CJ¯J¯)y.
Perhatikan itu SS(id) memang mengukur variasi antar tingkat id. Demikian pula, matriks lainnya adalahAXw1=J¯CJ¯, AidXw1=CCJ¯, dan AR()=IIC.

Ini terbukti konsisten dengan aovmenjalankan kode untuk memberikan, misalnya, jumlah sisa kuadratSS(R(idXw1))=yTAR()y:

mY <- c()
for(j in 1:(nrow(d)/3)) {
  mY <- c(mY, rep(mean(d$Y[3*(j-1)+(1:3)]), 3))
}
sum((d$Y - mY)^2) #this is the residual sum of squares

Pada titik ini, kita harus membuat beberapa pilihan pemodelan. Secara khusus, kita harus memutuskan apakahidadalah efek acak. Pertama mari kita anggap itu bukan efek acak, sehingga semua efek selain replikasi tetap. Kemudian

E[yijk]=μij=μ0+idi+Xw1jk+idXw1ij
dan R(idXw1)k(ij)iidN(0,σ2). Perhatikan bahwa tidak ada ketergantungan antara pengamatan yang berbeda. Dalam notasi vektor, kita dapat menulis
yN(μ,Σ)
untuk μ=E[y]=(μ11,μ12,,μ20,3)13 dan Σ=σ2(III).

Memperhatikan itu semua 5 dari AYang didefinisikan di atas adalah identitas, kita tahu dengan teorema cochran bahwa, antara lain,

SS(Xw1)=yTAXw1yσ2χ(19)(1)(1)2(μTAXw1μ/σ2)
dan
SS(R(idXw1))=yTAR()yσ2χ(20)(3)(2)2(μTAR()μ/σ2)
dan jumlah kotak ini independen.

Sekarang, sesuai dengan apa yang kita diskusikan di atas, kami menginginkan kondisi (1),(2), dan (3)untuk menahan. Perhatikan kondisi itu(1) memegang (karena tidak ada komponen varian lain untuk memperumit hal.) Apa yang benar-benar keren untuk diperhatikan sekarang adalah μTAR()μ=0, since μ is constant along this third "component" that is being centered by AR(). This means that (3) is behind us. Therefore we only have to fret about condition (2): if we assume it (as a null hypothesis) then we're assuming that 0=μTAXw1μ=ijk(μijμ¯i)2, which is the same as μij=μ¯i for all i,j, which is the same as Xw1j=0 and idXw1ij=0 for all i,j (since the mean level is in the other terms.)

In summary, the null hypothesis can be seen to just be testing whether a noncentrality parameter is zero, which is equivalent to effects concerning the covariate being zero. The repeated measures case follows a similar line of reasoning, where we instead make the modeling choice that the id effect is random. There, condition (1) will become the null hypothesis.

Related to the R command, like you mention in the comments to the original post, this error term just specifies which terms are to be considered as random effects. (Note that all terms that are to be included in the model should be plainly input or input inside the Error() term. This is why there's a difference between id/Xw1 = id + id:Xw1 and id being in the Error term. Non-included terms are lumped in with the error in the sense that AR()+AidXw1 is relabeled as AR().)


Here's the explicit details related to the repeated measures case where the terms related to id (which are id and idXw1) are random. We'll see that this is the more interesting case.

There we have the same sum of squares matrices (since they don't depend on whether a factor is fixed or random.) The covariance matrix there is

Σ=(a)σid2(IJJ)+σidXw12(ICJ)+σR()2(III)=σid2(3)(3)(Aμ0+Aid)+σidXw12(3)(AXw1+AidXw1)+σR()2(Aμ0+Aid+AXw1+AidXw1+AR())=((3)(3)σid2+σR()2)Aμ0+((3)(3)σid2+σR()2)Aid+((3)σidXw12+σR()2)AXw1+((3)σidXw12+σR()2)AidXw1+σR()2AR(),
where J is the matrix of all ones. The first and last summand on the right hand side of equality (a) offer intuitive explanations: the first summand shows that there's an additional source of correlation among observations with the same id, and the third summand shows, as in the two-way example, the base source of variation. This second summand is less intuitive, but among observations with the same \mathrm{id}, it can be seen as increasing variation between observations with same Xw1 while decreasing variation between observations with different Xw1, due to the shape of ICJ.

Also, since all of the terms related to id are random, the mean is just due to Xw1, so that E[yijk]=μj=μ0+Xw1j, or μ=1(μ1,μ2,μ3)1.

Notice that, related to condition (1): we have

cXw1cidXw1=(3)σidXw12+σR()2(3)σidXw12+σR()2=1,
while
cXw1cR()=(3)σidXw12+σR()2σR()21.
Further, related to condition (3) both μTAXw1idμ=0 and μTAR()μ=0. Also, related to condition (2): we see that
μTAXw1μ=AXw1μ22=(J¯CJ¯)(1(μ1,μ2μ3)1)22=(20)(3)C(μ1,μ2μ3)22=(20)(3)j(Xw1j)2.

Therefore, if the denominator sum of squares was the residual R(idXw1) like before, there would be both conditions (1) and (2) in the null hypothesis---since those are the two conditions that aren't satisfied without assumptions. However, if we were to use denominator sum of squares as the interaction, since condition (1) is already satisfied, the null hypothesis would just be condition (2). So, as you mention in your question, these different denominators just amount to different null hypotheses.

This analysis technique we use allows the choice of which null hypothesis is being tested to be transparent. Indeed, we can see this by writing out the conditions mentioned in the previous paragraph more explicitly. Using the denominator as the residual sum of squares forces us to test Xw1j=0 for all j and σidXw12=0, while using the denominator as the interaction sum of squares allows us to simply test Xw1j=0 for all j.


+1. Wow, thanks a lot. It will take me some time to digest this answer. I am not very familiar with the mathematical theory of hypothesis testing in linear models, so this is a bit hard to understand. I might come back to you with some questions in the following days. I was more expecting to get an answer in the style of the example on pp. 2-3 of this paper jakewestfall.org/publications/JWK.pdf, where expected mean squares are computed in several fixed-vs-random situations and everything follows from there. It looks like you are talking about the same thing, but more formal.
amoeba

I've included an example. (They can get pretty long to write out!) I think it takes some time to get comfortable with kronecker product manipulations, but, after that, this is more easily understandable. Also, I keep finding typos in the answer. Please let me know if you think there's any!
user795305

1
Whew, that's a lot of math! The question seems much more conceptual to me, I'll see if I can find the time add an answer in words.
Aaron left Stack Overflow

1
@Aaron since amoeba asked for a comprehensive answer and about extending this problem to other scenarios, I figured it would be worthwhile to provide a full explanation of F tests in ANOVA. The answer got notationally heavy just because there's a lot of computation involved when doing it in a fully generalizable way. (Although, to be clear, the most math involved is evaluating the norm of a projected vector.) I'd be very interested to see a more conceptual answer that fully explains the intricacies that I introduced (more than a little) notation to explain. Please do post if you have time!
user795305
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.