Analisis faktor pada dasarnya adalah model regresi linier (terbatas). Dalam model ini, setiap variabel yang dianalisis adalah variabel dependen, faktor umum adalah IV, dan faktor unik tersirat berfungsi sebagai istilah kesalahan. (Istilah konstan ditetapkan ke nol karena pemusatan atau standardisasi yang tersirat dalam perhitungan kovarian atau korelasi.) Jadi, persis seperti dalam regresi linier, mungkin ada asumsi "kuat" tentang normalitas - IV (faktor umum) adalah multivariat normal dan kesalahan (faktor unik) adalah normal, yang secara otomatis mengarah ke DV normal; dan asumsi "lemah" tentang normalitas - kesalahan (faktor unik) hanya normal, oleh karena itu DV tidak perlu normal. Baik dalam regresi dan FA kita biasanya mengakui asumsi "lemah" karena lebih realistis.
Di antara metode ekstraksi FA klasik hanya metode kemungkinan maksimum, karena menyimpang dari karakteristik populasi, menyatakan bahwa variabel yang dianalisis adalah multivariat normal. Metode seperti sumbu utama atau residu minimal tidak memerlukan asumsi "kuat" ini (walaupun Anda tetap bisa membuatnya).
Harap diingat bahwa meskipun variabel Anda normal secara terpisah, itu tidak selalu menjamin bahwa data Anda normal multivarian.
Mari kita menerima asumsi "lemah" tentang normalitas. Apa potensi ancaman yang berasal dari data yang sangat miring, seperti Anda, lalu? Itu outlier. Jika distribusi variabel sangat asimetris, ekor yang lebih panjang menjadi lebih berpengaruh dalam menghitung korelasi atau kovariansi, dan secara bersamaan memprovokasi kekhawatiran tentang apakah masih mengukur konstruksi psikologis yang sama (faktor) seperti ekor yang lebih pendek. Mungkin hati-hati untuk membandingkan apakah matriks korelasi yang dibangun di bagian bawah dan bagian atas dari skala penilaian sama atau tidak. Jika mereka cukup mirip, Anda dapat menyimpulkan bahwa kedua ekor mengukur hal yang sama dan tidak mengubah variabel Anda. Kalau tidak, Anda harus mempertimbangkan mengubah atau tindakan lain untuk menetralisir efek ekor panjang "outlier".
Transformasi banyak. Misalnya, naik ke daya> 1 atau eksponensial digunakan untuk data yang condong ke kiri, dan daya <1 atau logaritma - untuk yang condong ke kanan. Pengalaman saya sendiri mengatakan bahwa apa yang disebut transformasi optimal melalui PCA Kategorikal yang dilakukan sebelum FA hampir selalu bermanfaat, karena biasanya mengarah pada faktor-faktor FA yang lebih jelas dan dapat ditafsirkan; dengan asumsi bahwa sejumlah faktor diketahui, ia mengubah data Anda secara nonlinier sehingga memaksimalkan keseluruhan varians yang diperhitungkan oleh sejumlah faktor tersebut.