Pendekatan fastica memang memerlukan langkah pra-pemutihan: data pertama-tama ditransformasikan menggunakan PCA, yang mengarah ke matriks kovarians diagonal, dan kemudian setiap dimensi dinormalisasi sedemikian rupa sehingga matriks kovarians sama dengan matriks identitas (pemutihan).
Ada transformasi tak terbatas dari data yang menghasilkan matriks kovarian identitas, dan jika sumber Anda Gaussian, Anda akan berhenti di sana (untuk distribusi multivariat Gaussian, rerata dan kovarian adalah statistik yang cukup), di hadapan sumber non-Gaussian Anda dapat meminimalkan beberapa mengukur ketergantungan pada data yang diputihkan, karena itu Anda mencari rotasi data yang diputihkan yang memaksimalkan independensi. FastICA mencapai ini dengan menggunakan langkah-langkah teori informasi dan skema iterasi titik tetap.
Saya akan merekomendasikan karya Hyvärinen untuk mendapatkan pemahaman yang lebih dalam tentang masalah ini:
- A. Hyvärinen. Algoritma Fixed-Point Fixed dan Kuat untuk Analisis Komponen Independen. Transaksi IEEE pada Jaringan Saraf 10 (3): 626-634, 1999.
- A. Hyvärinen, J. Karhunen, E. Oja, Analisis Komponen Independen, Wiley & Sons. 2001
Harap dicatat bahwa melakukan PCA dan melakukan pengurangan dimensi bukanlah hal yang persis sama: ketika Anda memiliki lebih banyak pengamatan (per sinyal) daripada sinyal, Anda dapat melakukan PCA mempertahankan 100% dari varian yang dijelaskan, dan kemudian melanjutkan dengan iterasi whitening dan fixed point untuk mendapatkan estimasi komponen independen. Apakah Anda harus melakukan pengurangan dimensi atau tidak, sangat tergantung pada konteks dan didasarkan pada asumsi pemodelan Anda dan distribusi data.