t
t-SNE sedang mencoba untuk meminimalkan jumlah dari perbedaan Kullback-Leibler antara distribusi jarak antara data dalam domain asli dan distribusi jarak antara data dalam domain dimensi yang direduksi (sebenarnya distribusi target adalah distribusi dari probabilitas bahwa suatu titik akan memilih titik lain sebagai tetangganya tetapi ini berbanding lurus dengan jarak antara dua titik). Dapat dikatakan bahwa nilai KL-divergence yang lebih kecil menunjukkan hasil yang lebih baik. Gagasan ini tidak bekerja dengan sangat baik dalam praktiknya tetapi secara teoritis akan membantu untuk mengecualikan beberapa rentang nilai kebingungan serta beberapa menjalankan algoritma yang jelas suboptimal. Saya menjelaskan mengapa heuristik ini jauh dari obat mujarab dan bagaimana hal itu bisa sedikit berguna: Parameter kebingungan meningkat secara monoton dengan varians dari Gaussian yang digunakan untuk menghitung jarak / probabilitas. Oleh karena itu, ketika Anda meningkatkan parameter kebingungan secara keseluruhan, Anda akan mendapatkan jarak yang lebih kecil dalam nilai absolut dan nilai KL-divergence berikutnya. Namun demikian jika Anda memiliki 20 putaran dengan kebingungan yang sama dan Anda tidak dapat (tidak ingin) melihatnya, Anda selalu dapat memilih yang dengan variabel terkecil dengan harapan mempertahankan jarak yang asli dengan lebih akurat. Hal yang sama berlaku untuk Namun demikian jika Anda memiliki 20 putaran dengan kebingungan yang sama dan Anda tidak dapat (tidak ingin) melihatnya, Anda selalu dapat memilih yang dengan variabel terkecil dengan harapan mempertahankan jarak yang asli dengan lebih akurat. Hal yang sama berlaku untuk Namun demikian jika Anda memiliki 20 putaran dengan kebingungan yang sama dan Anda tidak dapat (tidak ingin) melihatnya, Anda selalu dapat memilih yang dengan variabel terkecil dengan harapan mempertahankan jarak yang asli dengan lebih akurat. Hal yang sama berlaku untukθθ
kktt-SNE pertama kali digunakan, jika representasi yang dihasilkan tidak informatif untuk properti yang kami selidiki, maka tidak ada gunanya meskipun kesalahan rekonstruksi, daya tarik visual, dll. Rendah.
Izinkan saya menunjukkan bahwa apa yang saya jelaskan adalah heuristik . Seperti yang disebutkan di awal posting saya, memeriksa hasilnya secara manual adalah cara yang sangat diperlukan untuk menilai kualitas reduksi / clustering dimensi yang dihasilkan.