Saya sedang mengerjakan suatu algoritma yang mengambil dalam suatu vektor dari titik data terbaru dari sejumlah aliran sensor dan membandingkan jarak euclidean ke vektor sebelumnya. Masalahnya adalah bahwa aliran data yang berbeda berasal dari sensor yang sama sekali berbeda, sehingga mengambil jarak euclidean sederhana akan secara dramatis terlalu menekankan beberapa nilai. Jelas, saya perlu beberapa cara untuk menormalkan data. Namun, karena algoritme dirancang untuk berjalan secara waktu nyata, saya tidak dapat menggunakan informasi apa pun tentang aliran data apa pun secara keseluruhan dalam normalisasi. Sejauh ini saya baru saja melacak nilai terbesar yang terlihat untuk setiap sensor pada fase start-up (500 vektor data pertama) dan kemudian membagi semua data masa depan dari sensor tersebut dengan nilai tersebut. Ini bekerja sangat baik, tetapi terasa sangat tidak bagus.
Saya belum beruntung menemukan algoritma yang sudah ada sebelumnya untuk ini, tapi mungkin saya hanya tidak mencari di tempat yang tepat. Adakah yang tahu tentang itu? Atau punya ide? Saya melihat satu saran untuk menggunakan rata-rata berjalan (mungkin dihitung oleh algoritma Wellford), tetapi bahwa jika saya melakukan itu maka beberapa bacaan dengan nilai yang sama tidak akan muncul sebagai sama, yang sepertinya masalah yang cukup besar, kecuali jika saya Saya melewatkan sesuatu. Pikiran apa pun dihargai! Terima kasih!