Saya biasanya menghasilkan data saya sendiri, menggunakan beberapa data yang dikenal sebagai input - jika terlalu acak, itu tidak selalu merupakan tes yang baik; Saya membutuhkan data yang akan didistribusikan mirip dengan produk akhir saya.
Semua database yang lebih besar yang harus saya sempurnakan bersifat ilmiah - jadi saya biasanya dapat mengambil beberapa investigasi lain sebagai input, dan mengubah skala dan menambahkan jitter. (misalnya, mengambil data yang berada pada irama 5 menit dengan ketepatan milidetik, dan mengubahnya menjadi irama 10 detik dengan ketepatan milidetik tetapi jitter +/- 100 ms sesuai waktu)
...
Tetapi, sebagai alternatif lain, jika Anda tidak ingin menulis sendiri, adalah dengan melihat beberapa alat benchmarking - karena mereka dapat mengulangi hal-hal berulang-ulang berdasarkan pada set pelatihan, Anda dapat menggunakannya untuk memasukkan banyak catatan (dan kemudian abaikan saja laporan tentang seberapa cepat itu melakukannya) ... dan kemudian Anda dapat menggunakan alat yang sama untuk menguji seberapa cepat kinerja database setelah itu diisi.