Dalam banyak situasi kehidupan nyata di mana Anda menerapkan MapReduce, algoritme akhir menjadi beberapa langkah MapReduce.
yaitu Map1, Reduce1, Map2, Reduce2, dan seterusnya.
Jadi Anda memiliki keluaran dari pengurangan terakhir yang diperlukan sebagai masukan untuk peta berikutnya.
Data perantara adalah sesuatu yang (secara umum) tidak ingin Anda simpan setelah pipeline berhasil diselesaikan. Juga karena data perantara ini pada umumnya adalah beberapa struktur data (seperti 'peta' atau 'kumpulan'), Anda tidak ingin terlalu banyak berusaha dalam menulis dan membaca pasangan nilai-kunci ini.
Apa cara yang disarankan untuk melakukan itu di Hadoop?
Apakah ada contoh (sederhana) yang menunjukkan cara menangani data perantara ini dengan cara yang benar, termasuk pembersihan sesudahnya?