Dari pertanyaan Anda, saya berpendapat bahwa Anda tidak memiliki latar belakang Ilmu Komputer, jadi saya akan menghindari melemparkan istilah yang terdengar culun.
Situs web populer, yang menangani sejumlah besar data (atau lalu lintas), bukanlah hal yang baru atau sangat unik. Biasanya tidak ada tipu daya dalam hal kompresi besar-besaran (karena sebagian besar foto yang diunggah sebagai JPEG sudah sangat terkompresi, dan kompresi lebih lanjut sering dapat mengakibatkan hilangnya rincian). Yang terjadi adalah beberapa arsitektur pintar, banyak dan banyak komputer, cepat & amp; jaringan yang andal, dan tentu saja, beberapa terabyte (atau bahkan petabytes) penyimpanan. Sebenarnya, penyimpanan seringkali merupakan masalah yang paling kecil. Penyimpanan dan daya hitung cukup murah akhir-akhir ini.
Apa yang terjadi adalah data sering didistribusikan (beberapa salinan) di beberapa komputer, untuk redundansi dan pengambilan lebih cepat, dan pencarian / pencarian data terjadi secara paralel. Menjaga agar data yang sering digunakan lebih dekat ke tepi jaringan atau pengguna dan menjaga data tersebut diperbarui berdasarkan penggunaan, adalah beberapa tekniknya.
Beberapa kata kunci culun yang sering digunakan, dan mungkin dilihat sebagai sihir adalah:
- Caching multi-level
- Penyimpanan terdistribusi
- Pergudangan Data
- NoSQL
- Peta-Mengurangi
- Sharding data (kebanyakan di dunia SQL)
- Proses paralel
- CDN (Jaringan Pengiriman Konten)
Cara melakukan ini dengan baik, lebih efisien, efektif adalah bidang studi dan juga penelitian, di bidang ilmu komputer dan arsitektur komputer. Teknik yang berbeda digunakan berdasarkan sifat data, sifat / frekuensi akses (lebih banyak menulis, dibandingkan lebih banyak membaca), jenis keandalan yang diperlukan dll.
Diedit: Gambar google ini rak server (dari 1999) epik :! Catat harddisk yang terbuka (3-4 di antaranya) di tengah setiap "baki" server (terutama yang berlabel "g61").
dan perjalanan penuh ditangkap di pos ini sini :