Bagaimana penyeimbang muat masuk ke pusat data dengan throughput yang jauh lebih tinggi daripada yang bisa mereka tangani?


10

Anda memiliki pusat data yang distandarisasi pada koneksi 10GE. Dengan, katakanlah, Nexus 7000 di inti, Nexus 5000 di agregasi, dan beberapa extender fabric untuk tepi ke server (saya menggunakan Cisco gear sebagai contoh karena ini adalah apa yang ada di lab khusus saya). Ada beberapa penyeimbang beban ACE 4710 menggantung Nexus 5000 Anda, tetapi ini hanya memiliki antarmuka 1GE. Semua koneksi switch Anda berukuran 10GE, dibutuhkan untuk lalu lintas timur-barat (VM-ke-VM) yang sangat besar di pusat data virtual yang modern.

Apakah load balancers tidak menjadi hambatan dalam kondisi lalu lintas tertentu? Saya dapat melihat bagaimana beberapa lalu lintas timur-barat lokal tidak perlu bahkan mencapai penyeimbang beban, tetapi ada situasi lain di mana Anda perlu melintasi inti, dan bahkan mungkin interkoneksi pusat data.

Pada dasarnya, saya tahu penyeimbang beban digunakan dalam lalu lintas client-server (utara-selatan), dan hal-hal seperti HTTP GET tidak perlu 10GE, tetapi apakah ada situasi di mana penyeimbang beban 1GE Anda dapat menghalangi jalan lain Jalur lalu lintas 10GE dan menyebabkan masalah untuk hal-hal seperti vMotion (misalnya)?


1
ACE 4710 telah menjadi EOL / EOS sejak 2010. Apakah Anda terikat dengan penyeimbang beban ini, atau apakah Anda terbuka untuk menggunakan penyeimbang beban modern yang dapat berskala jauh lebih tinggi? (Banyak pabrikan yang membuatnya.) Tidak ada alasan untuk secara artifisial membatasi batas produksi Anda dengan cara yang Anda uraikan. Yah, tidak ada alasan di luar biaya, tetapi sungguh jika Anda telah membeli infrastruktur yang Anda uraikan, Anda mungkin akan memiliki uang tunai yang tersisa untuk pengaturan penyeimbang beban nyata.
Brett Lykins

Ini sebenarnya bukan lingkungan produksi, tetapi skenario "lab" aktual yang berisi perangkat khusus ini. Dalam pengertian yang lebih umum, pertanyaan saya adalah, mengingat beban lalu lintas dari pusat data yang khas, bagaimana Anda memastikan penyeimbang beban tidak menjadi hambatan dalam desain Anda? Ini berperan dalam desain Anda, seperti misalnya jika pusat data Anda bertingkat, pada tingkatan apa Anda melakukan load balancing, dll. Dalam contoh khusus saya, yang tidak dapat saya ubah karena ini bukan desain saya, apakah masuk akal untuk memilikinya Perangkat ACE satu-tangan dari Nexus 5000 yang jauh lebih kuat.
sentinel

Jawaban:


6

Apakah load balancers tidak menjadi hambatan dalam kondisi lalu lintas tertentu?

Tentu saja, tetapi ini biasanya tidak terjadi pada jaringan yang direkayasa dengan baik.

Anda harus dapat mendesain jaringan Anda dengan cara yang akan memungkinkan sebagian besar lalu lintas internal server-ke-server Anda ("timur-barat" seperti yang Anda katakan) bahkan jika itu perlu melintasi inti Anda atau antara pusat data.

Sementara sering penyeimbang beban adalah gateway default untuk server di belakangnya, saya telah melihat pengaturan di mana protokol routing (yaitu OSPF atau RIP) dijalankan untuk memungkinkan lalu lintas "timur-barat" untuk menghindari penyeimbang beban, atau dalam penyebaran yang lebih kecil di mana rute statis digunakan.

Jika penyeimbang beban akan menjadi hambatan bahkan dengan desain yang baik (yaitu volume lalu lintas setinggi itu), maka ada cara menyeimbangkan beban di beberapa penyeimbang beban juga.


4
Memang. Jika ada LB di jalur vMotion Anda, Anda telah gagal sebagai insinyur.
Ricky Beam

"... ada cara untuk menyeimbangkan beban di beberapa penyeimbang beban juga" - seperti memilih penyeimbang beban jaringan dari DNS?
Andrei Rînea

2

Ini memang hambatan dan akan membatasi throughput Anda ke "link terlemah dalam rantai" yang merupakan LB Anda. Namun, Anda bisa menyiasatinya. Jika Anda menggunakan sesuatu yang dikenal sebagai "switchback" atau "direct server return" Anda dapat melakukan arus lalu lintas async. Cara kerjanya adalah ini:

a) klien mengajukan permintaan http ke 2.2.2.2

b) LB menjawab pada 2.2.2.2 dan meneruskan permintaan yang masuk ke server - karena LB dan server berada pada LAN yang sama, ini dilakukan pada layer 2.

c) Server menerima koneksi masuk ini karena IP 2.2.2.2 ada di antarmuka loopback alias (jika tidak maka akan menjatuhkan paket yang tidak cocok dengan antarmuka).

d) Server merespons langsung ke klien.

Permintaannya beberapa byte. Konten yang disajikan dapat dalam ukuran berapa pun. Lalu lintas keluar tidak melalui LB sehingga Anda dapat menangani lalu lintas WAY lebih banyak.

Bersulang,

--tc


1
Perlu diingat bahwa melakukannya hanya sesuai untuk kelompok L4. Untuk cluster L7, ini akan memecah penulisan ulang header, penyisipan cookie (persistence), terminasi SSL, segala jenis pencocokan URL, dan fitur lain yang lebih canggih dari banyak saldo beban.
YPelajari
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.