Penempatan perangkat yang benar pada fabric Fibre Channel


10

Kami mendapatkan sepasang switch 8Gb baru untuk kain saluran serat kami. Ini adalah Hal yang Baik karena kami kehabisan port di pusat data utama kami, dan itu akan memungkinkan kami untuk memiliki setidaknya satu 8Gb ISL yang berjalan di antara dua pusat data kami.

Dua pusat data kami berjarak sekitar 3,2 km saat serat berjalan. Kami telah mendapatkan layanan 4Gb yang solid selama beberapa tahun sekarang, dan saya sangat berharap ini dapat mempertahankan 8Gb juga.

Saat ini saya mencari tahu cara mengkonfigurasi ulang fabric kami untuk menerima switch baru ini. Karena keputusan biaya beberapa tahun yang lalu kami tidak menjalankan fabric loop ganda yang sepenuhnya terpisah. Biaya redundansi penuh dipandang sebagai lebih mahal daripada downtime kegagalan saklar yang tidak mungkin. Keputusan itu dibuat sebelum waktu saya, dan sejak itu banyak hal tidak membaik.

Saya ingin mengambil kesempatan ini untuk membuat kain kami lebih tangguh dalam menghadapi kegagalan sakelar (atau pemutakhiran FabricOS).

Berikut adalah diagram dari apa yang saya pikirkan untuk lay-out. Item biru adalah item baru, item merah adalah tautan yang ada yang akan (kembali) dipindahkan.

Digram FibreChannel
(sumber: sysadmin1138.net )

Garis panah merah adalah link switch ISL saat ini, kedua ISL berasal dari switch yang sama. EVA6100 saat ini terhubung ke kedua 16/4 switch yang memiliki ISL. Sakelar baru akan memungkinkan kami memiliki dua sakelar di DC jarak jauh, salah satu dari ISL jarak jauh pindah ke sakelar baru.

Keuntungan dari hal ini adalah bahwa setiap switch tidak lebih dari 2 hop dari switch lain, dan kedua EVA4400, yang akan berada dalam hubungan replikasi EVA, berjarak 1 hop dari satu sama lain. EVA6100 dalam bagan adalah perangkat yang lebih tua yang pada akhirnya akan diganti, mungkin dengan EVA4400 lainnya.

Bagian bawah bagan adalah tempat sebagian besar server kami berada, dan saya memiliki beberapa kekhawatiran tentang penempatan yang tepat. Apa yang perlu masuk ke sana:

  • 10 host VMWare ESX4.1
    • Mengakses sumber daya pada EVA6100
  • 4 server Windows Server 2008 dalam satu kluster kegagalan (kluster file server)
    • Mengakses sumber daya pada EVA6100 dan EVA4400 jarak jauh
  • 2 server Windows Server 2008 dalam cluster fail-over kedua (konten Blackboard)
    • Mengakses sumber daya pada EVA6100
  • 2 server basis data MS-SQL
    • Mengakses sumber daya pada EVA6100, dengan ekspor DB malam hari ke EVA4400
  • 1 perpustakaan tape LTO4 dengan 2 drive tape LTO4. Setiap drive mendapatkan port seratnya sendiri.
    • Server cadangan (tidak ada dalam daftar ini) menggulung mereka

Saat ini ESX cluster dapat mentolerir hingga 3, mungkin 4, host turun sebelum kita harus mulai mematikan VM untuk ruang. Untungnya, semuanya telah dihidupkan MPIO.

Tautan 4Gb ISL saat ini belum mendekati kejenuhan yang saya perhatikan. Itu mungkin berubah dengan dua mereplikasi EVA4400, tetapi setidaknya salah satu ISL akan menjadi 8Gb. Melihat kinerja yang saya dapatkan dari EVA4400-A Saya sangat yakin bahwa bahkan dengan lalu lintas replikasi kita akan mengalami kesulitan melintasi garis 4Gb.

Cluster penyajian file 4-simpul dapat memiliki dua node pada SAN1SW4 dan dua pada SAN1SW1, karena itu akan membuat kedua array penyimpanan hanya satu hop.

10 ESX node saya agak jengkel. Tiga di SAN1SW4, tiga di SAN1SW2, dan empat di SAN1SW1 adalah sebuah pilihan, dan saya akan sangat tertarik untuk mendengar pendapat lain tentang tata letak. Sebagian besar memiliki kartu FC dual-port, jadi saya dapat menjalankan beberapa node beberapa kali. Tidak semuanya , tetapi cukup untuk memungkinkan satu saklar gagal tanpa membunuh semuanya.

Dua kotak MS-SQL harus menggunakan SAN1SW3 dan SAN1SW2, karena mereka harus dekat dengan penyimpanan utama mereka dan kinerja db-ekspor kurang penting.

Drive LTO4 saat ini menggunakan SW2 dan 2 hop dari streamer utama mereka, jadi saya sudah tahu cara kerjanya. Itu bisa tetap di SW2 dan SW3.

Saya lebih suka untuk tidak menjadikan separuh bawah bagan sebagai topologi yang sepenuhnya terhubung karena hal itu akan mengurangi jumlah port yang dapat digunakan dari 66 menjadi 62, dan SAN1SW1 akan menjadi 25% ISL. Tetapi jika itu sangat disarankan saya bisa pergi ke rute itu.


Pembaruan: Beberapa angka kinerja yang mungkin akan berguna. Saya sudah memilikinya, saya hanya berjarak bahwa mereka berguna untuk masalah seperti ini.

EVA4400-A pada grafik di atas melakukan hal berikut:

  • Selama hari kerja:
    • Rata-rata I / O ops di bawah 1000 dengan paku hingga 4.500 selama snapshot file-server cluster ShadowCopy (berlangsung sekitar 15-30 detik).
    • MB / s umumnya tetap dalam kisaran 10-30MB, dengan lonjakan hingga 70MB dan 200MB selama ShadowCopies.
  • Pada malam hari (cadangan) adalah saat pedal benar-benar cepat:
    • I / O ops rata-rata sekitar 1500, dengan lonjakan hingga 5.500 selama backup DB.
    • MB / s sangat bervariasi, tetapi berjalan sekitar 100MB selama beberapa jam, dan memompa 300MB / s mengesankan selama sekitar 15 menit selama proses ekspor SQL.

EVA6100 jauh lebih sibuk, karena merupakan rumah bagi gugus ESX, MSSQL, dan seluruh lingkungan Exchange 2007.

  • Pada siang hari rata-rata I / O beroperasi sekitar 2000 dengan lonjakan yang sering hingga sekitar 5000 (lebih banyak proses basis data), dan MB / s rata-rata antara 20-50MB / s. MB Puncak / s terjadi selama snapshot ShadowCopy pada kluster penyajian file (~ 240MB / s) dan berlangsung kurang dari satu menit.
  • Pada malam hari, Exchange Online Defrag yang beroperasi dari jam 1 pagi hingga 5 pagi memompa I / O Ops ke saluran di 7800 (mendekati kecepatan sisi untuk akses acak dengan jumlah spindel ini) dan 70MB / s.

Saya sangat menghargai saran yang Anda miliki.


Apakah Anda tahu berapa banyak sistem yang akan menjadi CA'ing? Kami melihat ~ 20Mbps untuk sistem berbasis Oracle departemen "khas".
Simon Catlin

@Simon Barang Oracle kami ada di lingkungan lain sepenuhnya. Saat ini 6 server berbicara di seluruh ISL jarak jauh, hanya 4 yang melakukannya terus menerus; dua lainnya melakukan semburan besar 1-2 kali sehari. Throughput ke EVA rata-rata sekitar 15-30MBps dengan puncak hingga 150MB selama cadangan normal, dan 320MB selama ekspor SQL (berlangsung sekitar 15 menit).
sysadmin1138

Jawaban:


6

maaf atas keterlambatannya.

Melihat apa yang Anda punya dan apa yang ingin Anda raih, saya punya beberapa pemikiran, ini gambar yang bagus dulu ...

teks alternatif

  • Sepertinya tidak ada gunanya menggunakan tautan 8Gbps antara situs sekarang - alasannya adalah bahwa Anda dibatasi oleh port 4Gbps pada 4400 jarak jauh, Anda sudah memiliki 4Gbps yang stabil ditambah bandwidth yang tersedia jauh lebih tinggi daripada persyaratan penggunaan aktual - sepertinya sia-sia, hari ini, untuk menempatkan salah satu sakelar 24x8 di sana. Saya akan menggunakan dua sakelar 16x4Gb di situs jarak jauh.
  • Saya akan tergoda untuk menggunakan sakelar 24x8 baru sebagai sakelar 'inti' utama Anda - sebagian besar lalu lintas Anda adalah server-ke-6100 dan kotak baru akan jauh lebih cepat. Dengan cara ini Anda akan melihat beberapa, kecil, peningkatan kinerja karena switch baru memiliki buffer yang lebih besar dan latensi yang lebih rendah, plus Anda dapat memilih server mana yang akan dipindahkan ke 8Gb dan ketika Anda suka, sama untuk saat Anda menukar 6100 (yang 4600 memiliki port 8Gb asli tetapi itu belum resmi;)).
  • Kami kemudian masuk ke bagian desain di mana kami memiliki dua opsi; untuk menjaga atau membuang dua 'sakelar tengah' 16x4Gb - murni berdasarkan jumlah port. Pada dasarnya jika Anda menggunakan sakelar 24x8 sebagai kotak inti, Anda hanya memiliki 3 port cadangan (karena Anda akan menggunakan 18 untuk 18 server, ditambah 2 hingga 6100 dan tautan ISL, sama dengan 21 yang digunakan). Kamu bisasambungkan 4400 lokal ke sakelar 24x8, sehingga Anda hanya memiliki 1 port gratis untuk tape drive Anda tetapi itu membuat Anda tidak memiliki port bebas nol. Apa yang saya tergoda untuk lakukan adalah menggunakan dua 'switch tengah' 16x4Gb baik sebagai switch lokal sekunder untuk menangani 4400 lokal dan drive tape atau mungkin untuk menangani tautan antar-situs ISL jika Anda mau - meskipun Anda akan memiliki port gratis pada switch 24x8Gb untuk melakukan itu langsung dari sana jika Anda mau - saya belum menunjukkan keduanya karena keduanya sangat mirip.

Jadi itulah pemikiran saya - ada beberapa penyesuaian yang harus dilakukan di mana-mana tetapi gagasan umum saya ada di sana - jangan ragu untuk kembali kepada saya dengan klarifikasi apa pun.


Insya Allah Budget, harapannya adalah bahwa ketika kita berkeliling untuk mengganti 6100 kita juga akan dapat menempatkan beberapa server ESX di situs jarak jauh. Saya sangat senang menunggu sampai kekuatan yang menyadari bahwa memiliki array post-6100 memiliki mitra replikasi di situs remote adalah The Thing dan menunggu sampai proyek itu untuk 8Gb antar-situs ISL. Ketika saya kembali bekerja, saya perlu menyodok orang tentang seberapa besar kemungkinan boxen ESX baru itu tanpa penggantian 6100.
sysadmin1138

1
Setelah minum kopi dan memikirkannya, saya punya beberapa komentar. Salah satu tujuan saya adalah menjadi lebih baik dalam menangani kegagalan saklar (atau reboot), topo linier akan rusak ketika itu terjadi. Beberapa ISL akan memperbaikinya. Menyimpan 24/8 di satu situs adalah ide yang sangat bagus yang saya simpan. Enak 4600.
sysadmin1138
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.