Pengaturan HP ProCurve 2810-24G untuk iSCSI?


8

Saya memiliki sepasang ProCurve 2810-24G yang akan saya gunakan dengan Dell Equallogic SAN dan Vmware ESXi. Karena ESXi melakukan MPIO, saya sedikit tidak yakin tentang konfigurasi untuk tautan antar sakelar. Apakah bagasi merupakan cara yang tepat untuk beralih antar sakelar?

Saya tahu bahwa port untuk SAN dan host ESXi harus di-untag, jadi apakah itu berarti saya ingin menandai VLAN pada port trunk?

Ini kurang lebih konfigurasi:

trunk 1-4 Trk1 Trunk 
snmp-server community "public" Unrestricted 
vlan 1 
    name "DEFAULT_VLAN" 
    untagged 24,Trk1 
    ip address 10.180.3.1 255.255.255.0 
    no untagged 5-23 
exit 
vlan 801 
    name "Storage" 
    untagged 5-23 
    tagged Trk1 
    jumbo 
exit 
no fault-finder broadcast-storm 
stack commander "sanstack" 
spanning-tree
spanning-tree Trk1 priority 4
spanning-tree force-version RSTP-operation

Equallogic PS4000 SAN memiliki dua pengontrol, dengan masing-masing dua antarmuka jaringan. Dell merekomendasikan setiap pengontrol agar terhubung ke masing-masing sakelar. Dari dokumentasi vmware, direkomendasikan membuat satu vmkernel per pNIC. Dengan MPIO, ini dapat memungkinkan throughput lebih dari 1 Gbps.

masukkan deskripsi gambar di sini

Jawaban:


12

Ada beberapa perdebatan dalam komentar atas jawaban Chopper3 yang tidak diinformasikan dengan baik karena beberapa aspek yang kurang dipahami dari persyaratan jaringan Equallogic dan perilaku multipathing.

Pertama sisi VMware: Sebagai permulaan pada sisi ESXi, rekomendasi saat ini, ketika menggunakan Inisiator Perangkat Lunak iSCSI, dari VMware (untuk ESX \ ESXi 4.1) dan Dell adalah Anda harus memiliki satu fisik Nic yang dipetakan ke setiap Port VMkernel yang akan menjadi digunakan untuk iSCSI. Proses pengikatan yang sekarang direkomendasikan menegakkan ini. Ini mengharuskan Anda hanya memiliki satu nic fisik aktif dan tidak ada standby nics untuk setiap port VMkernel. Ikatan tidak diizinkan. Sekarang Anda dapat menipu ini dan kembali sesudahnya dan menambahkan failover nic tetapi tujuannya adalah bahwa MPIO akan menangani failover sehingga ini tidak memiliki tujuan yang berguna (setidaknya ketika semuanya berfungsi sebagaimana dimaksud oleh VMware).

Kebijakan multipathing default akan memungkinkan koneksi aktif, aktif ke array Equallogic menggunakan round robin.

Kedua sisi Equallogic: array Equallogic memiliki pengontrol ganda yang bertindak dalam mode \ siaga aktif. Untuk PS4000 ini memiliki dua Gigabit Nics pada setiap pengontrol. Untuk pengontrol aktif, kedua nics ini aktif dan dapat menerima IO dari sumber yang sama. Konfigurasi jaringan merekomendasikan agar array array harus terhubung ke sakelar yang terpisah. Dari sisi server Anda memiliki banyak tautan yang juga harus didistribusikan ke sakelar yang terpisah. Sekarang untuk bagian ganjil - array Equallogic berharap bahwa semua port inisiator dapat melihat semua port aktif pada array. Ini adalah salah satu alasan Anda memerlukan trunk di antara kedua sakelar. Itu berarti bahwa dengan sebuah host dengan dua port VMkernel iSCSI dan satu PS4000 ada 4 jalur aktif antara initator dan target - dua adalah "langsung"

Untuk koneksi pengontrol siaga aturan yang sama berlaku tetapi nics ini hanya akan menjadi aktif setelah kegagalan controller dan prinsip yang sama berlaku. Setelah failover di lingkungan ini masih akan ada empat jalur aktif.

Ketiga untuk multipathing yang lebih maju: Equallogic sekarang memiliki Modul Ekstensi Multipath yang dihubungkan ke Arsitektur Penyimpanan yang Dapat Disambungkan VMware yang menyediakan perimbangan beban cerdas (menggunakan kedalaman antrian terkecil, Round Robin atau MRU) di seluruh port VMkernel. Ini tidak akan berfungsi jika semua vmkernel uplink nics tidak dapat terhubung ke semua port Equallogic yang aktif. Ini juga memastikan bahwa jumlah jalur yang benar-benar digunakan tetap masuk akal - di lingkungan Equallogic besar jumlah jalur yang valid antara host dan Grup Equallogic bisa sangat tinggi karena semua target nics aktif, dan semua sumber kode dapat melihat semua target nics.

Keempat untuk Lingkungan Equallogic yang lebih besar: Ketika Anda meningkatkan lingkungan Equallogic Anda menambahkan array tambahan ke dalam grup bersama. Semua port aktif pada semua array anggota dalam suatu grup harus dapat melihat semua port aktif lainnya pada semua array lain dalam grup yang sama. Ini adalah alasan lebih lanjut mengapa Anda membutuhkan pipa gemuk yang menyediakan koneksi antar sakelar di antara semua sakelar di kain iSCSI Equallogic Anda. Penskalaan ini juga secara dramatis meningkatkan jumlah jalur aktif yang valid antara penggagas dan target. Dengan Grup Equallogic yang terdiri dari 3 susunan PS6000 (empat nics per controller vs 2 untuk PS4000), dan host ESX dengan dua port vmkernel, akan ada 24 jalur aktif yang memungkinkan untuk dipilih tumpukan MPIO.

Agregasi Fifth Bonding \ link dan Inter Switch di Lingkungan Equallogic: Semua koneksi array array dan initator <-> adalah koneksi titik ke titik Gigabit (atau 10Gig jika Anda memiliki array 10Gig). Tidak perlu, dan tidak ada manfaat yang diperoleh dari, ikatan pada sisi server ESX dan Anda tidak dapat mengikat port pada array Equallogic. Satu-satunya area di mana agregasi tautan \ bonding \ apa pun yang Anda inginkan untuk menyebutnya relevan dalam fabric ethernet switch Equallogic yang ada di tautan interswitch. Tautan tersebut harus dapat membawa aliran bersamaan yang dapat sama dengan jumlah total port Equallogic aktif di lingkungan Anda - Anda mungkin memerlukan banyak bandwidth agregat di sana bahkan jika setiap titik ke titik tautan antara port array dan port iniatator dibatasi hingga 1gbps.

Akhirnya: Di lingkungan Equallogic, lalu lintas dari host (inisiator) ke array dapat dan akan melintasi tautan interswitch. Apakah jalur tertentu melakukannya tergantung pada sumber dan tujuan ip-address untuk jalur tertentu tetapi setiap port sumber dapat terhubung ke masing-masing port target dan setidaknya satu dari jalur tersebut akan memerlukan melintasi ISL. Di lingkungan yang lebih kecil (seperti ini) semua jalur tersebut akan digunakan dan aktif. Dalam lingkungan yang lebih besar hanya sebagian dari jalur yang mungkin digunakan tetapi distribusi yang sama akan terjadi. Bandwidth agregat iSCSI yang tersedia untuk host (jika dikonfigurasi dengan benar) adalah jumlah dari semua bandwidth port vmkernel iSCSI, bahkan jika Anda terhubung ke satu array dan satu volume. Seberapa efisien yang mungkin menjadi masalah lain dan jawaban ini sudah terlalu lama.


1
Anda harus mengikuti saran ini! Saya bekerja untuk reseller EQL terbesar di midwest, saya memasukkan sistem ini setiap hari. Tag / trunks adalah cara untuk pergi dan biarkan plugin MEM membuat Anda vswitch untuk Anda. ISL Anda harus sebesar yang Anda mampu untuk menjadi koneksi bijaksana. Kami biasanya menggunakan sakelar yang bisa ditumpuk. Juniper EX4200's AWESOME untuk iSCSI.
SpacemanSpiff

Wow, jawaban yang luar biasa. Tidak melihat pesan ini sampai sekarang, tapi saya berhasil menyelesaikannya dan bekerja seperti yang diharapkan, dan hasil iometer menunjukkan kinerjanya sebaik yang didapatnya. Masih harus memeriksa semua redundansi. Terima kasih banyak atas jawaban Anda yang sangat informatif!
bulan

6
Since ESXi does MPIO, I am a little uncertain on the configuration for links between the switches. Is a trunk the right way to go between the switches?

ESX / i melakukan manajemen jalurnya sendiri - ia tidak akan aktif / aktif pada tautannya kecuali dua atau lebih dari tautannya menuju ke switch yang sama atau switch berada dalam mode berbagi CAM seperti VSS Cisco - apa pun lain akan menjadi konfigurasi aktif / pasif.

Dengan semua cara trunk antara switch jika Anda mau, tetapi mungkin mereka berdua memiliki uplink ke beberapa core switch atau router? jika demikian maka saya tidak sepenuhnya yakin mengapa Anda akan trunk antara hanya dua switch dengan cara ini sebagai kotak ESX / i hanya akan beralih ke switch kedua jika yang pertama turun (jika dikonfigurasi dengan benar pula).

I know that the ports for the SAN and the ESXi hosts should be untagged, so does that mean that I want tagged VLAN on the trunk ports?

Saya tidak tahu dari mana asumsi ini berasal, ESX / i sama nyamannya bekerja dalam pengaturan yang ditandai atau tidak, apakah untuk lalu lintas tamu atau iSCSI. Yang mengatakan saya memiliki masalah dengan pencampuran tag dan untagged ketika menggunakan vlan standar jadi saya selalu menandai semuanya sekarang dan tidak memiliki vlan default, ini adalah pengaturan yang sangat fleksibel dan tidak memiliki kinerja yang jelas dalam pengalaman saya.


Saya cukup yakin dokumentasi ESXi untuk penyimpanan SAN menyatakan bahwa seseorang tidak boleh terikat, tetapi mengandalkan MPIO baik untuk peningkatan kinerja dan manfaat redundansi (tidak masalah apakah tautan menuju ke sakelar yang sama atau tidak). Tentu saja tidak akan ada uplink ke switch inti, ini adalah sepasang switch untuk penyimpanan saja. Saya juga menyatakan bahwa saya bermaksud menggunakan vlan yang tidak ditandai untuk host dan SAN, sehingga masih membuat pertanyaan saya valid; haruskah saya atau tidak saya harus menggunakan TAGGED di tautan trunk?
3molo

1
Alasan untuk menggunakan port yang ditandai adalah jika Anda perlu membawa lebih dari satu VLAN ke dalamnya. Memberi tag pada VLAN memberi Anda kemampuan untuk membedakannya. Anda juga tidak perlu menggunakan LACP untuk membuat bundel tautan agregasi (trunk untuk HP, Etherchannel untuk Cisco). Anda dapat mengatur grup agregasi statis dan mendapat manfaat dari penyeimbangan sisi switch dan gagal. Yang mengatakan, itu juga umum untuk meninggalkan sisi saklar sendirian dan membiarkan ESX menangani pengambilan keputusan lalu lintas.
mcmeel

mcmeel, tolong pertimbangkan menulis jawaban yang nyata. Lebih mudah berkomentar. Tidak yakin bagaimana konfigurasi antar-switch, jika saya membiarkan ESXi melakukan pengambilan keputusan?
3molo

-1 chopper, saya merasa Anda tidak cukup tahu tentang subjek atau Anda tidak cukup membaca pertanyaan saya.
3molo

1
LAG bekerja seperti yang diharapkan. Saya memiliki dua tautan 1 Gbit dan EQ terhubung ke masing-masing sakelar. Saya mendapatkan hingga 235 MB / s berurutan membaca dan menulis. Entah kita tidak saling mengerti sama sekali, atau saya benar dalam pernyataan saya tentang pengaturan. Btw, round-robin-nya tetapi menyatakan aktif / aktif.
bulan

1

Ini adalah pengontrol array SAN yang menentukan bagaimana Anda harus menghubungkan ini. Apakah ini memberikan LUN yang sama pada kedua port pada pengontrol yang sama? Kemudian port0 pergi ke switchA, port1 ke switchB dan sama dengan controller berikutnya.

Mengapa Anda ingin menggunakan LACP / etherchannel terhadap iSCSI SAN dengan port uplink 1gbit? Itu tidak membantu Anda dengan cara apa pun. Buat 2 vswitch dengan satu pNic di setiap vSwitch, dan hubungkan pNic pertama ke switchA, pNic kedua ke switchB. Ini akan memberi Anda redundansi penuh terhadap kegagalan controller / switch / nic.


The etherchannel / LACP adalah antar switch saja, tetapi itu tidak membantu saya sama sekali? Saya membayangkan bahwa koneksi dapat melintasi antara switch karena MPIO, dalam kasus katakanlah port pada switch di mana salah satu controller terhubung.
3molo

Mengapa koneksi melintasi antar switch? Itu tidak masuk akal.
pauska

1
Setiap inisiator menghubungi IP grup, yang dialihkan ke IP salah satu NIC dalam grup. Tidak ada yang menghentikan inisiator pada Switch A yang menghubungkan ke array pada NIC yang terhubung ke Switch B. Berdasarkan jumlah koneksi, 4GB LACP link antara switch harus cukup untuk menghindari masalah. Saya pribadi lebih suka menghubungkan semua port pada controller ke satu switch. Ketika Anda membaginya, Anda membagi dua bandwidth Anda di array dalam situasi kegagalan.
SpacemanSpiff

Jawaban hebat SpacemanSpiff, saya menggunakan 2 tautan LACP.
bulan
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.