Dalam setidaknya satu implementasi ada batasan keras pada kapasitas tabel ARP. Apa yang terjadi ketika cache ARP penuh dan paket ditawarkan dengan tujuan (atau next-hop) yang tidak di-cache? Apa yang terjadi di bawah tenda, dan apa pengaruhnya terhadap kualitas layanan?
Sebagai contoh, router Brocade NetIron XMR dan Brocade MLX memiliki maksimum sistem yang dapat dikonfigurasiip-arp
. Nilai default dalam kasus itu adalah 8192; ukuran subnet / 19. Tidak jelas dari dokumentasi apakah ini per antarmuka atau untuk seluruh router, tetapi untuk tujuan pertanyaan ini, kita dapat berasumsi itu adalah per antarmuka.
Beberapa networkers akan mengkonfigurasi / 19 subnet pada suatu antarmuka dengan sengaja, tetapi bukan itu yang terjadi. Kami memigrasikan router inti dari model Cisco ke Brocade. Salah satu dari banyak perbedaan antara Cisco dan Brocade adalah bahwa Cisco menerima rute statis yang didefinisikan dengan antarmuka outbound dan alamat next-hop, tetapi Brocade bersikeras pada satu atau yang lain. Kami menjatuhkan alamat next-hop dan menjaga antarmuka. Kemudian, kami mempelajari kesalahan dari cara kami, dan berubah dari antarmuka ke alamat next-hop, tetapi semuanya tampaknya bekerja pada awalnya.
+----+ iface0 +----+
| R1 |-----------| R2 |---> (10.1.0.0/16 this way)
+----+.1 .2+----+
10.0.0.0/30
Sebelum migrasi, R1 adalah Cisco, dan memiliki rute berikut.
ip route 10.1.0.0 255.255.0.0 iface0 10.0.0.2
Setelah migrasi, R1 adalah Brocade, dan memiliki rute berikut.
ip route 10.1.0.0 255.255.0.0 iface0
R2 adalah router Cisco, dan router Cisco melakukan proxy ARP secara default. Ini adalah konfigurasi (salah-) dalam produksi yang mengatur tahap untuk apa yang ternyata menjadi overflow cache ARP.
- R1 menerima paket yang ditujukan untuk jaringan 10.1.0.0/16.
- Atas dasar rute antarmuka statis, ARP R1 untuk tujuan aktif
iface0
- R2 mengakui bahwa ia dapat mencapai tujuan, dan merespons ARP dengan MAC-nya sendiri.
- R1 cache hasil ARP yang menggabungkan IP di jaringan jauh dengan MAC R2.
Ini terjadi untuk setiap tujuan berbeda di 10.1.0.0/16. Akibatnya, meskipun / 16 sub-netted benar melampaui R2, dan hanya ada dua node pada tautan yang berdekatan R1 dan R2, R1 menderita kelebihan cache ARP karena menginduksi R2 untuk berperilaku seolah-olah semua alamat 65k terhubung langsung.
Alasan saya mengajukan pertanyaan ini adalah karena saya berharap ini akan membantu saya memahami laporan masalah layanan jaringan (beberapa hari kemudian) yang akhirnya membawa kami ke cache ARP yang meluap. Dalam semangat model StackExchange, saya mencoba menyaring bahwa apa yang saya yakini adalah pertanyaan yang spesifik dan tajam yang dapat dijawab secara objektif.
EDIT 1 Agar lebih jelas, saya bertanya tentang bagian dari lapisan lem antara tautan data (lapisan 2) dan jaringan (lapisan 3), bukan tabel penerusan MAC dalam lapisan tautan data. Host atau router membuat yang pertama untuk memetakan alamat IP ke alamat MAC, sementara sebuah switch membangun yang terakhir untuk memetakan alamat MAC ke port.
EDIT 2 Sementara saya menghargai upaya yang telah dijawab oleh responden untuk menjelaskan mengapa beberapa implementasi tidak terkena ARP cache overflow, saya merasa bahwa penting bagi pertanyaan ini untuk membahas yang ada. Pertanyaannya adalah "apa yang terjadi ketika", bukan "apakah vendor X rentan terhadap". Saya telah melakukan bagian saya sekarang dengan menggambarkan contoh nyata.
EDIT 3 Pertanyaan lain yang bukan ini adalah "bagaimana cara mencegah cache ARP meluap?"