Akankah koneksi Internet bandwidth yang lebih tinggi menurunkan waktu respons ping?


15

Kedengarannya jelas bahwa koneksi yang lebih cepat menurunkan latensi ... Tapi saya ingin tahu: Saya bekerja dari jarak jauh pada host di sisi lain dunia - cahaya hanya dapat berjalan begitu cepat (1 kaki dalam nano detik) dan kami berdua memiliki koneksi broadband melebihi unggahan 1.000 kbps dan unduhan 10.000 kbps:

Apakah koneksi bandwidth yang lebih tinggi akan menurunkan waktu yang dibutuhkan untuk melakukan ping ?? Karena sangat sedikit data, bagaimana koneksi yang lebih cepat akan membantu? Saat ini ping membutuhkan 450ms apakah ada cara saya bisa memperbaikinya ??


7
Sidenote acak, jika Anda mengisi AirBus dengan hard drive 3TB dan terbang melintasi Atlantik, kecepatan koneksi mungkin dalam puluhan Gb / detik tetapi latensi akan berjam-jam.
Smudge

450ms bau seperti satelit untuk memulai. Saya hampir setengah jalan di seluruh dunia (Chicago -> Berlin) dan saya punya sekitar 125 ms. Jika Anda menganggap ini linier, hampir 450 ms akan menjadi apa - di seluruh dunia. Ada yang aneh di sini.
TomTom

2
@TomTom - op berasal dari Australia menurut profilnya, yang terkenal karena latensi yang menyedihkan di negara kita sendiri. Taruhan saya adalah bahwa sebagian besar latensi terjadi sebelum paket-paketnya bahkan meninggalkan negara itu. Jika dia bersama seseorang seperti TPG, itu mungkin terjadi sebelum meninggalkan ISP-nya.
Mark Henderson

Jawaban:


24

Pertama, Bandwidth tidak sama dengan latensi. Koneksi yang lebih cepat tidak selalu mengurangi latensi Anda. 450ms memang tampak agak lambat tetapi tidak terlalu jauh jika Anda akan 1/2 jalan di seluruh dunia. Sebagai kerangka acuan, kecepatan tinggi, tautan latensi rendah akan membutuhkan ~ 70-80ms untuk melintasi AS. Anda mungkin dapat mengurangi latensi dengan mengubah penyedia Anda dengan asumsi mereka memiliki jalur peering yang lebih optimal. tapi aku tidak bisa menjanjikan apa pun.


2
Dengan kata lain tidak. Satu-satunya cara untuk meningkatkan waktu respons dapat menggunakan penyedia berbeda yang mungkin memiliki jalur yang lebih baik. Apakah itu benar?

2
Kita perlu melihat traceroute (di kedua arah) untuk berkomentar lebih lanjut. Mengetahui latensi hop pertama (alias mil terakhir) juga dapat membantu dalam menentukan apakah penyedia lain benar-benar akan membantu atau tidak.
Wim Kerkhoff

tracereoutes sengaja diperlambat sepertinya melalui Internet dan sangat panjang ..

Ah, tidak, traceroute berfungsi dengan baik dari semua lokasi di mana saya memiliki server, maaf.
TomTom

Saya memiliki koneksi yang buruk dan jika saya membatasi bandwidth saya menggunakan Netlimiter, saya mendapatkan ping yang lebih tinggi dalam tes ... Jadi misalnya jika saya menonaktifkan 50% dari bandwidth, ping saya akan meningkat secara drastis.
Bluedayz

11

Koneksi "lebih cepat" (seperti yang Anda rujuk) tidak mengurangi latensi. Koneksi "lebih cepat" memungkinkan lebih banyak data ditempatkan pada kabel dalam periode waktu tertentu.

Bandwidth adalah ukuran kapasitas.

Latensi adalah ukuran keterlambatan.

EDIT

Berikut adalah contoh perbedaan antara bandwidth dan latensi: Bayangkan 2 koneksi internet, satu 10Mbps dan yang lainnya 1 Mbps. Keduanya memiliki latensi 50 ms. Sekarang bayangkan saya mengirim penekanan tombol ke terminal jarak jauh di ujung koneksi itu. Demi kesederhanaan katakanlah bahwa setiap keystroke mengkonsumsi bandwidth 1 Mbps. Pada koneksi 10Mbps saya dapat mengirim huruf A, B, C, D, E, F, G, H, I, J secara bersamaan, sehingga mereka semua tiba di terminal jarak jauh 50ms kemudian dan didengungkan layar ... pada saat yang sama. Sekarang pada koneksi 1Mbps setiap keystroke dikirim secara independen karena masing-masing keystroke mengkonsumsi semua bandwidth yang tersedia. Jadi huruf A dikirim, dan kemudian 50 ms kemudian diterima oleh terminal jarak jauh dan bergema di layar, diikuti oleh huruf B 50 ms setelah itu, lalu huruf C ... sampai ke huruf J. Diperlukan 500ms untuk kesepuluh huruf yang akan diterima di terminal jarak jauh dan untuk digema ke layar. Apakah koneksi 10Mbps lebih cepat? Bukan itu. Latencynya 50ms seperti koneksi 1Mbps. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi. Tampaknya lebih cepat karena memiliki throughput yang lebih tinggi (bandwidth) dan lebih banyak data dapat ditempatkan pada kabel pada satu waktu. Itulah perbedaan antara bandwidth (kapasitas) dan latensi (penundaan). Dalam arti yang ketat, koneksi "lebih cepat" (dengan cara yang Anda rujuk) tidak akan mengurangi latensi.


Jadi akankah koneksi bandwidth yang lebih tinggi menurunkan waktu respons ping? jika tidak: adakah yang bisa saya dapatkan waktu respons yang lebih baik?

1
Tidak, tidak akan. Lihat edit saya untuk penjelasan.
joeqwerty

7

Koneksi diukur dalam dua faktor utama, latensi dan bandwidth. Tidak ada yang namanya "kecepatan tinggi" atau "lebih cepat". Itu adalah pemasaran doublespeak dan tidak ada artinya dalam konteks koneksi yang dikelola secara profesional.


OK, jawaban yang sama seperti yang lain, dapatkah Anda menjawab: apakah koneksi bandwidth yang lebih tinggi akan menurunkan waktu respons ping? jika tidak: adakah yang bisa saya dapatkan waktu respons yang lebih baik?

2
Bandwidth dan Latency bersifat independen. Latensi tergantung pada tiga hal (biasanya): Media koneksi (nirkabel lambat, modem lambat, modem kabel cepat, begitu juga T1s dan Fiber), Jarak (listrik bergerak mendekati kecepatan cahaya, yang lebih lambat dari yang Anda inginkan). berpikir), Kemacetan (menunggu giliran Anda menambah waktu). Faktor pertama adalah satu-satunya yang akan Anda kendalikan.
Chris S

Benar tetapi lebih mudah untuk mengatakan "koneksi kecepatan tinggi" daripada "kami memindahkan lebih banyak paket per detik daripada yang lainnya!"
JYelton

mengerti - tapi itu tidak benar - melihat apa yang dikatakan api perak. Ambil contoh ping 32 byte: Anda mengatakan selama bandwidth pada masing-masing peer lebih besar dari 32 byte per detik dan tidak ada peer yang melakukan comms lain, hanya butuh waktu latensi untuk mencapai peer lain; sebenarnya akan membutuhkan 1 detik + latensi karena rekan harus mengunduh ping 32 byte sedangkan jika koneksi memiliki bandwidth 320 byte per detik akan membutuhkan 0,1 detik + latensi. Diakui begitu Anda mendapatkan koneksi lebih dari 1 MB / s maka unduhan saat ini kecil. Tapi silverfire benar.

2
Total waktu transmisi tidak sama pada latensi. Uji ping mencoba memperkirakan latensi dengan mengirim transmisi yang sangat kecil. Fakta bahwa bandwidth, terutama dalam contoh ekstrem, memengaruhi waktu transmisi total tidak hilang pada saya atau orang-orang yang memutuskan uji ping standar adalah 32 byte. Latensi adalah waktu yang dibutuhkan transmisi dari awal transmisi ke awal penerimaan di ujung lainnya. Hyperbole menjadi contoh yang bagus: Jika Anda menguji koneksi dengan file 100MB, dan butuh 3 jam, koneksi Anda mungkin tidak memiliki latensi 3 jam.
Chris S

4

Saya punya poin untuk mengatakan di sini terkait dengan ping.

Biasanya, traffic ICMP tidak diberi prioritas tinggi. Jadi, mengukur keterlambatan / latensi jaringan tidak akan akurat menggunakan ping atau lalu lintas berbasis icmp lainnya.

Penundaan antara dua poin dapat dihitung menggunakan rumus:

Total delay = transmission delay + propagation delay + processing delay

Penundaan transmisi adalah waktu untuk mendorong bit paket pada kabel. Penundaan propagasi terkait dengan media dan merupakan waktu untuk mencapai tujuan. Keterlambatan pemrosesan terkait dengan mesin / router penerima dan pengirim.


2

Seringkali, ya. Tetapi keduanya bukan hal yang sama dan tidak terhubung langsung. Itu hanya terjadi bahwa biasanya koneksi dengan bandwidth lebih banyak juga memiliki latensi lebih rendah karena teknologi yang digunakan.

Tapi itu tidak selalu benar. Pertimbangkan metode cepat untuk mentransfer sejumlah besar data: mengisi 12 hard disk 2TB dengan data dan mengirimkannya melalui kurir. Kecepatan transfer data SANGAT tinggi (lebih dari 2000MBps mengingat Anda dapat mengirim 24TB dalam 24 jam). Latensi juga sangat tinggi (24 jam). Dialup memiliki latensi yang jauh lebih rendah daripada itu, tetapi perlu bertahun-tahun untuk mengirim 24TB melalui dialup.

Bukan ide yang baik untuk langsung menyamakan keduanya. Jika Anda secara khusus membutuhkan latensi yang lebih rendah, Anda harus bertanya tentang hal itu secara khusus dan tidak berbelanja dengan bandwidth.


+1 untuk mengutip Tanenbaum, bahkan jika mungkin Anda tidak menyadarinya :-)
Massimo

0

Satu-satunya solusi nyata untuk meningkatkan latensi Anda adalah mempersingkat jumlah hop di antara dua host yang dimaksud.

Jika Anda adalah pelanggan korporat yang cukup besar, Anda harus dapat membuka dialog dengan penyedia telekomunikasi Anda pada kedua ujungnya tentang mengambil rute IP yang lebih pendek (mungkin lebih mahal) antara kedua situs.


4
Jumlah hop tidak berarti apa-apa. Saya lebih suka menggunakan jalur dengan 30 hop yang transit murni melalui serat kemudian jalur 5 hop yang memiliki koneksi satelit di dalamnya.
Wim Kerkhoff

0

Anda telah melakukan banyak posisi tanpa mengumpulkan fakta. Taruhan terbaik Anda adalah mencoba mengidentifikasi sumber latensi tinggi: dari mana asalnya? Kemudian Anda dapat mencoba menjawab pertanyaan: bagaimana cara memperbaikinya?

Jalankan traceroute, atau lebih baik lagi, mtr (mytraceroute). Jika Anda menggunakan Windows, Anda dapat menggunakan winmtr. PingPlotter juga merupakan alat yang bagus untuk ini.

Temukan di mana latensi tinggi Anda dimulai, kemudian bekerja untuk memperbaikinya. Melemparkan lebih banyak bandwidth pada masalah Anda bukanlah jawabannya.


0

Bandwidth yang lebih tinggi tidak akan banyak membantu, kecuali data curah menghilangkan data interaktif. Jika kedua belah pihak menggunakan serat bukan xDSL / Kabel / Nirkabel, yang mungkin Anda mencukur 20-80ms pada RTT Anda.

Lakukan tes ping menggunakan pingtest.net untuk menentukan kualitas setiap tautan. Latensi itu penting, tetapi / jitter / dapat membuat perbedaan besar juga. Saya lebih suka memiliki koneksi yang lebih lambat (3 Mbps) tanpa jitter daripada koneksi yang lebih cepat (misalnya 15 Mbps) dengan jitter.

Untuk koneksi TCP (mis. SSH, telnet dll), beberapa penyetelan TCP dapat membantu.

Anda juga dapat melihat menggunakan akselerator TCP; ada yang komersial tetapi pepsal sudah bisa membuat perbedaan.


0

Mungkin firewall / router Anda adalah masalahnya ...

Satu-satunya cara untuk BENAR-BENAR mengetahui di mana kerusakannya adalah dengan melakukan traceroute, seperti yang dinyatakan di atas,


0

Ada banyak jawaban berbeda untuk pertanyaan ini, dan jawaban yang benar (menurut saya) adalah "Itu tergantung".

Tidak masalah jika Anda memiliki koneksi 1gbit / s jika sudah jenuh. TCP (dan protokol lainnya) bergantung pada pemeriksaan transmisi yang pada 99% kasus tidak diprioritaskan dengan benar dengan QoS atau teknologi serupa.

Garis simetris (SDSL, serat dll.) Umumnya lebih cocok untuk operasi dengan latensi rendah, karena mereka tidak berbagi RX dengan TX (yang berarti bahwa TCP ACK, balasan ICMP, dll. Tidak akan terhalang jika Anda mengunduh dengan kobaran api penuh). Masih memerlukan QoS untuk menjamin lalu lintas untuk aplikasi sensitif (khususnya VoIP).

Anehnya, jumlah hit (dan kualitas hit) di google ketika memprioritaskan TCP ACK cukup tipis .. bicara dengan pakar jaringan mana pun, dan mereka akan tahu mengapa Anda memerlukan ini.


-1

Ya, tapi tidak banyak.

Bandwidth yang lebih tinggi akan berarti bahwa paket tersebut akan memakan waktu lebih sedikit untuk sepenuhnya mengunduh sebelum paket lain dapat mengirimkan data dan waktu seluruh paket untuk mengunduh adalah faktor di sini juga tetapi pada kenyataannya itu hanya akan menambah 10-20 ms dalam kondisi terburuk kasus.

Kemungkinan penyebab latensi lainnya adalah transmisi nirkabel, hampir setiap bentuk nirkabel multi-akses akan menimbulkan banyak masalah pada latensi, apakah itu nirkabel rumah biasa atau nirkabel seluler karena kartu nirkabel harus menunggu sampai semua orang selesai mengirimkan data sebelum dapat mengirim memiliki data. Semakin banyak pengguna mentransmisikan pada sistem nirkabel, semakin lambat kecepatan DAN latensi (sekali lagi tidak banyak, terutama disebabkan oleh menunggu sampai jelas untuk mengirim)

Faktor nomor satu adalah waktu paket data akan dihabiskan untuk diurutkan pada router dan infrastruktur WAN lainnya.

Waktu minimum teoritis satu paket data yang diperlukan untuk melakukan perjalanan ke seluruh dunia adalah sekitar 70 ms, saat itulah paket tersebut bepergian dengan kecepatan cahaya.

Tanyakan sekitar dan cari tahu apakah orang lain pada koneksi yang lebih cepat dan ISP lain mengalami latensi yang sama, sangat mungkin disebabkan oleh ISP atau koneksi tetapi sangat tidak mungkin.


Jawaban singkat, ya itu akan menurunkan waktu latensi, tetapi tidak sebanyak itu.
Silverfire

-2

Bandwidth dan penundaan berbeda, tetapi tidak sepenuhnya tidak terhubung. Meskipun pada dasarnya benar, banyak hal tidak hitam dan putih. Ada banyak nuansa abu-abu di antaranya.

Memang benar bahwa memiliki bandwidth yang lebih besar tidak selalu berarti memiliki penundaan yang lebih rendah, dan itu tidak berarti memiliki penundaan yang sama atau lebih tinggi.

Kita harus ingat bahwa itu tergantung pada infrastruktur yang terdiri dari perangkat jaringan dan media fisik di jalan dari host kami ke tujuannya.

Satu ISP dapat memprioritaskan koneksi bandwidth rendah / tinggi, dan memberikan lebih banyak manfaat perangkat keras dan lunak untuk satu atau yang lain yang akan menghasilkan perbedaan dalam penundaan.

Dan dengan semangat berbagai contoh berbeda yang diberikan di sini, ya - lebih baik mengambil truk dengan 20 disk dengan kapasitas yang sama kemudian mengambil truk yang sama dengan hanya 1 dari 20 disk ini. Namun - bagaimana dengan berat disk? Lebih banyak disk berarti lebih banyak bahan bakar dan akselerasi lebih lambat. Tetapi bagaimana jika saya mengganti mesin truk?

Jadi, singkatnya - bandwidth dan delay berbeda, tetapi tidak sepenuhnya tidak terhubung.

Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.