Jawaban:
Anda dapat menggunakan wget
perintah untuk mengunduh halaman dan membacanya menjadi variabel sebagai:
content=$(wget google.com -q -O -)
echo $content
Kami menggunakan -O
opsi wget
yang memungkinkan kami menentukan nama file yang akan wget
membuang konten halaman. Kami menentukan -
untuk mendapatkan dump ke output standar dan mengumpulkannya ke dalam variabel content
. Anda dapat menambahkan -q
opsi diam untuk mematikan output wget.
Anda dapat menggunakan perintah curl untuk ini juga:
content=$(curl -L google.com)
echo $content
Kita perlu menggunakan -L
opsi ini karena halaman yang kita minta mungkin telah dipindahkan. Dalam hal ini kita perlu mendapatkan halaman dari lokasi baru. The -L
atau --location
opsi membantu kami dengan ini.
src
atribut dari elemen yang benar, kemudian download yang halaman. Jika Anda menginstal tq , perintah ini harus melakukannya:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
dengan -O-
pilihan. Itu gagal karena kesalahan -k can be used together with -O only if outputting to a regular file.
. Apakah itu diharapkan?
Ada banyak cara untuk mendapatkan halaman dari baris perintah ... tetapi itu juga tergantung apakah Anda menginginkan sumber kode atau halaman itu sendiri:
Jika Anda membutuhkan sumber kode:
dengan ikal:
curl $url
dengan wget:
wget -O - $url
tetapi jika Anda ingin mendapatkan apa yang dapat Anda lihat dengan browser, lynx bisa berguna:
lynx -dump $url
Saya pikir Anda dapat menemukan begitu banyak solusi untuk masalah kecil ini, mungkin Anda harus membaca semua halaman manual untuk perintah tersebut. Dan jangan lupa ganti $url
dengan URL Anda :)
Semoga berhasil :)
Ada wget
perintah atau curl
.
Sekarang Anda dapat menggunakan file yang Anda unduh dengan wget. Atau Anda dapat menangani aliran dengan curl.
Sumber:
Jika Anda memiliki LWP terinstal, ia menyediakan biner bernama " GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Transisi // EN"> <HTML> <KEPALA> <META http-equiv = "Content-Type" content = "text / html; charset = utf-8"> <TITLE> Contoh Halaman Web </TITLE> </HEAD> <body> <p> Anda telah mencapai halaman web ini dengan mengetik & quot; example.com & quot ;, & quot; example.net & quot;, & quot; example.org & quot atau & quot; example.edu & quot; ke browser web Anda. </p> <p> Nama domain ini dicadangkan untuk digunakan dalam dokumentasi dan tidak tersedia untuk pendaftaran. Lihat <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC 2606 </a>, Bagian 3. </p> </BODY> </HTML>
wget -O-
,, curl
dan lynx -source
berperilaku serupa.
Anda dapat menggunakan curl
atau wget
untuk mengambil data mentah, atau Anda dapat menggunakan w3m -dump
untuk memiliki representasi teks yang bagus dari sebuah halaman web.
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.