LinuxでWebサイトをダウンロードする方法(wget)
wgetはLinuxでWebサイトをダウンロードするのに便利なコマンドです。たとえば、
wget[url]
となります。
….[mkyong@snake ~]$ wget -r -p -k -E
http://www.google.com
–2009-07-19 14:07:27–
http://www.google.com/
www.google.comを解決する… 64.233.189.104 www.google.comに接続する| 64.233.189.104 |:80 …接続しました。
HTTP要求が送信され、応答を待っています… 302 Found
場所:http://www.google.com.my/[フォロー中]–2009-07-19 14:07:27–
http://www.google.com.my/www.google.com.myを解決する…
; 64.233.189.147
www.google.com.my | 64.233.189.147 |:80 …に接続しています。
HTTP要求が送信され、応答を待っています… 200 OK
長さ:不特定[text/html]保存先: ‘www.google.com.my/index.html’
[<⇒]5,742 –.- 0.05秒でK/秒
2009-07-19 14:07:27(102 KB/s) – 「www.google.com.my/index.html」が保存されました[5742]
終了—2009-07-19 14:07:27–
ダウンロード:1ファイル、5.6K in 0.05s(102 KB/s)
www.google.com.my/index.htmlを変換する… 0-12
0.001秒で1ファイルを変換しました。
上記のコマンドは "google.com"ウェブサイトをローカルドライブにダウンロードします。 === Wgetのオプションの説明 ________________________________________________________________________________________________________________________________________________ -r, –recursive specify recursive download. + -k, –convert-links make links in downloaded HTML point to local files. + -p, –page-requisites get all images, etc. needed to display HTML page. + -E, –html-extension save HTML documents with `.html’ extension. ________________________________________________________________________________________________________________________________________________ wgetにはまだ多くの便利なオプションがあります。** man wget ** や** wget -help ** を発行して他のオプションについて詳しく調べてください。 リンク://タグ/unix/[unix]