[備忘録]: wgetでWebの引っ越し

あるサイトのコンテンツをまとめて別のサイトに移したいような場合、一番楽なのはたぶんrsyncとかでがばっと持って行くこと、という気がするけど、実はwgetを使うのがかなり楽ちんだということが分かった。たまにしかこういうことしないので、すぐにオプションを忘れてmanを通読することになるので、ここに覚え書き。

% wget -rpkK -l2 -nH --cut-dirs=1 http://www.example.com/top/

これで、そのページからリンクされているCSSや画像なんかも含めてごっそり手元に保存できる。ポイントは-r, -k, -p あたり。

-r: リカーシブにリンクをたどってくれる。 -l?でどれだけ深追いするかを指定できる。

-k: ファイル内のa, area, link要素のリンク先を適宜書き替えてくれる。 -Kでバックアップ作製。

-p: そのページを表示するのに必用なファイル群は必ず取得してくれる。 -lの指定ではじかれてしまうようなファイルも、必用があれば取得する。

-nHと--cut-dirsは、ファイルを保存する時にどのようなディレクトリに保存するかを指定するオプション。何もしていしないと、上の例の場合、./www.example.com/top/以下にファイルが保存され、-nHがあると./top/以下、-nHと--cut-dirs=1があるとカレント・ディレクトリーに保存される。

とりあえず -k の機能はかなり便利で、rsyncにはまねできない。きっともっとちゃんとmanを読むと、もっと便利なことがいろいろとあるんだろうけど、僕の用途ではこれで充分。

サイドバー (左)

Powered by Movable Type 5.2.9

サイドバー (右)

このブログ記事について

このページは、Maxが2012年2月 8日 01:45に書いたブログ記事です。

ひとつ前のブログ記事は「Lightning復活」です。

次のブログ記事は「有料メルマガ+無料音声配信という組み合わせ -- ポッドキャスト復活の野望 --」です。

最近のコンテンツはインデックスページで見られます。過去に書かれたものはアーカイブのページで見られます。