1. ホーム
  2. ハイパーリンク

[解決済み】オンラインファイル/フォルダーリストに表示されているすべてのファイルとサブディレクトリを含むHTTPディレクトリをダウンロードする方法は?

2022-05-11 02:18:38

質問

私がアクセスできるオンラインHTTPディレクトリがあります。私はすべてのサブディレクトリとファイルをダウンロードしようとしました wget . しかし、問題なのは wget はサブディレクトリをダウンロードします。 index.html ファイルをダウンロードすることなく、そのディレクトリにあるファイルのリストを含むファイルをダウンロードします。

深さ制限なしでサブディレクトリとファイルをダウンロードする方法はありますか(ダウンロードしたいディレクトリがちょうど私のコンピュータにコピーしたいフォルダであるかのように)。

解決方法は?

解決方法

wget -r -np -nH --cut-dirs=3 -R index.html http://hostname/aaa/bbb/ccc/ddd/

説明する。

  • にあるすべてのファイルとサブフォルダをダウンロードします。 ddd ディレクトリ
  • -r : 再帰的に
  • -np : のように上位ディレクトリに行かない。 ccc/...
  • -nH : hostname フォルダにファイルが保存されない
  • --cut-dirs=3 : に保存していますが ぽっちゃり 省みず 最初の3つのフォルダー なんちゃって , 玉石混交 , シーシー
  • -R index.html を除く。 索引.html ファイル

参考 http://bmwieczorek.wordpress.com/2008/10/01/wget-recursively-download-all-files-from-certain-directory-listed-by-apache/