Bir sayfa, tümünü indirmek istediğim bir .zip dosyası kümesine bağlantılar içerir. Bunun wget ve curl tarafından yapılabileceğini biliyorum. Nasıl oldu?Belirli bir web sayfasında wget/curl kullanarak .zip dosyalarına tüm bağlantılar nasıl karşıdan yüklenir?
cevap
komut şöyledir:
wget -r -np -l 1 -A zip http://example.com/download/
Seçenekler anlam: çözümü Üstü
-r, --recursive specify recursive download.
-np, --no-parent don't ascend to the parent directory.
-l, --level=NUMBER maximum recursion depth (inf or 0 for infinite).
-A, --accept=LIST comma-separated list of accepted extensions.
benim için çalışmaz. Benim için sadece bu işleri:
wget -r -l1 -H -t1 -nd -N -np -A.mp3 -erobots=off [url of website]
Seçenekler anlam: Diğer senaryolar için
-r recursive
-l1 maximum recursion depth (1=use only this directory)
-H span hosts (visit other hosts in the recursion)
-t1 Number of retries
-nd Don't make new directories, put downloaded files in this one
-N turn on timestamping
-A.mp3 download only mp3s
-erobots=off execute "robots.off" as if it were a part of .wgetrc
Kaynak: http://www.commandlinefu.com/commands/view/12498/download-all-music-files-off-of-a-website-using-wget –
evet, teşekkürler! Nereden geldiğini hatırlamadım, sadece senaryolarımda yalan söyledim. –
üzgünüm. yeni bir soru yap! ;) –
bazı paralel büyü ile kullandığım:
curl [url] | grep -i [filending] | sed -n 's/.*href="\([^"]*\).*/\1/p' | parallel -N5 wget -
'-nd' (hayır dizinleri) Ekstra dizinlerin oluşturulmasını istemediğinizde bayrak (yani, tüm dosyalar kök klasörde olacaktır). –
Verilen sayfadan daha derine inmek için bu çözümü nasıl değiştirebilirim? -20 denedim, ama wget hemen durur. – Wrench