找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 70|回复: 11

wget 如何批量下载,并按原目录结构保存

[复制链接]

8

主题

108

回帖

246

积分

中级会员

积分
246
发表于 2017-4-27 08:48:53 | 显示全部楼层 |阅读模式
各位dalao wget 如何批量下载,并按原目录结构保存

目标网址是,下面的格式,以下只是举例,数量很多

http://www.xxx.com/aaa/文件名kkjf441.rar
http://www.xxx.com/aaa/文件名kk1221.rar
http://www.xxx.com/aaa/文件名1202221.rar
http://www.xxx.com/aaa/文件名k12f21.rar

http://www.xxx.com/bbb/文件名dfjfs21.rar
http://www.xxx.com/bbb/文件名kdfjf21.rar
http://www.xxx.com/bbb/文件名qwjf21.rar
http://www.xxx.com/bbb/文件名op2kjf21.rar

http://www.xxx.com/ccc/文件名dfjfs21.rar
http://www.xxx.com/ccc/文件名kdfjf21.rar
http://www.xxx.com/ccc/文件名qwjf21.rar
http://www.xxx.com/ccc/文件名op2kjf21.rar

各文件的地址全部可以获取到,我想实现的是,如何使用wget 批量下载上面的文件,并按原文件名和原目录保存呢?
回复

使用道具 举报

8

主题

108

回帖

246

积分

中级会员

积分
246
 楼主| 发表于 2017-4-27 08:54:24 | 显示全部楼层

传奇1900 发表于 2017-4-27 08:54

wget -c -r -np --restrict-file-names=nocontrol -L -p www.xxx.org/pub/path/

-c 断点续传

1. 只有各文件的url,直接访问目录是不显示文件地址的
2. 这样下载的,也是按目录保存吗,不是所有的文件放在一个目录下了吗
回复

使用道具 举报

1

主题

1175

回帖

2365

积分

金牌会员

积分
2365
发表于 2017-4-27 08:58:51 | 显示全部楼层
过来学习一下姿势……

回复

使用道具 举报

110

主题

1497

回帖

3344

积分

论坛元老

积分
3344
发表于 2017-4-27 08:54:00 | 显示全部楼层
wget --mirror http://www.xxx.com/aaa/ 不用谢
回复

使用道具 举报

8

主题

108

回帖

246

积分

中级会员

积分
246
 楼主| 发表于 2017-4-27 09:01:39 | 显示全部楼层

shc 发表于 2017-4-27 09:02

wget --mirror http://www.xxx.com/aaa/ 不用谢


目录下就一个index.html ,是没有其它具体的文件地址的,这样也能行吗?
回复

使用道具 举报

4

主题

110

回帖

238

积分

中级会员

积分
238
发表于 2017-4-27 09:02:29 | 显示全部楼层
都是高手,服务器不开启列表,你们确定你们这样能wget到?要是能的话,麻烦帮我把百度的源码下过来一份。
回复

使用道具 举报

323

主题

3885

回帖

8835

积分

论坛元老

积分
8835
发表于 2017-4-27 09:03:01 | 显示全部楼层

传奇1900 发表于 2017-4-27 08:54

wget -c -r -np --restrict-file-names=nocontrol -L -p www.xxx.org/pub/path/

-c 断点续传

厉害了
klon99 发表于 2017-4-27 09:10

目录下就一个index.html ,是没有其它具体的文件地址的,这样也能行吗?

没有当然不行。你要是知道每个文件的文件名就写个loop依次curl吧
回复

使用道具 举报

0

主题

1

回帖

4

积分

新手上路

积分
4
发表于 2017-4-27 09:10:28 | 显示全部楼层
wget -x -i url_list.txt

-x
       --force-directories
           The opposite of -nd---create a hierarchy of directories, even if
           one would not have been created otherwise.  E.g. wget -x
           http://fly.srk.fer.hr/robots.txt will save the downloaded file to
           fly.srk.fer.hr/robots.txt.

-i file
       --input-file=file
           Read URLs from a local or external file.  If - is specified as
           file, URLs are read from the standard input.  (Use ./- to read from
           a file literally named -.)
回复

使用道具 举报

5

主题

75

回帖

175

积分

注册会员

积分
175
发表于 2017-4-27 09:02:00 | 显示全部楼层

爱纯粹 发表于 2017-4-27 09:24

wget -x -i url_list.txt

-x

谢谢,我先尝试一下,另外,如果对于已经下载的过的文件,不在下载,又要怎么处理呢。
回复

使用道具 举报

8

主题

108

回帖

246

积分

中级会员

积分
246
 楼主| 发表于 2017-4-27 09:12:12 | 显示全部楼层

传奇1900 发表于 2017-4-27 09:59

那可以这样
把你所有需要下载的文件列到一个txt里
然后wget -i download.txt

嗯,这样可行,但目录一多,这方法,工作量就大了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Discuz! X

GMT+8, 2025-2-11 17:12 , Processed in 0.025456 second(s), 3 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表