整站下载器,一个wget命令就搞定了!
wget通常我们用来下载文件用的普通工具而已,其实只要添加参数就能够迅速完成网站克隆下载任务了;
Wget整站下载命令:
wget -c -r -np -k -p -L www.test.com
wget -c -r -np -k -p www.test.com
执行完该命令后,会在当前路径下生成一个www.test.com
的文件夹,所有文件全部都会下载到这个目录之中;
Wget参数说明:
-r –recursive(递归) specify recursive download.(指定递归下载)
-k –convert-links(转换链接) make links in downloaded HTML point to local files.(将下载的HTML页面中的链接转换为相对链接即本地链接)
-p –page-requisites(页面必需元素) get all images, etc. needed to display HTML page.(下载所有的图片等页面显示所需的内容)
-np –no-parent(不追溯至父级) don’t ascend to the parent directory.
-L --relative Follow relative links only. Useful for retrieving a specific home page without any distractions, not even those from the same hosts.
额外参数:
-nc 断点续传
-o 生成日志文件
就是这么简单,就是粗暴,就是这么有效,想扒皮仿站的站长们来测试一下下吧!
» 本文链接:https://blog.apires.cn/archives/2249.html
» 转载请注明来源:Java地带
» 《整站下载器,一个wget命令就搞定了!》
» 本文章为Java地带整理创作,欢迎转载!转载请注明本文地址,谢谢!
» 部分内容收集整理自网络,如有侵权请联系我删除!
» 订阅本站:https://blog.apires.cn/feed/
评论已关闭