Linux命令下载整个网站
http://www.linuxjournal.com/content/downloading-entire-web-site-wget
```bash
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
```
[--recursive](# "迭代下载整个网站."),
[--no-clobber](# "不覆盖已有的文件. 下载中断后重新下载不从头开始."),
[--page-requisites](# "获取构成网站的所有文件 e.g. images, CSS ...."),
[--html-extension](# "保存为html格式."),
[--no-parent](# "不下载超出此路径的链接 tutorials/html/."),
```bash
wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
```
[--recursive](# "迭代下载整个网站."),
[--no-clobber](# "不覆盖已有的文件. 下载中断后重新下载不从头开始."),
[--page-requisites](# "获取构成网站的所有文件 e.g. images, CSS ...."),
[--html-extension](# "保存为html格式."),
[--convert-links](# "转换链接, 使得他们能够在本地离线打开."),
[--restrict-file-names=windows](# "修改文件名使得他们能够在windows下正确显示."),
[--domains website.org](# "限制在此域名范围内, 外链不下载."),[--no-parent](# "不下载超出此路径的链接 tutorials/html/."),
评论
发表评论