如何使用所有媒体保存公共html页面并保留结构

时间:2020-03-05 18:57:49  来源:igfitidea点击:

寻找一个Linux应用程序(或者Firefox扩展),它将允许我抓取HTML模型并保持页面的完整性。 Firefox几乎可以完美地完成工作,但不能抓取CSS中引用的图像。

Firefox的Scrabbook扩展程序可以获取所有内容,但可以平整目录结构。

如果所有文件夹都成为索引页的子级,我不会很介意。

解决方案

回答

我们尝试过wget吗?

回答

Teleport Pro非常适合此类事情。我们可以将其指向完整的网站,它将在本地下载一个副本,以维护目录结构,并在必要时用相对链接替换绝对链接。我们也可以指定是否要从原始网站链接到其他第三方网站的内容。

回答

使用wget查看网站镜像

wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com

回答

wget -r可以满足要求,如果没有,有很多标记可以配置它。参见man wget

另一个选择是" curl",它甚至更强大。请参阅http://curl.haxx.se/。