如何使用所有媒体保存公共html页面并保留结构
时间:2020-03-05 18:57:49 来源:igfitidea点击:
寻找一个Linux应用程序(或者Firefox扩展),它将允许我抓取HTML模型并保持页面的完整性。 Firefox几乎可以完美地完成工作,但不能抓取CSS中引用的图像。
Firefox的Scrabbook扩展程序可以获取所有内容,但可以平整目录结构。
如果所有文件夹都成为索引页的子级,我不会很介意。
解决方案
回答
我们尝试过wget吗?
回答
Teleport Pro非常适合此类事情。我们可以将其指向完整的网站,它将在本地下载一个副本,以维护目录结构,并在必要时用相对链接替换绝对链接。我们也可以指定是否要从原始网站链接到其他第三方网站的内容。
回答
使用wget查看网站镜像
wget --mirror –w 2 –p --HTML-extension –-convert-links http://www.yourdomain.com
回答
wget -r可以满足要求,如果没有,有很多标记可以配置它。参见man wget
。
另一个选择是" curl",它甚至更强大。请参阅http://curl.haxx.se/。