我在几个不同的网站上有几个网页,我想完全镜像.这意味着我将需要图像,CSS等,并且需要转换链接.此功能类似于使用Firefox"将页面另存为"并选择"网页,完整".我想将文件和相应的目录命名为合理的(例如myfavpage1.html,myfavpage1.dir).
我无法访问服务器,它们不是我的页面.这是一个示例链接:单击我!
更多的澄清......我想要镜像大约100页(许多来自慢速服务器),我将在Solaris 10上完成工作并将结果每小时转储到一个samba挂载供人们查看.并且,是的,我显然已经尝试了几个不同的标志wget但我没有得到我正在寻找的结果.所以,指向GNU wget页面并没有多大帮助.让我从一个简单的例子开始.
wget --mirror -w 2 -p --html-extension --tries=3 -k -P stackperl.html "/sf/ask/17360801/"
从这里,我应该看到stackper.html文件中的/sf/ask/17360801/页面,如果我有正确的标志.
如果您只是想运行命令并获取网站的副本,请使用其他人建议的工具,例如wget,curl或某些GUI工具.我使用自己的个人工具,我称之为webreaper(虽然不是Windows WebReaper.我知道一些Perl程序,包括webmirror和其他一些你可以在CPAN上找到的程序.
如果你想在你写的Perl程序中这样做(因为你的答案上有"perl"标签),CPAN中有很多工具可以帮助你完成每一步:
正在下载内容:LWP :: Simple,LWP :: UserAgent,WWW :: Mechanize
链接提取:HTML :: LinkExtor,HTML :: SimpleLinkExtor
链接重写:HTML :: Parser
祝好运, :)