怎样把一个网站整个下载下来?
有什么好的软件吗? http://www.httrack.com/熟悉命令行的话用 wget --mirror 也行 谢谢老师指点 找到它的FTP IP,然后破解上传密码,这样最完整。去PCHOME里找破解程序吧。除了数据库搞不完整,其他都可以。 原帖由 carol_x 于 19-9-2009 15:00 发表 http://www.freeoz.org/forum/images/common/back.gif
找到它的FTP IP,然后破解上传密码,这样最完整。去PCHOME里找破解程序吧。除了数据库搞不完整,其他都可以。
您是学艺术的??:o teleport pro. 现在都是想办法把自己的东西往网上放,很少会有整站下载这种需求了。因为现在网络速度足够快了。 原帖由 dack 于 19-9-2009 21:43 发表 http://www.freeoz.org/forum/images/common/back.gif
现在都是想办法把自己的东西往网上放,很少会有整站下载这种需求了。因为现在网络速度足够快了。
LZ是想自动把人家的网站抓下来自己用,以量取胜。 ......后台的怎么下载?
也就前台的 html css, javascript , imgaes 能下载下来吧 原帖由 lufumin1832 于 21-9-2009 14:31 发表 http://www.freeoz.org/forum/images/common/back.gif
......后台的怎么下载?
也就前台的 html css, javascript , imgaes 能下载下来吧
后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。 原帖由 maqianyi 于 21-9-2009 14:52 发表 http://www.freeoz.org/forum/images/common/back.gif
后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。
............:yct_7
回复 #1 四香油饼 的帖子
是不是瞄上playboy了?;P ;P ;P 唉,这帮人,俺其实只是要学习的,想把鸟哥私房菜网站的内容down下来慢慢看。 原帖由 ubuntuhk 于 21-9-2009 16:12 发表 http://www.freeoz.org/forum/images/common/back.gif是不是瞄上playboy了?;P ;P ;P
有个比playboy更好看的网站,成人youtube,你要不? 原帖由 maqianyi 于 21-9-2009 14:52 发表 http://www.freeoz.org/forum/images/common/back.gif
后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。
这话……放在1999年还凑合。放在2009年似乎有点…… 原帖由 earthengine 于 22-9-2009 19:02 发表 http://www.freeoz.org/forum/images/common/back.gif
这话……放在1999年还凑合。放在2009年似乎有点……
内容网站。。。。。动态生成的,小网站我觉得性能没有问题。大网站的话,并发100个我估计一般的机器都收不了了。当然如果你有很牛的服务器那没有问题。
就算是新浪这样的网站,他们都把内容编译成HTML。为什么呢?想过原因没有。
另外,有很多网站采集程序可以采集网站内容的。
[ 本帖最后由 maqianyi 于 25-9-2009 19:52 编辑 ] 原帖由 maqianyi 于 25-9-2009 19:45 发表 http://www.freeoz.org/forum/images/common/back.gif
内容网站。。。。。动态生成的,小网站我觉得性能没有问题。大网站的话,并发100个我估计一般的机器都收不了了。
另外,有很多网站采集程序可以给你采集网站内容的。
是的,只有那些大量采用AJAX技术的不好下来,其它动态不动态的对于网页抓取器来说区别不大。 LS是实话! 原帖由 coredump 于 25-9-2009 19:49 发表 http://www.freeoz.org/forum/images/common/back.gif
是的,只有那些大量采用AJAX技术的不好下来,其它动态不动态的对于网页抓取器来说区别不大。
对于被抓的网站的HOST机器来说呢?这个差别是巨大的。
页:
[1]