四香油饼 发表于 18-9-2009 11:24:27

怎样把一个网站整个下载下来?

有什么好的软件吗?

ritz 发表于 18-9-2009 11:30:40

http://www.httrack.com/

熟悉命令行的话用 wget --mirror 也行

四香油饼 发表于 18-9-2009 11:37:25

谢谢老师指点

carol_x 发表于 19-9-2009 16:00:43

找到它的FTP IP,然后破解上传密码,这样最完整。去PCHOME里找破解程序吧。除了数据库搞不完整,其他都可以。

四香油饼 发表于 19-9-2009 16:36:39

原帖由 carol_x 于 19-9-2009 15:00 发表 http://www.freeoz.org/forum/images/common/back.gif
找到它的FTP IP,然后破解上传密码,这样最完整。去PCHOME里找破解程序吧。除了数据库搞不完整,其他都可以。


您是学艺术的??:o

黑山老妖 发表于 19-9-2009 22:01:16

teleport pro.

dack 发表于 19-9-2009 22:43:58

现在都是想办法把自己的东西往网上放,很少会有整站下载这种需求了。因为现在网络速度足够快了。

maqianyi 发表于 21-9-2009 14:58:28

原帖由 dack 于 19-9-2009 21:43 发表 http://www.freeoz.org/forum/images/common/back.gif
现在都是想办法把自己的东西往网上放,很少会有整站下载这种需求了。因为现在网络速度足够快了。
LZ是想自动把人家的网站抓下来自己用,以量取胜。

周星星1832 发表于 21-9-2009 15:31:45

......后台的怎么下载?
也就前台的 html css, javascript , imgaes 能下载下来吧

maqianyi 发表于 21-9-2009 15:52:22

原帖由 lufumin1832 于 21-9-2009 14:31 发表 http://www.freeoz.org/forum/images/common/back.gif
......后台的怎么下载?
也就前台的 html css, javascript , imgaes 能下载下来吧
后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。

周星星1832 发表于 21-9-2009 15:54:08

原帖由 maqianyi 于 21-9-2009 14:52 发表 http://www.freeoz.org/forum/images/common/back.gif

后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。
............:yct_7

ubuntuhk 发表于 21-9-2009 17:12:15

回复 #1 四香油饼 的帖子

是不是瞄上playboy了?;P ;P ;P

四香油饼 发表于 21-9-2009 22:33:31

唉,这帮人,俺其实只是要学习的,想把鸟哥私房菜网站的内容down下来慢慢看。

四香油饼 发表于 21-9-2009 22:34:59

原帖由 ubuntuhk 于 21-9-2009 16:12 发表 http://www.freeoz.org/forum/images/common/back.gif
是不是瞄上playboy了?;P ;P ;P

有个比playboy更好看的网站,成人youtube,你要不?

earthengine 发表于 22-9-2009 20:02:26

原帖由 maqianyi 于 21-9-2009 14:52 发表 http://www.freeoz.org/forum/images/common/back.gif

后台使用动态技术生成的毕竟不是太多。
大多数内容页面都是html的。
这话……放在1999年还凑合。放在2009年似乎有点……

maqianyi 发表于 25-9-2009 20:45:22

原帖由 earthengine 于 22-9-2009 19:02 发表 http://www.freeoz.org/forum/images/common/back.gif

这话……放在1999年还凑合。放在2009年似乎有点……
内容网站。。。。。动态生成的,小网站我觉得性能没有问题。大网站的话,并发100个我估计一般的机器都收不了了。当然如果你有很牛的服务器那没有问题。
就算是新浪这样的网站,他们都把内容编译成HTML。为什么呢?想过原因没有。
另外,有很多网站采集程序可以采集网站内容的。

[ 本帖最后由 maqianyi 于 25-9-2009 19:52 编辑 ]

coredump 发表于 25-9-2009 20:49:42

原帖由 maqianyi 于 25-9-2009 19:45 发表 http://www.freeoz.org/forum/images/common/back.gif

内容网站。。。。。动态生成的,小网站我觉得性能没有问题。大网站的话,并发100个我估计一般的机器都收不了了。
另外,有很多网站采集程序可以给你采集网站内容的。

是的,只有那些大量采用AJAX技术的不好下来,其它动态不动态的对于网页抓取器来说区别不大。

stiou 发表于 25-9-2009 20:54:28

LS是实话!

maqianyi 发表于 26-9-2009 00:55:44

原帖由 coredump 于 25-9-2009 19:49 发表 http://www.freeoz.org/forum/images/common/back.gif


是的,只有那些大量采用AJAX技术的不好下来,其它动态不动态的对于网页抓取器来说区别不大。
对于被抓的网站的HOST机器来说呢?这个差别是巨大的。
页: [1]
查看完整版本: 怎样把一个网站整个下载下来?