开发者社区> 问答> 正文

如何在Linux服务器上限制蜘蛛的爬行?

最近发现服务器的内存总是保持在700多MB,太不正常了,因为我的仅仅是一个wordpress,我就看网站日志,晕,好多蜘蛛啊,百度谷歌360蜘蛛也就算了,但是来了好多国外的蜘蛛,爬行的很频繁啊,严重影响服务器的性能,我不想给网站目录加 robots.txt文件,据说好像影响百度蜘蛛爬行,所以有没有什么办法直接在linux上限制,仅限于百度,谷歌,360,搜狗蜘蛛爬行,剩下的全部屏蔽!


有大神没??、

展开
收起
allyess 2014-06-19 16:28:25 6960 0
5 条回答
写回答
取消 提交回答
  • Re如何在Linux服务器上限制蜘蛛的爬行?
    用rebots就可以
    2014-06-20 09:32:59
    赞同 展开评论 打赏
  • Re如何在Linux服务器上限制蜘蛛的爬行?
    robots.txt写个限制抓取指令。喜欢哪个蜘蛛就让哪个蜘蛛抓取。
    2014-06-19 18:31:09
    赞同 展开评论 打赏
  • Re如何在Linux服务器上限制蜘蛛的爬行?
    十分感谢,已经解决~

    -------------------------

    Re如何在Linux服务器上限制蜘蛛的爬行?
    robots.txt没有用,robots.txt并不是法律,蜘蛛可遵守,也可以选择不遵守,无视你的robots.txt!昨天有几十个国外蜘蛛在我服务器里爬来爬去,很活跃,造成我的服务器资源大量消耗被占用,只能用二楼帅哥给我的方法了,直接屏蔽这些蜘蛛的IP,很有效!
    2014-06-19 17:47:26
    赞同 展开评论 打赏
  • 楼主定期回收下内存即可,另外你安装wp-super-cache了吗?

    -------------------------

    其实有些搜索流量较小的搜索引擎,完全可以用rebots屏蔽掉。

    2014-06-19 17:04:34
    赞同 展开评论 打赏
  • 仅限于百度,谷歌,360,搜狗蜘蛛爬行,剩下的全部屏蔽!
    对于这一条,做不到,你得把你要屏蔽的一条一条的往上加。

    NGINX改配置文件,apache用.htaccess,限制useragent,具体代码百度下吧。

    http://www.baidu.com/s?ie=UTF-8&wd=apache+nginx+屏蔽蜘蛛
    2014-06-19 16:30:51
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Alibaba Cloud Linux 3 发布 立即下载
ECS系统指南之Linux系统诊断 立即下载
ECS运维指南 之 Linux系统诊断 立即下载