开发者社区> 问答> 正文

google无法访问robots文件

貌似最近很多人出现了这个情况,google 已经连续一个星期无法访问网站的robots文件了
貌似前面有人遇到过这个问题,也是用的阿里云服务器,不知道最近是如何解决的


我的网站域名是.cn,所以google 站长里面显示的网站地域就是:中国


各位有没有遇到这样的问题啊?

展开
收起
carlsberg 2013-09-09 09:26:17 9919 0
8 条回答
写回答
取消 提交回答
  • Regoogle无法访问robots文件
    完全搞不定了、好蛋疼的
    2015-08-07 06:43:56
    赞同 展开评论 打赏
  • Regoogle无法访问robots文件
    最近这几天服务器都访问不了,google蜘蛛访问不了,用主机ping www@google@com也不行
    2014-07-31 18:38:15
    赞同 展开评论 打赏
  • 我也有这个提示 不过没理他 网站确实是照常收录

    可能是谷歌有的特殊的蜘蛛节点访问不到国内的网络 这个很正常
    2013-09-18 18:40:17
    赞同 展开评论 打赏
  • Regoogle无法访问robots文件
    我的也是,还没找到答案。
    而且搜索引擎貌似都不搜录网页。

    回答楼上的,如果谷歌访问不到 robots.txt文件,就不会开始爬你的网站,人家怕爬到不该爬的。
    很有礼貌。

    至于百度,移入到阿里云后,也不搜录了。
    2013-09-09 16:44:10
    赞同 展开评论 打赏
  • 不用管
    我的也经常提示这个问题
    结果照样可以收录
    2013-09-09 14:13:09
    赞同 展开评论 打赏
  • 回1楼www.sohu.ir的帖子
    但是google 每天都会访问,每天都提示我robots.txt无法访问

    -------------------------

    回2楼mrznz的帖子
       我这里做了一些调整,所以还是需要它的。

    -------------------------

    Regoogle无法访问robots文件
      有没有人出现这种情况啊,是怎么解决的啊?

    -------------------------

    Regoogle无法访问robots文件
    问题已经临时解决了,原因是google访问robots.txt文件用的不带WWW的域名,这个时候我返回301,所以提示无法访问,我临时修改了nginx,让javacode.cn/robots.txt可以访问
    2013-09-09 12:34:41
    赞同 展开评论 打赏
  • 删除robots文件
    有它没它无所谓

    -------------------------

    回 6楼(小站) 的帖子
    胡扯 没有robots就不抓取??
    不是所有网站都有那个文件的
    2013-09-09 11:24:43
    赞同 展开评论 打赏
  • Regoogle无法访问robots文件
    这个文件没有必要天天访问,因为robots文件一般不常改变
    2013-09-09 09:37:41
    赞同 展开评论 打赏
滑动查看更多
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载