超多IP访问/robots.txt解决方案

超多IP访问/robots.txt
apache日志里全是这样的记录,全是访问的/robots.txt,而且十多分钟就有几万行。服务器CPU经常跑到100%。
蜘蛛也不会爬robots.txt这么频繁吧。。。大神帮分析下

66.249.65.147 – – [17/Oct/2014:10:14:38 +0100] “GET /robots.txt HTTP/1.1” 200 –
(-是因为我在网站根目录下创建了个空白的robots.txt。)
超多IP访问/robots.txt解决方案
——解决思路———————-
比较奇怪,你确定cpu被占100%是这个问题?
把robots.txt屏蔽看看。
——解决思路———————-
robots.txt这个东西只要你编程谨慎没必要放上,放上了是个累赘,分析一下他的坏处,欢迎拍砖:
1、如果你没有将后台的地址在前台页面上调用过的话,蜘蛛是不会爬取的,对于css,js这种东西,蜘蛛也不愿意爬。
2、很多新手在设置robots.txt的时候都是很乖很听话,敏感地址放上来屏蔽蜘蛛爬取,其实只要严格,蜘蛛爬不到,但是别有用心的人会先看robots.txt一下就找到了管理入口地址。
3、不管哪个蜘蛛跑过来第一个爬的就是robot.txt,占用了一点资源
你这种情况应该不是robots.txt的原因,这个文件应该是直接发出去的,到不了100%的情况

发表评论

电子邮件地址不会被公开。 必填项已用*标注