扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
事实上关于搜索引擎蜘蛛大量抓取的问题一直都存在的,比如宜某(国内某非知名搜索引擎)就是因为其蜘蛛消耗某些网站大量带宽资源而使得它臭名昭著的,而实际上很多我们所看到的蜘蛛并不是搜索引擎的,而是一些不法分子伪造的,其实也算是在攻击我们的网站。长沙网站定制开发团队微构网络看到,在百度站长平台上看到其官方发布的一篇关于这个问题的文章,分享一下,可以供大家参考参考;全文如下:
Spider对网站抓取数量突增往往给站点带来很大烦恼,纷纷找平台想要Baiduspider IP白名单,但实际上BaiduSpider IP会随时变化,所以并不敢公布出来,担心站长设置不及时影响抓取效果。百度是怎么计算分配抓取流量的呢?站点抓取流量暴增的原因有哪些呢?
总体来说,Baiduspider会根据站点规模、历史上网站每天新产出的链接数量、已抓取网页的综合质量打分等等,来综合计算抓取流量,同时兼顾站长在抓取频次工具里设置的、网站可承受的最大抓取值。
从目前追查过的抓取流量突增的case中,原因可以分为以下几种:
1, Baiduspider发现站内JS代码较多,调用大量资源针对JS代码进行解析抓取
2, 百度其他部门(如商业、图片等)的spider在抓取,但流量没有控制好,sorry
3, 已抓取的链接,打分不够好,垃圾过多,导致spider重新抓取
4, 站点被攻击,有人仿冒百度爬虫(推荐阅读:《如何正确识别BaiduSpider》)
如果站长排除了自身问题、仿冒问题,确认BaiduSpider抓取流量过大的话,可以通过反馈中心来反馈,切记一定要提供详细的抓取日志截图。
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流