我来分享: “抓取异常”搜索引擎蜘蛛不能爬行的原因-SEO优化-资讯-三龙汇之窗网

我来分享: “抓取异常”搜索引擎蜘蛛不能爬行的原因

   2017-08-08 00:53:37 互联网非凡发发网53
 “抓取异常”搜索引擎蜘蛛不能爬行的原因
有些网页内容优质,用户也可以正常访问,单是搜索引擎知足却无法正常访问抓取,照成搜索结果覆盖率缺失,这对网站优化是一种损失。百度把这种情况叫做“抓取异常”对于大欸容无法正常抓取的网站。百度为认为该网站的用户体验度左右的不好,会降低对网站的评价,导致在抓取,索引,排序出现负面影响。最终会减少网站的百度流量获取数。那么常见“抓取异常”都有哪些原因呢?
   1.服务器连接异常
     1.1站点不稳定 让百度蜘蛛出现暂时无法链接的问题
     1.2百度蜘蛛引擎一直无法连接网站的服务器
而以上的问题出现通常是网站服务器过大,超负荷运转,也哟可能是网站运行不正常 。须检测web服务器是否安装且正常云南行。并使用那浏览器检查主要页面能否正常访问。此外,网站和主机还可能会阻止百度搜素引擎蜘蛛的访问,只是需要检查网站和主机的防火墙。
2.网站运营商问题
需与网络运营商ianxi,购买双线服务的空间,或购买CDN服务
3.DNS异常
百度引擎蜘蛛无法解析网站的IP地址会出现DNS异常。可能是网站的IP地址错误或者域名服务商封禁的问题。可以用WHOIS或者host查询结果。如果不正确,需联系域名注册商,更新IP地址
 
4.IP的封禁 需要检查相关设置,是否添加了百度搜索引擎的IP地址。
5. UA封禁  需要查看User-agent的相关设置中是否有被百度搜索引擎的UA,并及时予以修改
6.死链  有协议死链和内容死链两种处理方式,其中建议使用协议死链。并且通过百度站长平台-死链功能根据体哦啊叫以便百度更快的发现死链,并删除
7.异常跳转 将网站请求重新指向其他文职即为跳转。对于长时间跳转到其他域名的情况,如网站更换域名,百度建议使用201跳转协议进行设置。
   8.其他异常
  8.1针对百度refeR的异常  
  8.2 针对百度Ua的异常
  8.3 JS跳转异常
  8.4 压力过大引起的偶然封禁
 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。 三龙汇之窗网对此不承担任何保证责任, 三龙汇之窗网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://www.wlchinajn.com/news/slh3185.html

 
更多>同类资讯
资讯图文
今日热榜
投资财经
营销职场
商家产业

网站首页  |  网站地图  |  RSS订阅  |  SiteMap
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,三龙汇之窗网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎 网站处理与建议邮箱:slhzc@qq.com