Categories


Tags


导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常

服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访问,您需要检查网站和主机的防火墙。

二、网络运营商异常

网络运营商分电信和联通两种,搜索引擎通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

三、DNS异常

当搜索引擎无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把搜索引擎封禁,请使用WHOIS或者host查询自己的网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

四、IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎IP。当你的网站不希望蜘蛛访问时,才需要该设置。如果您希望搜索引擎蜘蛛访问您的网站,请检查相关设置中是否误添加了搜索引擎蜘蛛ip。也有可能是您网站所在的空间服务商把IP进行了封禁,这是您需要联系服务商更改设置。

五、UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,出现返回异常页面(如402、500)或跳转到其他页面的情况,即为UA封禁。当您网站不希望搜索引擎蜘蛛访问时,才需要该设置;如果您希望搜索引擎蜘蛛访问您的网站,查看useragent的相关设置中是否有搜索引擎蜘蛛UA,予以修改。

六、死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。协议死链,即页面的TCP协议状态/HTTP协议状态明确表示死链,常见的如404、402、502状态等;内容死链,即服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面的死链。对于死链,小编建议站点使用协议死链,并通过百度站长平台——死链工具向百度提交,一边百度更快地发现死链,减少死链对用户以及搜索引擎造成的页面影响。

七、异常跳转

将网络请求重新指向其它位置即为跳转,异常跳转指的是以下几种情况。

1、当前该页面为无效页面(内容已删除、死链),直接跳转到前一目录或者首页。四叶草SEO小编建议站长将该无效页面的入口超链接删除掉。

2、跳转到出错或者无效页面。

八、其它异常

1、针对百度refer的异常:网页针对来自百度refer返回不同于正常内容的行为。

2、针对百度UA的异常:网页对百度UA返回不同于页面原内容的行为。

3、JS跳转异常:网页加载了搜索引擎无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4、压力过大引起的偶然封禁:搜索引擎会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制时长时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码502,这样搜索引擎蜘蛛会过段时间再来尝试抓取这个链接。如果网站已空闲,则会被成功抓取。


Public @ 2013-04-30 16:22:37

Chrome浏览器模拟百度蜘蛛访问

某些网站可能针对搜索引擎挂马(百度/360/搜狗等),Chrome浏览器可以安装User-Agent Switcher for Chrome模拟百度蜘蛛来访问网页,如果是针对搜索引擎挂马的就会显示。下载蜘蛛模拟软件,模拟蜘蛛访问查看非法信息。准备工作已经安装Google Chrome浏览器安装扩展访问 User-AgentSwitcher_1_0_43.crx 并下载这个扩展按照下图打开Chrom

Public @ 2019-10-16 16:22:26

什么是蜘蛛池

我们都知道:每个网站都是有抓取频次的,比如一个站的抓取频次为500,那么100个呢,1000个呢?一千个站的抓取频次就是50万次的日抓取。所谓蜘蛛池就是通过程序建设大量的站群,这样一来:这些网站汇聚了极多的蜘蛛,在持续的抓取。蜘蛛池的方式就是:把你的网站链接,挂到这些网站内链中去,可以让网站的外链瞬间暴增,极大的为网站带来蜘蛛的抓取,提升收录!不过效果虽好,但是本身是作弊的,很容易被搜索引擎惩罚,

Public @ 2011-04-05 16:22:31

蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。蜘蛛抓取过程中涉及的网络协议有以下四种:1、HTTP协议HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。用户通过浏览器或蜘蛛等对指定端口发起一个请

Public @ 2012-07-29 16:22:31

网站抓取了一些不存在的目录跟页面?

网站管理者可以使用301重定向来解决这个问题,该技术会将搜索结果重定向到有效的页面,从而避免访问不存在的页面,提高网站的加载速度。此外,网站管理者可以使用网络爬虫进行定期的审查,以发现不存在的目录和页面,以及确保符合标准的内容。

Public @ 2023-02-24 11:00:15

更多您感兴趣的搜索

0.522489s