Categories


Tags


Google爬行缓存代理(crawl caching proxy)

前两天人们注意到Google Adsense蜘蛛所抓取的网页会出现在搜索结果中。Matt Cutts在他的博客里迅速的做出了回应,对这种现象做了进一步解释。

简单来说,Google在完成大爸爸数据中心升级后,各种蜘蛛抓取网页的机制产生了变化。不是各个蜘蛛直接抓取网页,而是由一个爬行缓存代理crawl caching proxy抓取网页,然后不同的蜘蛛从这个缓存中获取内容,从而节省了带宽。

Matt Cutts的帖子比较完整的翻译可以在幻灭和小添的博客里看到。

我要补充的是:第一:Matt Cutts特意指出,这个新的抓取机制不会让你的网页被抓取的更快,也不会对排名有任何影响。这个爬行缓存代理也不影响各个蜘蛛本来应该爬行的频率和时间表。只不过各个蜘蛛不直接爬行网页,而是从缓存中获取。

第二:更引起我注意的是,Matt Cutts说这个爬行缓存代理是大爸爸更新之后才有的。因为运行的很顺利,在其他人发现这种现象之前,Matt Cutts自己没意识到这种新的机制已经运行了。这说明Matt Cutts并不能掌握所有各个部门的最新情况,那么还有什么是Matt Cutts也还不知道的呢?

第三:Matt Cutts讲这个机制的目标是节省带宽,而不是隐藏页面(cloaked page)检测。我觉得弦外之音是,利用同样的技术,Google完全可以用其他的蜘蛛来检测隐藏页面。当然也可能是我过度敏感了。

另外,最近很多网站出现被收录的页面数目急剧下降的现象,我怀疑和这个新的页面抓取方法造成的混乱有关。很显然不是排名算法改变导致收录的网页数目下降,而是蜘蛛爬行的问题。

来源:SEO每天一贴 Zac 昝辉


Public @ 2019-08-28 16:22:27

Baiduspider抓取造成的带宽堵塞?

Baiduspider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充Baiduspider恶意抓取。如果您发现有名为Baiduspider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至 投诉平台 ,如果能够提供您网站该时段的访问日志将更加有利于我们的分析。

Public @ 2022-11-07 15:56:46

Chrome浏览器模拟百度蜘蛛访问

Chrome浏览器可以通过安装相关的扩展程序来模拟百度蜘蛛访问。 以下是具体步骤: 1. 在Chrome浏览器中安装User-Agent Switcher for Chrome扩展程序。 2. 在浏览器的顶部右侧,点击扩展程序图标,然后选择User-Agent Switcher for Chrome。 3. 点击“Options”按钮,然后选择“Add new user-agent”,输入你要

Public @ 2023-03-31 03:00:23

导致搜索引擎蜘蛛不能顺利爬行的因素

1. 网站结构复杂和不合理:网站结构过于复杂或不合理会阻碍搜索引擎蜘蛛的爬行,导致关键页面无法被索引。 2. 缺乏关键词和优化:如果网站没有优化,或关键词使用不当或缺乏,搜索引擎无法判断网站内容的重要性,从而无法正确推荐网站给用户。 3. 网页载入时间过长:搜索引擎会优先考虑快速载入的网站。如果网站速度慢,搜索引擎会认为网站不够优秀,会影响网站的排名。 4. robots.txt 文件限制:

Public @ 2023-04-03 19:50:18

更多您感兴趣的搜索

0.428768s