Categories


Tags


如何和搜索引擎爬虫对话

抓取策略:那些网页是我们需要去下载的,那些是无需下载的,那些网页是我们优先下载的,定义清楚之后,能节省很多无谓的爬取。更新策略:监控列表页来发现新的页面;定期check 页面是否过期等等。抽取策略:我们应该如何的从网页中抽取我们想要的内容,不仅仅包含最终的目标内容,还有下一步要抓取的url.抓取频率:我们需要合理的去下载一个网站,却又不失效率。

让我对“如何和爬虫对话 ”这个课题有了一些思考,下面归纳的主要用于迎合上面提到的爬虫“抓取策略”。

1、通过 robots.txt 和爬虫对话:搜索引擎发现一个新站,原则上第一个访问的就是 robots.txt 文件,可以通过 allow/disallow 语法告诉搜索引擎那些文件目录可以被抓取和不可以被抓取。

关于 robots.txt 的详细介绍:about /robots.txt另外需要注意的是:allow/disallow 语法的顺序是有区别的

2、通过 meta tag 和爬虫对话:比如有的时候我们希望网站列表页不被搜索引擎收录但是又希望搜索引擎抓取,那么可以通过 <meta name=“robots” content=“noindex,follow”> 告诉爬虫,其他常见的还有 noarchive,nosnippet,noodp 等。

3、通过 rel=“nofollow” 和爬虫对话:关于 rel=“nofollow” 最近国平写了一篇文章《如何用好 nofollow》很值得一读,相信读完之后你会有很大的启发。

4、通过 rel=“canonical” 和爬虫对话:关于 rel=“canonical” 谷歌网站站长工具帮助有很详细的介绍:深入了解 rel=“canonical”

5、通过网站地图和爬虫对话:比较常见的是 xml 格式 sitemap 和 html 格式 sitemap,xml 格式 sitemap 可以分割处理或者压缩压缩,另外,sitemap 的地址可以写入到 robots.txt 文件。

6、通过网站管理员工具和搜索引擎对话:我们接触最多的就是谷歌网站管理员工具,可以设定 googlebot 抓取的频率,屏蔽不想被抓取的链接,控制 sitelinks 等,另外,Bing 和 Yahoo 也都有管理员工具,百度有一个百度站长平台,内测一年多了仍旧在内测,没有邀请码无法注册。

另外,这里面还衍生出一个概念,就是我一直比较重视的网站收录比,所谓网站收录比=网站在搜索引擎的收录数/网站真实数据量,网站收录比越高,说明搜索引擎对网站的抓取越顺利。

暂时就想到这些,目的在于尝试性的探讨如何更有效的提高网站在搜索引擎的收录量。

权当抛砖引玉,欢迎各位补充!

备注:

网络爬虫(web crawler)又称为网络蜘蛛(web spider)是一段计算机程序,它从互联网上按照一定的逻辑和算法抓取和下载互联网的网页,是搜索引擎的一个重要组成部分。

本文作者:Bruce,原文地址。

来源:月光博客


Public @ 2017-01-01 16:22:28

如何提高spider抓取网站?提高spider抓取策略(2)

1. 增加抓取频率:可以通过减少抓取的时间间隔来提高 spider 的抓取频率,但需要注意不要过度频繁抓取,否则会给网站带来过大的访问压力。 2. 使用代理 IP:使用代理 IP 可以帮助 spider 绕过网站的访问限制,提高抓取成功率。 3. 模拟人工操作:模拟人工操作可以让 spider 更像真实用户,例如浏览网页、点击链接等,可以提高抓取成功率。 4. 优化抓取路径:优化抓取路径可以

Public @ 2023-06-18 20:00:26

导致搜索引擎蜘蛛不能顺利爬行的因素

1. 网站结构复杂和不合理:网站结构过于复杂或不合理会阻碍搜索引擎蜘蛛的爬行,导致关键页面无法被索引。 2. 缺乏关键词和优化:如果网站没有优化,或关键词使用不当或缺乏,搜索引擎无法判断网站内容的重要性,从而无法正确推荐网站给用户。 3. 网页载入时间过长:搜索引擎会优先考虑快速载入的网站。如果网站速度慢,搜索引擎会认为网站不够优秀,会影响网站的排名。 4. robots.txt 文件限制:

Public @ 2023-04-03 19:50:18

更多您感兴趣的搜索

0.410657s