Categories


Tags


蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。

蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。

蜘蛛抓取过程中涉及的网络协议有以下四种:

1、HTTP协议

HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。

用户通过浏览器或蜘蛛等对指定端口发起一个请求,HTTP的请求会返回对应的httpheader信息,可以直接查看到是否成功、服务 器类型、网页最近更新时间等内容。

2、HTTPS协议

HTTPS的安全基础是SSL,因此加密的详细内容就需要SSL。

部署HTTPS是需要购买SSL证书上传到服务器,网站开启HTTPS:第一可以确保数据在传输过程中的安全性,第二用户可以确认网站的真实性。

3、UA属性

UA是HTTP协议中的一个属性。通过UA让服务器可以识别出用户使用的操作系统、浏览器等等,根据相应的格式进行页面的调整,为用户提供更好的浏览体验。

4、Robots协议

搜索引擎在访问一个网站时,首先会查看网站的根目录下的robots.txt文件,如果网站上不想被搜索引擎抓取的页面,可以通过设置robots.txt文件告知搜索引擎。

注意: robots.txt必须放在网站根目录下,且文件名要小写。

有关robots.txt文件的创建可以参考【robots.txt】

来源:搜外网


Public @ 2012-07-29 16:22:31

什么是模拟蜘蛛抓取

站长可以输入自己网站上的任何一个网址,网管工具会发出Google蜘蛛,实时抓取页面内容,并显示出抓取的HTML代码,包括服务器头信息和页面代码。另外工具也可以用来检查页面是否被黑。有时候黑客放入的代码会检查浏览器类型,如果是用户使用普通浏览器访问则返回正常内容,如果是搜索引擎蜘蛛访问,才返回黑客加上去的垃圾内容和垃圾链接。所以站长自己访问网站看不出异样,Google蜘蛛抓取到的却不是站长自己看到的

Public @ 2011-01-25 16:22:34

apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

在VPS云主机服务器上,可以通过以下方式屏蔽拦截蜘蛛抓取: 1. Apache服务器: 在Apache配置文件(httpd.conf或apache2.conf)中添加以下代码: ``` SetEnvIfNoCase User-Agent ".*((Googlebot)|(Baiduspider)|(Yahoo! Slurp)|(bingbot)|(YandexBot)).*" bad_bot

Public @ 2023-06-20 14:00:28

网站抓取了一些不存在的目录跟页面?

1. 重新编辑robots.txt文件,将网站中不需要抓取的页面和目录添加进去; 2. 如果抓取的网站带有反爬虫功能,建议可以设置User-Agent,以区分人为访问和爬虫程序进行访问; 3. 设置深度抓取,让程序对某个网页进行抓取时,只抓取它指定难度及深度的URL; 4. 不定时发起网站扫描任务,用来检查异常的URL,以及分析抓取URL的情况,同时将发现的问题处理掉; 5. 合理设置

Public @ 2023-02-24 22:36:31

更多您感兴趣的搜索

0.497372s