Categories


Tags


网站日志的分析是每个SEO人员的必备技能之一

每个做SEO的站长们都应该基本分析网站日志的能力。因为通过网站的日志可以分析出搜索引擎蜘蛛的动态,用户访问的动态,以及发现网站哪些链接存在异常。

网站日志的分析和诊断就像给网站看病一样,我们通过网站日志的分析,可以更加清楚的知道网站的健康状况,可以利于这些数据让我们更好的做网站SEO优化。下面就和大家说下日志分析的一些事项:

常见的蜘蛛名称:

Baiduspider;

Baiduspider-Image;

Googlebot;

Googlebot-Image;

360Spider;

sogou spider。

一、网站日志的重要作用?

1、通过网站日志可以了解蜘蛛对网站的基本爬取情况,可以知道蜘蛛的爬取轨迹和爬取量,通过我们的网站日志,外链的多和少和网站蜘蛛的爬取量是有直接影响的,我们所说的链接诱饵就是如果你做了一个外链,蜘蛛在爬取这个外链页面并把页面放出来时,蜘蛛可以通过你留的这个链接来爬取你的网站,而网站日志正是会记录下蜘蛛的这次爬取行动。

2、网站的更新频率也和网站日志中蜘蛛抓取的频率有关,一般来说更新频率越高,蜘蛛的抓取频率越高,而我们网站的更新不但仅只是新内容的添加同时还有我们的微调操作。

3、我们可以按照网站日志的反应情况,对我们的空间的某些事情和问题提前进行预警,因为办事器如果出问题的话在网站日志中会第一时间反映出来,要知道办事器的不变速度和打开速度两者都会直接影响我们的网站。

4、通过网站日志我们可以知道网站的那些页面是很受蜘蛛欢迎的,而哪些页面是蜘蛛连碰都不去碰的,同时我们还能发现有一些蜘蛛由于是过度爬取对我们的办事器资源损耗是很大的,我们要进行屏蔽工作。

二、如何下载日志及日志设置注意事项?

1、首先我们的空间要支持网站日志下载,这一点是很重要的,在我们购买空间之前必需要先问好支不支持网站日志下载,因为有的办事商是不提供这项办事的,如果支持的话空间后台一般都有日志WebLog日志下载这个功能把它下载到根目录在用FTP传到当地就可以,办事器的话可以设置将日志文件下载到指定路径。

2、这里有个很重要的问题,网站日志强烈建议设置成每小时生成一次,小型的企业站和页面内容较少的网站可以设置成一天,它默认是一天,如果内容多或者大型站设置成一天生成一次,那么一天只生成一个文件,这个文件会相当的大,我们有时电脑打开是会造成死机,设置的话找空间商协调设置即可。

三、网站日志的分析。

1、日志的后缀名是log的我们用记事本打开,选择格式里的自动换行这样看起来便利,同时用搜索功能搜索BaiduSpider和Googlebot这两个蜘蛛。

例如:

百度蜘蛛 2012-03-13 00:47:10 W3SVC177 116.255.169.37 GET / – 80 – 220.181.51.144 Baiduspider-favo+(+ baidu /search/spider ) 200 0 0 15256 197 265

谷歌机器人 2012-03-13 08:18:48 W3SVC177 116.255.169.37 GET /robots.txt – 80 – 222.186.24.26 Googlebot/2.1+(+ google /bot ) 200 0 0 985 200 31

我们分段来解释

2012-03-13 00:47:10 蜘蛛爬取的日期和时间点;W3SVC177 这个是机器码这个是惟一的 我们不去管它;116.255.169.37 这个IP地址是办事器的IP地址;GET 代表事件,GET后面就是蜘蛛爬取的网站页面,斜杠就代表首页,80 是端口的意思,220.181.51.144 这个IP则是蜘蛛的IP,这里快排发包技术小编告诉大家一个辨别真假百度蜘蛛的方法,我们电脑点击开始运行输入cmd打开命令提示符,输入nslookup空格加蜘蛛IP点击回车,一般真百度蜘蛛都有本身的办事器IP而假蜘蛛则没有。

如果网站中出现了大量的假蜘蛛则说明有人冒充百度蜘蛛来采集你的内容,你就需要注意了,如果太跋扈獗那会很占用你的办事器资源,我们需要屏蔽他们的IP.200 0 0这里是状态码 状态码的意思可以在百度里搜索下;197 265最后两个数字则代表着拜候和下载的数据字节数。

2、我们分析的时候先看看状态码 200代表下载成功,304代表页面未修改,500代表办事器超时,这些是一般的其他代码可以百度一下,对于差别的问题我们要处理。

3、我们要看蜘蛛经常爬取哪些页面,我们要记录下来,分析他们为什么会经常被蜘蛛爬取,从而分析出蜘蛛所喜欢内容。

4、有时候我们的路径不统一出现带斜杠和不带斜杠的问题,蜘蛛会自动识别为301跳转到带斜杠的页面,这里我们就发现了搜索引擎是可以判断我们的目录的,所以我们要对我们的目录进行统一。

来源:搜外网


Public @ 2010-03-02 15:32:51

robots里这样写,就能避免蜘蛛爬这个“index.htm”这个首页?

我robots这样写是不是就能避免蜘蛛爬这个“index.htm”这个首页?User-agent: *Disallow: /index.htm11-30.我的index.htm是现在默认的首页,想屏蔽蜘蛛抓取。让蜘蛛爬另一个文档,主要是规避备案巡查我的网站和我备案的不一样,服务器那边要求改,我就整了个htm文档来规避下。写法没有问题。但正常的不建议屏蔽首页地址,,“index.htm”这个后缀地址

Public @ 2019-12-16 16:09:25

复制网页检测

复制网页检测是指通过特定的检测软件或工具来确保网页内容不被非法复制。此类检测工具可以识别出大量非法复制的文本、图片与链接,并提供相应的技术手段去限制非法复制的发生。常见的复制网页检测工具包括 DMCA、CopyScape、iCopyright 等,它们可以扫描网站上的所有页面,检测出被复制的内容并汇报给网站管理员处理。通过复制网页检测工具的使用,可以在一定程度上维护网站作者的版权。

Public @ 2023-05-31 11:50:15

网站日志的分析是每个SEO人员的必备技能之一

,特别是当你在网站上有行为,搜索结果没有反映时,用网站日志分析来找出隐形的搜索引擎优化问题。 网站日志是记录每一次成功的网站访问的工具,其中包括访问者的IP地址、用户代理、内容类别,以及搜索引擎来抓取您网站的详细信息。分析网站日志可以帮助您获得关于搜索引擎和访客流量状况的许多有用信息,从而对网站进行有效的SEO优化。 日志分析可以描述关于访客行为的细节,因此可以帮助确定网站中哪些元素有利于提高

Public @ 2023-02-26 11:54:31

日志中显示页面被抓取了,会收录吗?

如果页面已经被抓取并且已经收录在搜索引擎的数据库中,那么搜索引擎可能会更新该页面的索引,以反映新的内容。但是,如果页面被抓取但尚未收录,则需要等待搜索引擎对页面进行评估和选择是否收录。因此,能否收录页面取决于搜索引擎的算法和实际情况。

Public @ 2023-03-28 07:50:10

更多您感兴趣的搜索

0.427113s