Categories


Tags


推荐十个网站日志分析工具

网站的SEO优化过程中不免会分析网站日志,网站日志的分析和诊断就像给网站看病一样,我们通过网站日志的分析,可以更加清楚的知道网站的健康状况,使用这些数据更有利于开展网站SEO优化。

通过网站日志可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器、什么分辨率显示器的情况下访问了你网站的哪个页面,是否访问成功。对于专业从事搜索引擎优化工作者而言,网站日志可以记录各搜索引擎蜘蛛机器人爬行网站的详细情况,例如:哪个IP的百度蜘蛛机器人在哪天访问了网站多少次,访问了哪些页面,以及访问页面时返回的HTTP状态码。

常见的蜘蛛名称:

Baiduspider:百度蜘蛛

Baiduspider-Image:百度图片蜘蛛

Googlebot:谷歌机器人

Googlebot-Image:谷歌图片机器人

360Spider:360蜘蛛

sogou spider:搜狗蜘蛛

一、网站日志的作用

1、通过网站日志可以了解蜘蛛对网站的基本爬取情况,可以知道蜘蛛的爬取轨迹和爬取量。

2、网站的更新频率也和网站日志中蜘蛛抓取的频率有关,一般来说更新频率越高,蜘蛛的抓取频率越高,而我们网站的更新不仅仅只是新内容的添加同时还有我们的微调操作。

3、我们可以根据网站日志的反应情况,对我们的空间的某些事情和问题提前进行预警,因为服务器如果出问题的话在网站日志中会第一时间反映出来,要知道服务器的稳定速度和打开速度两者都会直接影响我们的网站。

4、通过网站日志我们可以知道网站的那些页面是很受蜘蛛欢迎的,而哪些页面是蜘蛛连碰都不去碰的,同时我们还能发现有一些蜘蛛由于是过度爬取对我们的服务器资源损耗是很大的,我们要进行屏蔽工作。

二、如何下载网站日志

1、首先我们的空间要支持网站日志下载,这一点是很重要的,在购买空间时候需事先了解下是否支持日志下载,因为有的服务商是不提供这项服务的,如果支持的话空间后台一般都有日志WebLog日志下载这个功能把它下载到根目录在用FTP传到本地就可以,服务器的话可以设置将日志文件下载到指定路径。

2、这里有个很重要的问题,网站日志强烈建议设置成每小时生成一次,小型的企业站和页面内容较少的网站可以设置成一天,它默认是一天,如果内容多或者大型站设置成一天生成一次,那么一天只生成一个文件,这个文件会相当的大,我们有时电脑打开是会造成死机,设置的话找空间商协调设置即可。

三、网站日志数据分析

1、网站日志中数据量过大,所以我们一般需要借助网站日志分析工具来查看。常用的日志分析工具有:光年日志分析工具、web log exploer、WPS表格等

117.26.203.167 - - [02/May/2011:01:57:44 -0700] "GET/index.php HTTP/1.1" 500 19967 "-" "Mozilla/4.0 (compatible; MSIE 8.0;Windows NT 5.1; Trident/4.0; AskTbCS-ST/5.11.3.15590; .NET CLR 2.0.50727; Alexa Toolbar)"

分析:

117.26.203.167访问ip;

02/May/2011:01:57:44 -0700访问日期 -时区;

GET/index.php HTTP/1.1根据HTTP/1.1协议抓取(域名下)/index.php这个页面(GET表示服务器动作);

500服务器响应状态码;

服务器响应状态码通常状态码有以下几种:200,301,302,304,404,500等。200代表用户成功的获取到了所请求的文件,如果是搜索引擎,则证明蜘蛛在这次爬行中顺利的发现了一些新的内容。而301则代表用户所访问的某个页面url已经做了301重定向(永久性)处理,302则是暂时性重定向。404则代表所访问的页面已经不存在了,或者说访问的url根本就是个错误的。500则是服务器的错误。

19967表示抓取了19967个字节;

Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; AskTbCS-ST/5.11.3.15590; .NET CLR 2.0.50727; Alexa Toolbar表示访问者使用火狐浏览器及Alexa Toolbar等访问端信息;

2、如果你的日志里格式不是如此,则代表日志格式设置不同。

3、很多日志里可以看到 200 0 0和200 0 64则都代表正常抓取。

4、抓取频率是通过查看每日的日志里百度蜘蛛抓取次数来获知。抓取频率并没有一个规范的时间表或频率数字,我们一般通过多日的日志对比来判断,当然,我们希望百度蜘蛛每日抓取的次数越多越好。

5、有时候我们的路径不统一出现带斜杠和不带斜杠的问题,蜘蛛会自动识别为301跳转到带斜杠的页面,这里我们就发现了搜索引擎是可以判断我们的目录的,所以我们要对我们的目录进行统一。

6、我们分析日志分析时间长了,我们能够看出蜘蛛的抓取规律,同一目录下面的单个文件的抓取频率间隔和不同目录的抓取频率间隔都可以看出来,这些抓取频率间隔时间是蜘蛛根据网站权重和网站更新频率来自动确定的。

7、蜘蛛对于我们的页面的抓取是分等级的,是根据权重依次递减的,一般顺序为首页、目录页、内页。

四、通过网站日志我们能知道什么?

1、我们买的空间是否能够稳定?

2、蜘蛛对我们的那些页面比较喜欢而对哪些不喜欢?

3、蜘蛛什么时候抓取我们的网站频繁,我们需要什么时候更新内容?

总结:

所以不管是新站还是老网站,不管你做百度还是Google我们都能通过网站日志分析出来搜索引擎蜘蛛抓取的情况;如果网站长时间收录有问题,那么我们也可以对比网站日志中的搜索引擎蜘蛛行为,来了解网站是哪方面出了问题;如果网站被封,或者被K,我们都可以通过观察网站日志的情况来了解原因出在什么地方。我们要看的网站日志的分析和诊断就像给网站看病一样,我们通过网站日志的分析,可以简单明了的就知道网站的健康状况,可以利于我们更好的做网站优化,所以对于真正的SEO高手而言,分析蜘蛛日志是最直观,最有效的额。

来源:搜外网


Public @ 2013-05-14 15:32:54

利用Sitemap提交漏洞劫持其它网站排名

假如您使用Sitemap将自己网站的链接提交给搜索引擎,攻击者可以通过一些技巧来劫持其它网站的排名。具体操作如下: 1. 攻击者创建一个网站,并将恶意代码插入其中,使该网站能够在搜索引擎中获得高排名。 2. 攻击者在他的恶意网站上添加Sitemap,然后将目标网站的链接包含在其中。 3. 下一次搜索引擎访问攻击者的网站时,Sitemap中包含的目标网站的链接将被捕捉,并包含在搜索引擎的索引中

Public @ 2023-06-08 23:50:17

学习SEO基础要求有哪些?

学习SEO基础要求通常包括以下内容: 1. 理解搜索引擎工作原理:了解搜索引擎如何收集、索引和展示网页内容,并了解搜索引擎算法的基本原理。 2. 关键词研究和优化:学会选择适当的关键词,并将其合理地应用于网页内容和元数据中。 3. 网站结构优化:了解如何优化网站的结构,使其易于索引和理解。 4. 内容优化:学习撰写高质量、相关性强的内容,并优化标题、描述、头部标签等元素,以改善网页在搜索结

Public @ 2023-06-30 00:00:19

Linux系统云服务器查看/启用网站日志

查看网站日志BT环境进入BT管理面板中,点击左侧“网站”-对应站点--点击“设置”-配置文件,查看access_log行 (access_log为网站访问日志 ,error_log为网站错误日志)图片1.pngWDCP环境进入wdcp点击左边“站点管理”-“站点列表”,找到要设置的站点,点站点后面对应的“编“按钮,勾中”开启访问日志“即可,日志文件目录 /home/web_logs图片2.png自

Public @ 2010-04-07 15:32:48

服务器日志是什么?如何查看服务器日志?

服务器日志是什么服务器日志(server log)是一个或多个由服务器自动创建和维护的日志文件,其中包含其所执行活动的列表。简单来说,服务器的日记就是记录网站被访问的全过程,什么时间到什么时间有哪些人来过,什么搜索引擎来过,有没有收录你的网页,从你的网站工作的第一天你的日记就有了。搜索引擎对一个网站存在的影响可谓是方方面面。如果要做好SEO,不论是前台的前端开发、页面设计、产品交互,还是后端的运维

Public @ 2021-04-24 15:32:51

更多您感兴趣的搜索