Categories


Tags


通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。

搜外网站后台日志分析结果如下图:

image.

搜外主站实际上不存在php后缀的URL地址。

可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。

在robots.txt文件填写屏蔽规则如下:

Disallow: /*.asp$

Disallow: /*.php$

Disallow: /*.aspx$

注意前面一个*,后面一个$,代表后缀。

参考搜外的robots.txt文件写法,点击这里

来源:搜外网


Public @ 2015-07-18 16:09:24

怎样优化URL有利于SEO

优化URL是做SEO的第一步,一个好的URL有这些特点:1、层次越少越好有的URL很深很长层次很多,这种URL就对SEO不是很友好,一个适合SEO的URL应该是3层:第一层域名、第二层定义当前页面属于什么性质、第三层是当前页面的ID。2、分类页采用目录形式,内容页采用内页形式网站的栏目页面、分类页面,采用目录形式的URL,如www.xxx.com/abc;网站的产品页面、新闻页面、内容页面,采用内

Public @ 2015-03-11 16:11:14

什么是死链&;死链的标准

死链(Dead Link)是指网页上已经失效但仍然出现在超链接中的链接,或者指向网页内的地址。 死链的标准通常有以下几点: 1. 服务器错误或页面不存在:点击链接后页面无法正常打开,出现404等错误页面。 2. 指向过期或已删除的网页:点击链接后打开网页内容已不存在或已过期。 3. 指向被禁止访问的网页:点击链接后无法打开,可能是因为网页被禁止访问或需要权限才能访问。 4. 指向已更改地

Public @ 2023-06-15 23:50:20

​robots是什么?robots mate和​robots有什么区别

robots是什么robots是网站跟蜘蛛间的协议,当访问站点时,它首先检查机器人是否存在于站点的根目录中。如果找到,蜘蛛就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。一定要注意txt文件必须放在站点的根目录中,文件名必须为小写。robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定

Public @ 2012-12-17 16:09:27

robots文件中屏蔽的为什么还可以收录?

robots.txt 是一个标准,它通过提供一些规则,告诉搜索引擎爬虫哪些网页可以被爬取,哪些网页不应该被爬取。但是,一些搜索引擎爬虫可能会忽略这些规则,直接抓取它们想要的网页。 此外, robots.txt 文件的存在只是一个建议而不是命令。在一些情况下,搜索引擎爬虫可能会收录被 robots.txt 文件所屏蔽的网页,这有可能是因为发布这个网页的人想要让它被收录,也有可能是因为机器人误解了

Public @ 2023-04-24 07:50:07

更多您感兴趣的搜索

0.424493s