Categories


Tags


站点地图注意要点

真实有效

站点地图的主要目的是方便搜索抓取的,如果地图存在死链或坏链,会影响网站在搜索引擎中网站权重的,所以要仔细检查有无错误的链接地址,提交前通过站长工具,检查网站的链接是否有效。

简化

站点地图不要出现重复的链接,要采用标准W3C格式的地图文件,布局要简洁,清晰,如果地图是内容式地图,每页不要超过100内容个链接,采用分页的形式,逐一开来。

更新

建议经常更新站点地图,便于培养搜索爬虫爬行的频率。经常有新的地图内容生成,这样的网站内容能更快的被搜索引擎抓取收录,网站内容也可以早日被搜索引擎检索。

多样性

站点地图不仅仅是给搜索引擎来看的,根本目的也是方便浏览者,所以网站地图最好兼顾搜索引擎的同时也要兼顾浏览者。我们通常为一个网站建三个站点地图。sitemap.html 页面精美,简洁大方,让浏览者方便找到目标页面的同时也心情愉悦。XML 认真研究自己的网站,把重要的页面标注出来,把不需要纳入的页面加上NO FOLLOW 这样更有利于搜索引擎辨别。URLLIST.TXT 或者ROBOTS.TXT 如果方便最好做一下,yahoo等搜索引擎比较认可,谷歌也有这个项目。另外在robots文本里要写好网站地图位置即格式。


Public @ 2016-06-24 16:09:53

robots.txt文件有什么必要?

什么是robots.txt文件?搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。robots

Public @ 2018-10-22 16:09:22

robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt

Public @ 2017-10-31 16:09:18

Sitemap文件标准格式和大小说明

Sitemap文件标准格式: Sitemap文件通常是一个以XML格式编写的文本文件,其中包含URL信息和其他相关数据。Sitemap文件主要包含以下元素: 1. URL元素:用于指定页面的网址,并包含可选的数据,如最近的修改日期、相对于站点的相对权重等。 2. loc元素:为URL元素的子元素,用于指定页面的网址。 3. lastmod元素:为URL元素的子元素,用于指定页面的最近修改日期。

Public @ 2023-04-29 02:50:12

更多您感兴趣的搜索

0.492986s