Categories


Tags


站点地图注意要点

真实有效

站点地图的主要目的是方便搜索抓取的,如果地图存在死链或坏链,会影响网站在搜索引擎中网站权重的,所以要仔细检查有无错误的链接地址,提交前通过站长工具,检查网站的链接是否有效。

简化

站点地图不要出现重复的链接,要采用标准W3C格式的地图文件,布局要简洁,清晰,如果地图是内容式地图,每页不要超过100内容个链接,采用分页的形式,逐一开来。

更新

建议经常更新站点地图,便于培养搜索爬虫爬行的频率。经常有新的地图内容生成,这样的网站内容能更快的被搜索引擎抓取收录,网站内容也可以早日被搜索引擎检索。

多样性

站点地图不仅仅是给搜索引擎来看的,根本目的也是方便浏览者,所以网站地图最好兼顾搜索引擎的同时也要兼顾浏览者。我们通常为一个网站建三个站点地图。sitemap.html 页面精美,简洁大方,让浏览者方便找到目标页面的同时也心情愉悦。XML 认真研究自己的网站,把重要的页面标注出来,把不需要纳入的页面加上NO FOLLOW 这样更有利于搜索引擎辨别。URLLIST.TXT 或者ROBOTS.TXT 如果方便最好做一下,yahoo等搜索引擎比较认可,谷歌也有这个项目。另外在robots文本里要写好网站地图位置即格式。


Public @ 2016-06-24 16:09:53

站点地图创建方法

1. 用所需软件打开网站:   打开一个文本编辑器,比如 Notepad 或者 Sublime Text,用来编辑 xml 文件; 2. 组织网站地图:   列出网站中每一个页面的具体地址,用符号 * 表示页面间的关联结构; 3. 用 xml 标准编写网站地图:   将网站地图的内容按照 xml 的规范编写;   主要的元素有,<urlset>,<url>,

Public @ 2023-03-02 11:48:25

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

什么是移动Sitemap协议,如何提交移动Sitemap协议

移动Sitemap协议是一种网站地图协议,用于帮助搜索引擎更好地理解和索引移动网站的内容。它包含移动网站中所有网页的URL列表、页面的更新频率和相关元数据等信息。 要提交移动Sitemap协议,需要遵循以下步骤: 1. 创建一个XML格式的移动Sitemap文件,包含移动网站中所有网页的URL列表,以及这些页面的描述、更新频率和优先级等信息。 2. 上传Sitemap文件到您的网站根目录下,

Public @ 2023-05-27 09:50:12

站点地图的重要性

1、搜索引擎每天都是让爬虫在互联网爬行来抓取页面,站点地图的作用就是给爬虫爬行构造了一个方便快捷的通道,因为网站页面是一层一层的链接的,其中可能会存在死链接的情况,如果没有站点地图,爬虫爬行在某个页面就因死链接爬行不了,那么就不能收录那些断链接的页面。2、站点地图的存在不仅是满足搜索引擎爬虫的查看,更多是方便网站访客来浏览网站,特别是例如门户型网站由于信息量太多很多访客都是通过站点地图来寻找到自己

Public @ 2010-08-07 16:09:53

更多您感兴趣的搜索

0.190639s