Categories


Tags


头条搜索站长平台-sitemapindex文件要求

sitemapindex文件根节点必须是<sitemapindex>。

sitemapindex文件编码必须为UTF-8,第一行为: <?xml version="1.0" encoding="utf-8" ?>。

sitemapindex文件禁止使用命名空间,禁止使用规定之外的属性。

sitemapindex文件大小不得超过5M,sitemap节点数量不超过1W。

必须保证sitemap中所有URL可访问,且内容符合XML数据文件规范。

1.XML数据文件规范

数据XML文件的根节点必须为<DOCUMENT>

数据XML文件编码必须为UTF-8,第一行为: <?xml version="1.0" encoding="utf-8" ?>

数据XML文件禁止使用命名空间,禁止使用规定之外的属性。

数据XML单个文件大小不得超过10M(必须满足),item数目不得超过1W。

除根节点之外的其它节点,标签名建议采用英文小写字母及下划线‘_’

数据节点中包含转义字符,请使用CDATA

对于数组型的节点,请在只有一个子节点时保证和多个节点时的结构相同

2.Txt格式规范

Txt文件编码必须为UTF-8

Txt文件大小不得超过10M,每个文本文件最多可包含5w个网址

Txt文件每行都必须有一个网址,网址中不能有换行

Txt文件中不能包含网址列表以外的任何信息

- 必须书写完整的网址,包含http/https

- 必须保证Txt文件中所有URL 可访问,且内容符合Txt数据规范

注意事项

提交的sitemap有作弊嫌疑的url,头条将进行严厉的处罚措施并取消相关权限

头条spider有自身的爬取规则,sitemap只是帮助头条spider更好的收录您的网站,提交sitemap并不会决定网站收录或者排名。

来源:头条搜索站长平台


Public @ 2013-06-03 16:09:47

robots.txt文件有什么必要?

robots.txt文件是一个文本文件,用于向搜索引擎和其他机器人网站爬虫指定哪些页面或内容可以被爬取,哪些页面或内容不能被爬取。它的主要作用是为了控制搜索引擎和其他机器人网站爬虫访问和抓取网站内容,保护网站的隐私和安全。如果一个网站不想被某些搜索引擎或爬虫访问、爬取和索引,就可以通过robots.txt文件来禁止它们。另外,robots.txt文件还可以防止一些机器人抓取出现线上攻击或滥用等安全

Public @ 2023-06-12 20:00:21

如何解决网址规范化问题

解决网址规范化问题有以下几点方法:1.确保使用的CMS系统只产生规范化网址,无论是否有静态化。2.在Google管理员工具中设置首选域。3.所有内部链接保持统一,都指向规范化网址。4.使用canonical标签。5.使用301转向,把不规范化URL全部转向到规范化URL。6.提交给搜索引擎的XML网站地图中全部使用规范化网址。来源:搜外网

Public @ 2010-02-20 16:11:22

我的 Sitemap 可以有多大?

单个Sitemap 应该小于 10MB(10,485,759字节),所包含的网址数最多为 50,000 个。如果您网站包含的网址超过 50,000 个或您的 Sitemap 超过 10MB,则需要创建多个 Sitemap 文件,并且需要使用 Sitemap 索引文件。Sitemap 索引文件应该小于 10MB(10,485,759字节),且最多可以包含1000个sitemap。

Public @ 2009-06-06 16:11:56

更多您感兴趣的搜索

0.440076s