Categories


Tags


为什么我的网站已经加了robots.txt,还能在百度搜索出来?

为什么我的网站已经加了robots.txt,还能在百度搜索出来?因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。来源:百度搜索资源平台 百度搜索学堂

Public @ 2015-11-18 16:08:58

Sitemap文件标准格式和大小说明

1、格式:您可以采用如下三种格式的文件向360搜索提交Sitemap,文件编码可以是UTF-8或GBK: 1)标准的XML格式文件 2)文本格式文件 3)Sitemap索引文件(可同时包含多个Sitemap文件)2、大小: 1)单个Sitemap文件:大小不超过10MB,且包含不超过50000个网址。如果网站所包含的网址超过50,000个,则可将列表分割成多个Sitemap文件,放在Sitemap

Public @ 2010-11-01 16:11:51

更多您感兴趣的搜索

0.438031s