Categories


Tags


如何让我的网页不被百度收录?

百度严格遵循搜索引擎Robots协议(详细内容,参见http://www.robotstxt.org//)。

您可以设置一个Robots文件以限制您的网站全部网页或者部分目录下网页不被百度收录。具体写法,参见:如何撰写Robots文件。

如果您的网站在被百度收录之后才设置Robots文件禁止抓取,那么新的Robots文件通常会在48小时内生效,生效以后的新网页,将不再建入索引。需要注意的是,robots.txt禁止收录以前百度已收录的内容,从搜索结果中去除可能需要数月的时间。

如果您的拒绝被收录需求非常急迫,可以在反馈中心反馈,我们会尽快处理。


Public @ 2019-10-18 15:55:52

什么样的网页会被百度认为是没有价值而不被百度收录?

以下是一些可能会被百度认为是没有价值的网页: 1. 原创度低:内容复制粘贴自其他网站,没有独特性和原创性。 2. 内容质量低:网页内容质量差、无意义、过时或不准确。 3. 广告密度高:网页广告密度过高,影响用户体验,让用户难以找到有价值的内容。 4. 页面速度慢:网页打开速度慢,需要很长时间加载,用户体验差。 5. 多次违反百度规则:在过去多次违反百度规则,被百度扣除权重或直接罚站。

Public @ 2023-05-30 23:50:22

新站建立后,需要多长时间能够被搜狗收录?

收录时间是根据您的网站质量、类型等综合因素考虑的。比如大型的新闻站、优质站点、地方优质门户网站,新站建立后能够达到秒级的收录;再往下一级的普通站点则需要天级;低质量站点的收录时间会达到周级以上甚至不保证收录。新站建立很长时间后,若未被搜狗收录,请到站长平台提交网站收录。来源:搜狗资源平台

Public @ 2011-04-09 15:34:38

网站长期不收录的页面怎么解决?什么原因导致不收录?

1、内容重复内容得利包含两个方面,一是模板重复,二是文章重复。采集软件的普及让做网站太简单了,火车头、NICEWORD、爱聚合,各CMS的采集和自助建站功能让很多站长一夜之间创造成千上万的网页,再加上对采集规则的不灵活,伪原创一塌糊涂,互联网上高度得利的内容太多了。人都看腻了,难道百度蜘蛛还不吃腻?大家采来采去都是同一个东西,可能你下子就被百度收录了几百上千,但百度规劝重新进行筛选,如果都是千篇一

Public @ 2016-11-21 15:55:40

更多您感兴趣的搜索

0.422895s