Categories


Tags


关于网站双收录的问题

小张 提问于 12月 之前

ZAC老师,您好,我的网站是文案策划网,是单页型的网站,收录为一,后来收录变成了二,通过站长工具查询没有带www的域名的时候就会显示有两个收录的域名,一个是带www的,另外一个是没有带www的,网站双收录能不能通过没有带www的域名来做301重定向到带www的域名来解决双收录的问题,多谢你啊!

15 个回答

Zac 管理员 回答于 12月 之前

这是典型的网址规范化问题。解决的方法就是你说的非规范化URL(不带www的域名)做301转向到规范化的URL(带www的域名)。

要做好心理准备的是,百度处理301可能会很慢,有时候几年都保留着两个URL。

来源:SEO每天一贴 Zac 昝辉


Public @ 2017-01-28 15:34:39

我的站被收录了两次,被封掉两次,怎么办?

如果您的站被收录了两次并被封掉了两次,您需要先确定被封的原因。通常情况下,站被封的原因有以下几种: 1. 站点内容违反了搜索引擎的规定; 2. 站点存在大量的垃圾链接; 3. 站点存在大量的黑帽SEO技术。 如果您的站点符合以上任何一种情况,您需要先解决这些问题,然后联系搜索引擎进行申诉。如果您的站点符合搜索引擎的规定且没有任何违规行为,您可以向搜索引擎提出申诉并解释您的情况。 此外,您可以

Public @ 2023-06-22 22:50:14

如何让我的网页不被百度收录?

百度严格遵循搜索引擎Robots协议(详细内容,参见http://www.robotstxt.org//)。您可以设置一个Robots文件以限制您的网站全部网页或者部分目录下网页不被百度收录。具体写法,参见:如何撰写Robots文件。如果您的网站在被百度收录之后才设置Robots文件禁止抓取,那么新的Robots文件通常会在48小时内生效,生效以后的新网页,将不再建入索引。需要注意的是,robot

Public @ 2019-10-18 15:55:52

如何让我的网页不被搜狗收录?

要让你的网页不被搜狗收录,可以尝试以下方法: 1. 使用 robots.txt 文件:在网站的根目录下创建一个名为 "robots.txt" 的文件,并在文件中添加以下内容: User-agent: sogou Disallow: / 这将告诉搜狗搜索引擎不要访问和收录你的网页。 2. 使用 meta 标签:在网页的头部添加以下 meta 标签: 这将告诉搜狗搜索引擎不要索引和收录该页面

Public @ 2023-07-26 12:50:31

更多您感兴趣的搜索

0.473742s