Categories


Tags


针对百度的排名,是否有人工干预一说?

贾东 提问于 3年 之前

事情是这样的, ccxcn.com这个网站是一个专门建设网站的公司的官网,在2014年前,是涉及网站建设,网站设计,网站制作等+地域词均在首页的网站。

最致命的问题在于2014年该网站的域名被黑,导致域名增加无数泛解析,网站排名瞬间遗落千丈,直到现在也无法恢复到原有的排名。

2016年网站改版,整体排名说不上好也说不上坏,但从2018年开始,该网站莫名的被百度惩罚,最初提示网站标题关键词堆积,多次申诉后恢复,后又出现关键词掉线的问题,但文章的收录应该是 他们说的秒收。

所以我想咨询老师,这样的情况存在百度人工干预的可能吗?

另外这个站是否还有继续保留的必要?

谢谢!

2 个回答

Zac 管理员 回答于 3年 之前

关于人工干预:

百度人工干预排名肯定有,但只是针对特殊情况、特殊网站,你说的这个网站看不出有什么值得特意关注的。普通行业、普通网站,如果百度都人工干预一下,那恐怕忙不过来。

这里说的人工干预指的是没什么正当理由的人工惩罚。如果是确实作弊了,被检测出来,人工确认然后惩罚了,那是正常的,不在讨论范围。

是否保留域名和网站:

是我的话,肯定保留,继续做。2004年注册的域名是个宝,不能轻易放弃。

几个简单的问题:

简单看了一下网站,发现几个可能的问题。

关键词堆积的痕迹。不知道以前是什么样,反正现在还是有一些关键词堆积的痕迹,虽然不是很明显。

比如现在很多页面标题结尾处写的 – 北京网站建设,或者 – 传诚信建站,虽然已经试着变花样了,但还是刻意在放关键词,没必要。公司官方名称是什么?北京传诚信?那就统一以北京传诚信结尾。

再比如首页,目标关键词是“北京网站建设”吧?可正文中根本没有“北京网站建设”这个词啊,反倒是页脚刻意放上三个指向首页的关键词为锚文字的链接。

还有建站、设计知识文章,大部分是抄来的吧?会拉低网站整体质量。

贾东 回复于 3年 之前

感谢老师,在问,除修改网站错误后,以后我的工作,除了更新,外联,还能做点什么呢,迷茫了

陈天宇 回复于 3年 之前

你的这些迷茫在Zac老师之前的文章中都可以被解决。更新并不是简单的发布文章,要添加锚链,锚链引用的关键词是否正确,锚链是单纯的引用还是帮助用户?关键词是否存在多个页面?外链还是简单的发布一些文章,尤其是一些自媒体可以被百度抓取并添加链接的网站去发布。这点zac老师之前也说过,自己去发永远比不上用户主动帮你分享,但是这点对我们太难了。

我觉得一个网站还是本身的关键词选择以及布置、网站结构与内链、二级三级页面之前的流通关系、主关键词与长尾词之间的联系、代码优化、内容更重要,外链我现在倒没怎么在乎了。

以上只是个人的一些意见,仅供参考!

Zac 管理员 回答于 3年 之前

日常工作,可以参考另一个问题回答:https://www.seozac.com/questions/daily-work/

来源:SEO每天一贴 Zac 昝辉


Public @ 2013-02-26 15:52:24

隔天看快照收录了,但当天没有展现,这是什么原因?

隔天看快照收录了,但当天没有展现,这是什么原因?A:这种情况是完全有可能的,因为收录有很多条策略,有一些时效性比较强的内容,短时间有收录,过了这一段时间之后,用户对这个内容没有需求,或者搜索结果页展现了但用户没有点击这个内容等等原因,搜索会发现这些内容没有实际收录价值,后续可能会取消收录。来源:百度搜索资源平台 百度搜索学堂

Public @ 2023-02-02 15:27:21

百度为什么不收录我的站点?

搜索引擎为什么不收录我的站点呢?因为搜索引擎进行网站索引和排名过程是完全程序自动化的,所以:搜索引擎不会因为一些细小的网站错误而直接删除你的站点,如:某个页面出现乱码。搜索引擎不会因为主观问题而删除你的站点,如:网页上出现对百度不友好的言词。你的情况绝不是特例,其他的网站也会出现你这个情况。只要符合搜索引擎的索引条件,一般情况下是会被收录的。对于新站,百度一般需要一周到一个月的时间才能在搜索结果上

Public @ 2014-11-08 15:55:30

博客网站首页下方是否需要分页?

问天票据网 提问于 3年 之前博客网站首页下方是否需要分页?栏目页有分页,首页有没有影响大吗?1 个回答Zac 管理员 回答于 3年 之前就SEO角度来说,首页有没有分页影响不大,如你所说,栏目页总是有分页的,帖子页面还是有抓取入口的。但用户通常觉得博客类型网站,首页最下面应该有分页,方便浏览以前帖子。所以通常博客模板都是首页有翻页的。雨落无影 回复于 3年 之前老师,继你这个回复,我还有一点儿疑

Public @ 2022-07-30 15:53:53

如何解决百度spider无法抓取的问题?

要解决百度蜘蛛无法抓取的问题,可以考虑以下几个方面: 1. 确保网站存在合适的 robots.txt 文件:robots.txt 是一个协议,用于向搜索引擎指明哪些页面可以被抓取。检查一下该文件是否正确设置,且不会阻止百度蜘蛛的抓取。 2. 检查网站的反爬虫策略:有时候网站会使用反爬虫机制来防止被搜索引擎抓取,如验证码、IP 封禁等。确保网站没有设置过于严格的反爬虫策略,或者将百度蜘蛛的抓取排

Public @ 2023-06-30 13:00:19

更多您感兴趣的搜索

0.507098s