Categories


Tags


大量爬虫进入了我的网站

邵俊凡 提问于 3年 之前

zac大神,我发现在一段时间里有大量的爬虫进入我的网站,这有什么影响,这种行为会降低我网站的权重吗?会驱逐高质量的百度蜘蛛吗?我百度发现恶意爬虫会增加流量,增加网站负担。如果是,我该怎么应对?

2 个回答

Zac 管理员 回答于 3年 之前

假设你说的是非搜索引擎的恶意蜘蛛/爬虫,来采集内容之类的。

有大量恶意蜘蛛,对SEO没有直接影响,和搜索引擎眼里网站的权重一点关系都没有。搜索引擎并不会知道你网站上有没有恶意蜘蛛,也不会影响百度蜘蛛的抓取频率,完全没有关系。

当然,如果服务器不够强,或者恶意蜘蛛量太多,拖慢服务器,甚至页面打不开了,那肯定会影响真正搜索引擎的抓取。不过,其它任何因素导致的服务器响应慢,都会导致这个结果。

如果恶意蜘蛛数量在每天几万之内,服务器就出问题了,那说明需要换服务器了。如果超过这个量,可以屏蔽恶意蜘蛛(如果你确认是恶意的话)。

刘馨文 回答于 3年 之前

北京旅游景点:如果我这样发的话算不算一条外链,或者是不是引蜘蛛到我的网站啊?

Zac 管理员 回复于 3年 之前

网址已经删了。即使不删除也不是一个外链。

来源:SEO每天一贴 Zac 昝辉


Public @ 2014-05-27 15:53:56

网站存在很多404,会影响整站吗?

是的,网站存在很多404错误会影响整站的用户体验和搜索引擎优化。 首先,404错误会使用户无法访问到他们想要的页面,这会导致用户的不满和流失。当用户点击一个链接或通过搜索引擎进入网站时,如果出现404错误,用户可能会感到困惑和失望,并且可能会离开网站,选择访问其他可用的网站。 其次,搜索引擎也会对网站中存在的404错误进行评估。如果搜索引擎发现网站中有大量的404错误,它们可能会认为网站的质量

Public @ 2023-07-31 08:00:17

如何解决百度spider无法抓取的问题?

要解决百度蜘蛛无法抓取的问题,可以考虑以下几个方面: 1. 确保网站存在合适的 robots.txt 文件:robots.txt 是一个协议,用于向搜索引擎指明哪些页面可以被抓取。检查一下该文件是否正确设置,且不会阻止百度蜘蛛的抓取。 2. 检查网站的反爬虫策略:有时候网站会使用反爬虫机制来防止被搜索引擎抓取,如验证码、IP 封禁等。确保网站没有设置过于严格的反爬虫策略,或者将百度蜘蛛的抓取排

Public @ 2023-06-30 13:00:19

用.top域名建站会被搜索引擎歧视吗?

不会被搜索引擎歧视。搜索引擎会根据网站的质量和内容来进行排名,而不会因为顶级域名的选择而对网站进行歧视。使用.top域名建站与使用其他顶级域名相比,在搜索引擎的排名中并没有任何差异。重要的是,建立一个高质量的网站,提供有价值的内容,并遵守搜索引擎的最佳实践,这样才能获得良好的搜索引擎排名。

Public @ 2023-06-29 05:50:09

网站设置多域名问题咨询

你好!你有一些问题需要解决关于设置多域名网站的问题,以下是一些解决方案: 1.使用301重定向 如果您有多个域名,但只希望其中一个是主要域名,则可以使用301重定向将其他域名重定向到你的主要域名。 2.使用防止搜索引擎爬虫的标记 如果您不想使用301重定向,您可以使用防止搜索引擎爬虫的标记。在主要域名的网页源代码中添加以下标记: ``` ``` 这将告诉搜索引擎不要将其他域名的网页索

Public @ 2023-04-21 21:50:25

更多您感兴趣的搜索

0.441307s