Categories


Tags


百度蜘蛛抓取时socket读写错误怎么解决?

huanglei 提问于 1年 之前ZAC老师你好,这个站用站长平台 抓取诊断提示socket读写错误,求如何解决!1 个回答Zac 管理员 回答于 1年 之前socket读写错误就是说,蜘蛛要访问的文件还没下载完,服务器端就拒绝连接了,所以百度蜘蛛没办法抓取页面。这个通常是服务器的安全措施造成的,比如防火墙,简单的iptable,DDOS防火墙等都可能拒绝连接,或者安全狗之类的设置。把这些关了看

Public @ 2017-07-08 16:04:10

大量爬虫进入了我的网站

邵俊凡 提问于 3年 之前zac大神,我发现在一段时间里有大量的爬虫进入我的网站,这有什么影响,这种行为会降低我网站的权重吗?会驱逐高质量的百度蜘蛛吗?我百度发现恶意爬虫会增加流量,增加网站负担。如果是,我该怎么应对?2 个回答Zac 管理员 回答于 3年 之前假设你说的是非搜索引擎的恶意蜘蛛/爬虫,来采集内容之类的。有大量恶意蜘蛛,对SEO没有直接影响,和搜索引擎眼里网站的权重一点关系都没有。搜

Public @ 2014-05-27 15:53:56

为什么我的网站以前收录很快,现在收录慢了?

如果您的站以前发布新文章收录快,而现在发布新文章收录得慢甚至不收录。可能的原因是搜狗微调了收录策略,而现在收录慢的网站均是未达到实时收录(秒级)要求的网站。如前所述,大型的新闻站、优质站点、地方优质门户网站,内容更新后才能够达到秒级的收录。若发生此类情况,站长们应该第一时间反省自己的网站是否达到了实时收录的要求,若确实符合要求,再进行申诉。来源:搜狗资源平台

Public @ 2022-06-16 15:34:36

如何让我的网页不被搜狗收录?

搜狗严格遵循搜索引擎Robots协议,详细内容,参见http://www.robotstxt.org/您可以设置一个Robots文件以限制您的网站全部网页或者部分目录下网页不被搜狗收录。如果您的网站在被搜狗收录之后才设置robots文件禁止抓取,那么新的robots文件通常会在48小时内生效,生效以后的新网页,将不再建入索引。需要注意的是,robots.txt禁止收录以前搜狗已收录的内容,从搜索结

Public @ 2019-01-03 15:55:44

更多您感兴趣的搜索

0.484140s