为什么我的网站已经加了robots.txt,还能在搜狗搜索出来
- 威海Spider 威海sogou spider
- 1134
因为搜索引擎索引数据库的更新需要时间。虽然sogou spider已经停止访问您网站上的网页,但搜狗搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
如果您的拒绝被收录需求非常急迫,也可以通过删除快照反馈请求处理。
因为搜索引擎索引数据库的更新需要时间。虽然sogou spider已经停止访问您网站上的网页,但搜狗搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
如果您的拒绝被收录需求非常急迫,也可以通过删除快照反馈请求处理。
针对apache、iis6、iis7独立ip主机屏蔽拦截蜘蛛抓取的方法如下: 1. 在网站根目录下新建一个robots.txt文件,添加以下代码: User-agent: * Disallow: / 这样可以禁止所有蜘蛛抓取你的网站。 2. 在服务器端安装mod_security模块并配置,可以使用以下命令: sudo apt-get install libapache-mod-secu
搜索蜘蛛IP段 1、百度蜘蛛:220.181.100-220.181.111 2、360搜索蜘蛛:36.110.0-36.110.255 3、新浪蜘蛛:61.135.160-61.135.160 4、搜狗蜘蛛:182.118.7-182.118.15 蜘蛛IP被拦截的问题解决方法 1、根据不同的蜘蛛IP段添加搜索蜘蛛的IP白名单,以免被拦截; 2、根据不同的蜘蛛访问网站的添加Us
虽然您在网站上加了robots.txt文件,但搜狗搜索引擎仍然可以在搜索结果中显示您的网站。这是因为robots.txt文件只是一个标准化的协议,它主要用于指导搜索引擎爬虫(蜘蛛)如何访问和索引网站的内容。 尽管大多数搜索引擎都会遵循robots.txt文件中的规则,但有些搜索引擎可能会选择忽略它或解释不同的方式。这可能是因为搜狗搜索引擎没有完全遵循robots.txt文件的指示,或者由于其他原
sogou spider 支持 robots 协议,您可以在网站的根目录放置 robots.txt。robots.txt 的规则请参阅 http://www.robotstxt.org/。需要注意的是,最新更新的 robots.txt 可能需要几个星期才能体现出效果来,另外,被您禁止 sogou spider 收录的网页将不能在搜狗搜索引擎上检索到。