Categories


Tags


常见Robots名字

名称 搜索引擎

google蜘蛛: googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛: lycos_spider_(t-rex)

alltheweb蜘蛛: fast-webcrawler/

inktomi蜘蛛: slurp

一个在线写robots.txt的工具。

最后需要注意,robots.txt文件名必须是小写,而且放在网站根目录

来源:360站长平台


Public @ 2013-05-19 16:09:03

为什么我的网站已经加了robots.txt,还能在百度搜索出来?

为什么我的网站已经加了robots.txt,还能在百度搜索出来?因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。来源:百度搜索资源平台 百度搜索学堂

Public @ 2015-11-18 16:08:58

301转向的作用和设置方法

301转向是指在网站代码中设置一个永久重定向,将一个网页的URL地址重定向到另一个URL地址。301转向的作用包括: 1. 改变URL结构时,将旧URL地址重定向到新URL地址,以保持搜索引擎的收录和排名。 2. 合并或重构网站时,将原来的网页重定向到新的网页,以避免404错误页面的出现,同时保留原来网页的SEO价值。 3. 修复破损的链接,将错误的URL重定向到正确的URL地址。 设置3

Public @ 2023-04-09 09:50:45

百度搜索robots协议全新升级公告

尊敬的用户: 为了更好地保护网站主的合法权益、提升百度搜索用户搜索体验,百度搜索于2020年10月27日发布了新版robots协议,主要特性包括: 1. 支持抓取控制与数据保护视角的并存 新增规定了两个特殊的抓取指令: allow-if-previously-blocked 和 noindex-if-previously-indexed,用于方便网站主在控制抓取行为的同时,保护网站内容的安全

Public @ 2023-06-20 23:50:22

robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt

Public @ 2017-10-31 16:09:18

更多您感兴趣的搜索

0.461216s