360搜索对Robots协议的支持
360搜索支持Robots协议的主要命令,以下为具体说明:
1. user-agent
360搜索各产品的爬虫user-agent为:
- 网页搜索 360Spider
- 图片搜索 360Spider-Image
- 视频搜索 360Spider-Video
2. Allow
站长可通过Allow命令指定建议收录的文件、目录 。
3. Disallow
站长可通过Disallow命令指定不建议收录的文件、目录。
360搜索支持Robots协议的主要命令,以下为具体说明:
1. user-agent
360搜索各产品的爬虫user-agent为:
- 网页搜索 360Spider
- 图片搜索 360Spider-Image
- 视频搜索 360Spider-Video
2. Allow
站长可通过Allow命令指定建议收录的文件、目录 。
3. Disallow
站长可通过Disallow命令指定不建议收录的文件、目录。
404页面是指在网站上访问某个不存在的页面时,服务器返回的错误页面。一般来说,404页面会告诉用户当前访问的页面不存在,并提供一些相关链接或搜索框,帮助用户继续浏览网站。
1、格式:您可以采用如下三种格式的文件向360搜索提交Sitemap,文件编码可以是UTF-8或GBK: 1)标准的XML格式文件 2)文本格式文件 3)Sitemap索引文件(可同时包含多个Sitemap文件)2、大小: 1)单个Sitemap文件:大小不超过10MB,且包含不超过50000个网址。如果网站所包含的网址超过50,000个,则可将列表分割成多个Sitemap文件,放在Sitemap
robots是什么robots是网站跟蜘蛛间的协议,当访问站点时,它首先检查机器人是否存在于站点的根目录中。如果找到,蜘蛛就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。一定要注意txt文件必须放在站点的根目录中,文件名必须为小写。robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定
Robots.txt 是一个网站管理员可通过在站点根目录中放置一个名为robots.txt的文件来让搜索引擎(及其爬虫)知道该如何来收录并处理某些目录或页面,并使索引过程更加有效更加规范。 Robots.txt 的作用是向搜索引擎解释网站中哪些目录和文件希望被搜索引擎收录、哪些不希望收录,以避免搜索引擎抓取到网站误差的内容。如果 robots.txt 被恰当地设置,可以有效提高收录质量和网站