Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

Sitemap文件标准格式和大小说明

1、格式:您可以采用如下三种格式的文件向360搜索提交Sitemap,文件编码可以是UTF-8或GBK: 1)标准的XML格式文件 2)文本格式文件 3)Sitemap索引文件(可同时包含多个Sitemap文件)2、大小: 1)单个Sitemap文件:大小不超过10MB,且包含不超过50000个网址。如果网站所包含的网址超过50,000个,则可将列表分割成多个Sitemap文件,放在Sitemap

Public @ 2010-11-01 16:11:51

产生复制内容的原因

下面这几个问题可能造成复制内容。1.代理商和零售商从产品生产商那里转载产品信息。2.网页内容由RSS生成。3.转载及抄袭。4.镜像网站。5.URL任意加字符还是返回200状态码。6.打印版本。7.产品或服务类型之间的区别比较小。8.使用Session ID。9.网站结构造成的各种页面版本。10.网页实质内容太少。来源:搜外网

Public @ 2022-01-21 15:18:31

禁止搜索引擎收录的方法

1. 什么是robots.txt文件?搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当

Public @ 2015-10-28 16:08:55

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

更多您感兴趣的搜索

0.439183s