Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

301转向,补充材料,网站结构

在不同域名间做301转向有的公司会买一些很彼此相关的网站和域名,然后做301转向到主网站。Matt Cutts回答,这没有问题,在很多行业里网站的合并转手都是很正常的。把不同域名做301转向,转到其他域名是可以接受的,只要这两个网站是在相关的领域。但是如果你突然从一个谈音乐的网站链接向债务重组的网站,就比较可疑了。怎样用关键字形成网站结构主题有的人问,是不是可以把关键词放在目录名中来形成不同的主题

Public @ 2016-09-28 16:09:10

Google网站地图Sitemap与搜索引擎优化

Google网站地图Sitemap是一个XML文件,列出了Web站点中的所有页面和链接。这样,搜索引擎可以通过此文件更快地找到和索引您网站上的所有内容。 与搜索引擎优化(SEO)有关的是,Sitemap帮助您确保您网站上的所有内容都可以被搜索引擎找到和索引。搜索引擎很可能会错过一些页面或链接,导致这些内容无法出现在用户的搜索结果中。有了Sitemap,您可以告诉搜索引擎哪些页面需要索引,哪些页面

Public @ 2023-06-02 03:00:17

Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?工程师解答:Baiduspider

Public @ 2013-01-02 16:08:54

更多您感兴趣的搜索

0.104652s