Categories


Tags


360搜索对Robots协议的扩展

  360搜索对Robots协议的扩展

整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容及代码片段有且仅有借鉴意义。

  360搜索对Robots协议进行了扩展,增加了以下几个指令:

1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。

2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。

3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点的所有URL。

4. Host:用于指定网站的主机名,可以避免因为DNS变化导致搜索引擎爬虫无法访问网站。

5. Clean-param:用于指定需要从URL中移除的参数,搜索引擎在访问网站时会忽略URL中包含的这些参数。

6. Noindex-nofollow:用于指定不需要被搜索引擎收录或链接的页面。

这些指令的使用可以让网站管理员更加灵活地控制搜索引擎爬虫的访问行为,以达到更好的SEO效果。

Public @ 2023-05-29 17:00:02 整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容有且仅有借鉴意义。

设置搜索robots协议的后果

设置搜索robots协议的后果针对短视频类内容,视频搜索将不再索引、展现网站的视频资源,历史已索引部分会从搜索中屏蔽。若设置部分目录不希望被收录 ,该目录下内容将从搜索中屏蔽,其余内容在搜索中则以正常结果展示。来源:百度搜索资源平台

Public @ 2021-05-12 16:09:00

静态URL是什么?静态URL优点和缺点

静态URL是指URL中完全由字符和字母组成的静态地址,不包含任何动态参数。 静态URL的优点: 1.优化搜索引擎结果:静态URL对搜索引擎更友好,搜索引擎更容易通过静态URL来了解页面内容并进行排名。 2.篡改困难:静态URL一般不包含动态参数,因此不容易被篡改和操纵。 3.可读性强:静态URL直观易懂,很容易让人了解其中的内容。 静态URL的缺点: 1.不利于动态内容更新:如果内容

Public @ 2023-06-25 14:50:20

常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:1、禁止所有搜索引擎抓取网站的任何部分User-agent: *Disallow: /这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)User-agent: *Allow: /这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以

Public @ 2010-05-21 16:09:23

robots

robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。来源:360站

Public @ 2014-01-16 16:09:19

更多您感兴趣的搜索

0.470669s