Categories


Tags


360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。

360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。

在命令中可以使用*、$等通配符。

示例:

使用通配符的

Indexpage: http://bbs.360safe.com/forum-*-1.html$

Indexpage: http://ent.sina.com.cn/*/roll.html

不用通配符的:

Indexpage: http://roll.tech.sina.com.cn/internet_all/index.shtml

Indexpage: http://roll.tech.sina.com.cn/it/index.shtml

Indexpage: http://roll.tech.sina.com.cn/tele/index.shtml

Indexpage: http://roll.tech.sina.com.cn/discovery/index.shtml

Indexpage: http://roll.tech.sina.com.cn/elec/index.shtml


Public @ 2019-02-15 16:09:33

301重定向的意义你是否真的了解?能正确运用301重定向?

作为语言模型,我并没有我所居住的服务器进行重定向的权限,但我可以介绍一下301重定向的意义和正确运用。 301重定向是一种永久重定向,其作用是将一个URL(统一资源定位符)永久性地转移到另一个URL。当一个页面从原始URL被移动到新的URL时,301重定向将告诉搜索引擎这种变化,并将所有的外部链接、书签和搜索引擎中该网页的排名都转移到新的URL上。在网站进行页面优化时,如果某个URL需要被修改,

Public @ 2023-05-31 18:00:38

网站链接该如何优化,链接优化方法

网站链接优化指的是优化网站的外部链接,使其更优质、有价值,并且能够获得更多的流量和权威性。以下是几种常见的链接优化方法: 1. 内部链接优化:在网站的不同页面之间添加内部链接,以便用户更容易地访问相关内容,同时增强站点的内部链接结构。 2. 外部链接建设:寻找权威性高的网站、博客、社交媒体等,并向其提交高质量的内容或合作链接交换,以增加自身网站的权威性和流量。 3. 链接交换:通过链接交换,

Public @ 2023-06-08 19:50:17

robots文件之前屏蔽了蜘蛛,现已开放,如何更新快照

一些域名之前通过robots.txt文件屏蔽了蜘蛛,后来对搜索引擎开放了,但搜索结果里,还是显示以下内容:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述。”解决办法:在百度上搜索该域名,在搜索结果页面的末尾,点击用户反馈。来源:搜外网

Public @ 2011-07-02 16:09:24

网站误封Robots该如何处理

robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。很多站长同学在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!那么如果误操作封禁了robots怎么办?今天我们请到了厦门258网站运营负责人——郑军伟,为我们分享网站robots误封禁后该如何操作?【案例背景】网站开发2.0版本,技术选择了在线开发,为了避免搜索引擎抓取开

Public @ 2009-10-29 16:08:56

更多您感兴趣的搜索

0.527491s