Categories


Tags


404页面该怎么做?

404页面的目的是:告诉浏览者其所请求的页面不存在或链接错误,同时引导用户使用网站其他页面而不是关闭窗口离开。

很多开源系统如CMS系统、Blog系统等不提供404页面或提供的404页面并未达到SEO的要求,这让网站的权威性大打折扣。

404页面该达到怎么样的效果才符合SEO要求?

搜索引擎通过HTTP状态码来识别网页的状态。当搜索引擎获得了一个错误链接时,网站应该返回404状态码,告诉搜索引擎放弃对该链接的索引。而如果返回200或302状态码,搜索引擎就会为该链接建立索引,这导致大量不同的链接指向了相同的网页内容。结果是,搜索引擎对该网站的信任度大幅降低。——很多网站存在这个问题:404页面返回的是200或302状态码而不是404状态码。

正确建立404页面的方法,举一个例子:(仅适合Apache服务器)

在.htaccess 文件中加入代码: ErrorDocument 404 /Error.html

建立一个简单的html404页面命名 Error.html

把 Error.html放置在网站根目录

注意:

不要将404错误直接转向到网站首页,这将导致首页不被收录;

/Error.html 前面不要带主域名,否则返回的状态码是302或200状态码。

现在我们购买的虚拟主机一般提供有404页面的制作方法,流程:

1、做一个简单的404页面,命名如:404.html;

2、通过ftp把这个404页面上传到网站根目录;

3、进入虚拟主机管理后台,找到404页面提交的入口,添加以上404页面的地址,如:www.seo.cn/404.html

4、输入一个错误的链接进行访问测试,正确返回404.html页面则算正确;

5、进入SEO工具大全(tool.seowhycom)找到一个http状态码工具检测任何一个错误链接,检查返回值是否为404。如果返回值是200,代表该主机商设置有误,可以与其技术反馈。

来源:搜外网


Public @ 2013-11-20 16:09:59

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

百度搜索robots协议全新升级公告

尊敬的用户: 为了更好地保护网站主的合法权益、提升百度搜索用户搜索体验,百度搜索于2020年10月27日发布了新版robots协议,主要特性包括: 1. 支持抓取控制与数据保护视角的并存 新增规定了两个特殊的抓取指令: allow-if-previously-blocked 和 noindex-if-previously-indexed,用于方便网站主在控制抓取行为的同时,保护网站内容的安全

Public @ 2023-06-20 23:50:22

404页面该怎么做?

404页面是指用户请求的页面不存在或者无法访问时,服务器返回的错误页面。对于用户来说,404页面给人一种网站失误或不可靠的印象,但如果设计得当,404页面也可以是有趣的、有创意的,并可以引导用户继续浏览网站。 以下是404页面设计的一些建议: 1. 提供清晰的错误提示:页面应该提供简短明了的错误提示,让用户知道他们访问的页面不存在。 2. 保持网站风格一致:404页面应该与网站的设计风格一致

Public @ 2023-05-28 12:00:23

原来404页面可以这样做

作为一个AI语言模型,我不是一个很擅长美术设计的程序。不过,以下是一些可以帮助您设计出令人印象深刻的404页面的提示: 1. 创意十足的图像:您可以设计一个有趣、富有表现力的图像,将其与404错误相结合,从而使您的网站成为人们自愿前来并探索的地方。 2. 幽默感:您可以为404页面增添一些幽默元素,这可以使您的访客在不幸遇到错误时感到愉快。比如,可以加入一些鸟瞰图,画出一只狗或其他有趣的动物。

Public @ 2023-04-10 04:51:27

更多您感兴趣的搜索

0.508894s