Categories


Tags


如何避免和处理死链接?

1、网站改版最容易产生死链的

改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。

2、对发现的死链接如何处理

将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到百度资源平台-搜索服务-资源提交-死链提交--添加新数据--填写死链文件地址;若大量死链具有一定的规则,如某个目录下全部为死链接,可提交规则死链。

相关注意事项:

1、在百度站长工具中提交死链前,一定要确保提交的死链数据不存在活链接。一旦存在活链,会显示提交失败导致无法删除。

2、由于很多网站程序问题,很多打不开的页面返回码并非404,这是一个大问题,比如明明是打不开的页面返回码是301、200、500,如果是200的话,会导致网站中出现不同URL获取相同内容。比如我的一个站,社区的帖子删除后,返回码却是500,后期发现了,立马进行了处理。大家尽量找出所有错误URL格式,并设置HTTP状态码为404。

3、把所有的错误页面找到后,一定要寻找此类页面URL相同特征,并且和正常页面的特征有区分,写对应规则到robots文件中,禁止蜘蛛抓取,就算你已经在站长工具中提交了死链,也建议robots封禁抓取。

4、robots只能解决蜘蛛不再抓取此类页面,但解决不了已经收录页面的快照删除问题,若你的网站被黑,删除了被黑页面,除了robots封禁被黑页面外,还应该将这些页面提交死链。提交死链是删除被黑页面快照的最快办法。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2017-11-05 15:36:52

视频极速体验解决方案-百度搜索robots协议全新升级公告

Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。如您

Public @ 2012-02-22 15:38:33

网站被黑怎么处理?网站被黑解决方法

一个网站被黑,说明网站存在的很多安全隐患和漏洞等,即使登录服务器找到源文件修复,还是会再次面临被黑的危机,只有把网站漏洞一一找出进行修复,才能有效的预防黑客再次攻击。网站被黑怎么处理?网站被黑解决方法1、找到网站被黑的内容,将页面设置为404死链,在百度搜索资源平台使用死链工具竞选提交。(有关死链工具提交方法:为什么要使用死链工具?死链工具的使用方法)2、网站上出现有被变更的页面,可以使用链接提交

Public @ 2013-02-11 15:37:33

叨叨死链这回事儿

经常有站长跑来问小so姐关于死链的问题,比如,我的网站有一些死链,会不会影响网站正常页面的收录;比如,除了404页面或者明显不能正常访问的页面,还有哪些属于死链范畴。今天,小so姐就来和大家叨叨死链这回事儿。【简要介绍】死链其实可以分为三种:协议死链,内容死链,跳转死链。协议死链,是指通过HTTP协议状态码明确表示网页已经无法访问,即页面打不开、服务器错误等。常见的如404、403、503状态等。

Public @ 2021-07-11 15:37:00

更多您感兴趣的搜索

0.498916s