Categories


Tags


阻止个人信息在搜索引擎中出现

个人信息一旦在网上发布,很有可能会被百度搜索引擎抓取,特别是在知名社交网站、专业网站上发布的内容。可能您并不希望这类个人信息出现在百度搜索结果中,以下方式可以帮助您阻止个人信息在搜索结果中出现。

如果您是在其他网站上发布的内容:

1、在社交网站中(例如人人网,开心网等),您可以针对个人信息设置浏览权限,例如只有朋友或者自己可以浏览;如果您不愿让陌生人看到某些照片或信息,则应该慎重考虑是否公开发布这些内容。

2、如果相关内容出现在其他网站中(例如58同城,赶集网等),您需要联系网站管理员,请求删除相关内容或者网页。当相关内容或者网页已被处理后,您可以通过百度网页投诉中心对这些网页发起快照的更新或删除流程,百度搜索引擎会在几小时内自动完成这些工作。

温馨提示:通过百度网页投诉中心对搜索快照进行更新或删除时,请您务必确认相关内容已经变更,或网页已被删除(即网页无法访问),否则系统将无法成功实现您的请求。

如果您是在自己的网站上发布的内容:

请您对页面内容进行变更,或直接删除原网页(并安排设置404页面)。完成后通过百度网页投诉中心对这些网页发起快照的更新或删除流程。

如果大家对如何阻止个人信息在搜索引擎中出现还有别的疑问,大家可以到[学堂同学汇][学习讨论] 《 阻止个人信息在搜索引擎中出现》讨论帖中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2016-01-12 16:08:57

什么样的站点会受到搜狗欢迎?

站点应该是面向用户的,而不是面向搜索引擎的。一个受到用户欢迎的站点,最终也会受到搜索引擎欢迎;反过来,如果你的站点做了很多针对搜狗的优化,但却给用户带来大量负面体验,那么,你的站点最终肯定会受到搜狗的处罚。搜狗更喜欢有原创内容的网页,而不是简单抄袭和采集互联网上已有内容的网页。对于已经被重复了千百遍的内容,搜狗可能会不予收录。请谨慎使用你的站点链接。与一些垃圾站点做友情链接,很可能会使你的网站受到

Public @ 2016-02-29 15:55:42

什么是robots文件

什么是robots文件Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网

Public @ 2017-09-19 16:02:20

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

更多您感兴趣的搜索

0.482949s