Categories


Tags


如何从搜狗中删除内容

要从搜索结果中删除内容(包括网页摘要、标题、网页内容,或者整个网址或网站),网站拥有者可以选择使用多种方法。比如,从网页中删除相关信息、将网页从网络中彻底删除,以及通过标记告诉搜狗不要抓取相应网页。以下将列举删除内容常见的几种情况。

网站已经更改,删除过时信息:

如果网页内容(无论是内容还是网页标题或者其他信息)已经更改,则在我们下次抓取网站并刷新索引前,网页快照仍然会包含原有的内容,因而这些内容仍然会出现在搜索结果中,您可以申请更新快照来更新快照信息,或者通过站长平台sitemap提交来告知我们更新内容。

我想从搜索结果中彻底删除某个网页:

为确保永久删除您的内容,请进行以下某项操作。如果您没有进行相应操作,那么您的网站稍后可能会重新显示在搜索结果中。

A.如果网页已不存在,请确保服务器返回 404(未找到)或 410(不存在)。这样可让搜狗知道该网页已不存在,无需再在搜索结果中显示。

B.如果网页仍存在,但您不想让其显示在搜索结果中,请使用 robots.txt 阻止 sogou spider 进行抓取。请注意,在通常情况下,即使您已通过 robots.txt 禁止抓取某个网址,但如果我们在其他网站中发现该网址,仍会将相应网页编入索引。

此外,如果要从搜索结果中删除非 HTML 格式的文件(例如可下载的 PDF),则您或网站站长应确保从服务器中删除该文件。

我想从搜索结果中删除整个网站或某个目录的内容:

如果您是网站拥有者,则需要在验证网站所有权后申请删除整个网站或目录。

为确保永久删除您的目录或网站,请使用 robots.txt 阻止抓取工具访问该目录(如果要删除的是网站,则应阻止抓取工具访问您的整个网站)。我们建议您在请求删除目录前或请求删除后不久执行该操作。否则,您的内容稍后可能会重新显示在搜索结果中。仅返回 404 HTTP 状态代码还不够,因为可能出现这样一种情况:即某个目录返回了 404 状态代码,却仍然分发其中的文件。通过使用 robots.txt 禁止抓取目录,可确保将目录的所有子项也一并排除。

完成上述某步操作后,您就可以发出删除请求,从搜索结果中删除相应目录及其所有内容。

删除 https://www.example.com 的同时还会删除 http://www.example.com,以及http://example.com 和 https://example.com。

如果您不是网站拥有者,请通过网站联系网站管理员,要求他通过以上步骤进行删除。搜狗没有权利控制互联网中的内容。

请求删除网站时,请务必谨慎。只有在您想从搜狗的索引中永久删除网站的所有内容时,才应该请求删除网站。


Public @ 2013-10-02 15:35:26

为什么我的网站搜不到?

首先需要排查网站是否被收录,通过搜索网站链接,如果给出的第一个结果是该网站,说明收录正常。其次分两种可能情况:1、搜索词并非明确寻找某个网站,例如搜索:毛衣购买、订购鲜花、摄影论坛等。在此类非明确寻找网站的搜索词下,我们会根据网站的质量以及与搜索词的相关强度依次排序展现给用户。2、网站被过度优化导致受到了算法惩罚,具体惩罚原因可以通过搜索资源平台发布的对外公告,对照排查。3、如果确认无作弊行为,网

Public @ 2011-10-03 15:55:54

什么样的站点会受到搜狗欢迎?

搜狗主要关注站点的用户体验和内容质量。以下是可能会受到搜狗欢迎的站点特点: 1. 有良好用户体验的站点,包括简洁明了的页面布局、易于导航和搜索的界面、快速的加载速度等。 2. 提供独特、高质量的内容,包括独家报道、原创文章、深度分析等。 3. 有良好的技术支持,包括具备优秀SEO优化技巧、防止恶意攻击和滑动等。 4. 与其他站点互相参考、互相链接和分享,建立良好的网络生态。 5. 保持站

Public @ 2023-05-29 19:00:14

百度搜索结果泄露个人隐私,或造成个人伤害,如何删除这类不良信息。

如果百度搜索结果中包含了你的个人隐私或可能对你造成伤害的不良信息,你可以尝试以下几种方法来删除它们: 1. 直接联系网站管理员:找到包含不良信息的网站,尝试找到他们的联系方式,如网站的“联系我们”或“投诉”页面。向网站管理员说明情况并请求删除不良信息。 2. 使用百度搜索引擎提交删除请求:你可以使用百度搜索引擎的“删除网页信息”工具,提供不良搜索结果的URL和相关理由进行提交。百度会评估请求的

Public @ 2023-07-29 00:50:35

从搜狗永久删除内容如何操作?

情况一网页已不存在如果网页已不存在,请确保服务器返回 404(未找到)。这样可让搜狗知道该网页已不存在,无需再在搜索结果中显示。情况二网页仍存在请使用 robots.txt 阻止 sogou spider 进行抓取。请注意,在通常情况下,即使您已通过 robots.txt 禁止抓取某个网址,但如果我们在其他网站中发现该网址,仍会将相应网页编入索引。这里需要说明一点,如果页面变死链了,并且设置了ro

Public @ 2017-12-20 15:35:24

更多您感兴趣的搜索

0.434352s