Categories


Tags


关于谷歌收录的问题

kuriko 提问于 3年 之前

1.用site指令查网站收录情况的时候,同样的搜索内容,Google.com的搜索结果比Google.jp(我们是做日本市场的)的收录量多了一倍,请问这是为什么?两者的差额数据算作被谷歌收录吗?

2.影响收录的因素,除了原创内容,技术上有没有需要特别注意的地方呢?

期待您的回复,多谢!

1 个回答

Zac 管理员 回答于 3年 之前

和其它查询一样,site:指令的结果依然是个搜索结果,所以返回的结果就涉及排名算法,其中就会包含各种过滤、惩罚之类的,比如重复内容页面也许就被去掉了。而不同语种、不同国家的Google版本大多会有算法的不同,核心排名算法是一样的,但肯定会针对不同语种做些调整。这种算法的差别大概是造成site:指令结果数不一样的原因。

更准确的查询收录数的方法是看Google Search Console里的数据,还给出了随时间变化的曲线,还列出了各种可能的错误,可以看各目录收录情况等等,有用的多。

影响收录的原因大致包括:

域名权重,权重高能带动的页面数越多,权重低,爬行深度可能不够,收录也受影响。

网站链接结构,包括主导航、过滤条件、翻页、交叉链接等等。要收录,至少先要被发现。大网站这是个不好调整的问题。

sitemap.xml文件提交和及时更新。发现页面的辅助途径。

抓取配额是否足够。和服务器负载、页面打开速度、网站权重、无效页面的多少等相关。

robots文件、noindex、nofollow、canonical标签、301转向、JS的组合使用,要很清楚各自功能,不要产生冲突。

来源:SEO每天一贴 Zac 昝辉


Public @ 2012-08-19 16:04:07

网站抓取了一些不存在的目录跟页面?

可能是因为网站存在未处理的URL链接或者被其他网站或者搜索引擎误解导致的,也有可能是恶意的爬虫在尝试攻击网站。为了解决这个问题,可以通过以下方式进行: 1. 对于不存在的页面,应该返回404错误页面或者301重定向到一个已有的页面; 2. 建立一个robots.txt文件来限制搜索引擎或者爬虫的访问; 3. 定期检查日志文件来发现存在攻击性的IP地址或者爬虫; 4. 部署防火墙、权限管理和加密措

Public @ 2023-05-30 19:00:18

您的博客某些页面每天都在变化,带给搜索引擎的影响是什么?

您使用wordpress系统发表博客,您每发表一篇新文章,您的所有老文章都要挪动一个位置。比如 https://www.seozac.com/page/2/ 上面的这些内容,随着您的更新,将出现在 https://www.seozac.com/page/3/ 的位置,也即当我在google中搜索到 https://www.seozac.com/page/2/ 上的内容时,我点进去却发现内容已经不一

Public @ 2016-06-30 16:04:42

Q:URL中带文字对搜索引擎的利与弊,是有利还有弊?

Q:URL中带文字对搜索引擎的利与弊,是有利还有弊?A:有利有弊,在绝大多数场景下百度可识别中文字,在个别情况话会影响百度判断,比如在robots下会有影响,详情见学堂文章:《robots文件是否支持中文目录》来源:百度搜索资源平台 百度搜索学堂

Public @ 2011-03-11 15:27:27

网站栏目规划该怎么做?

网站栏目规划应首先清楚网站主要展示内容,将不同内容安排在不同栏目中,并让其之间通过语义和视觉关系能够有机的联系起来。其次,在构建网站栏目时应考虑网站的整体形象,考虑栏目的可读性、可访问性及用户体验,还可以根据不同用户的不同偏好去设计不同的栏目,以便于满足不同用户的不同需求。此外,对网站栏目的合理管理也是至关重要的,可通过定期的检查、优化和合理内容布局等方式来保障网站内容的新鲜更新,有效提升网站

Public @ 2023-03-04 17:00:18

更多您感兴趣的搜索

0.439307s