Categories


Tags


页面编码问题

精选网址 提问于 3年 之前

有的说utf-8编码最被搜索引擎喜爱,我将站的所有<meta charset=”gb2312″>都改成了<meta charset=”utf-8″>,但有的页面成了乱码,只好又改回去,请问是否将<meta charset=”gb2312″>改成<meta charset=”utf-8″>后,还需要修改网页中其他地方的代码?

2 个回答

Zac 管理员 回答于 3年 之前

没听说搜索引擎最喜欢utf-8编码。之所以utf-8编码用的最多,大概是因为所有语言页面都可以用utf-8编码,不会出错。中文页面用gb2312也应该没什么问题。

如果改了charset,要修改的不是页面其它地方的代码,是字符编码可能出现问题。在meta中修改charset,但文件其它字符并没有改编码,在不同系统、不同软件情况下,编码可能会乱,就出乱码了。有时候打开文件,重新存一下就好了。更复杂的我也不懂了。

精选网赚 回复于 3年 之前

非常感谢回复,请问怎样将文件其它字符一次都该过来

姜成SEO 回复于 3年 之前

用 Notepad++ 打开文件 在编码一栏选择转为UTF-8编码 轻松搞定

无业游民 回答于 3年 之前

对于搜索引擎喜欢utf-8我是第一次听说,搜索引擎没有偏爱什么编码这是真的,首先你的只是修改了模版编码,并没有去改成程序cms的编码,才导致页面乱码,有2种办法可以解决,1是用工具批量替换,(如Notepad++)、2是替换UTF-8的程序cms。 utf-8国际编码、gbK是中文编码。

来源:SEO每天一贴 Zac 昝辉


Public @ 2022-05-16 15:52:38

网站抓取了一些不存在的目录跟页面?

可能是因为网站存在未处理的URL链接或者被其他网站或者搜索引擎误解导致的,也有可能是恶意的爬虫在尝试攻击网站。为了解决这个问题,可以通过以下方式进行: 1. 对于不存在的页面,应该返回404错误页面或者301重定向到一个已有的页面; 2. 建立一个robots.txt文件来限制搜索引擎或者爬虫的访问; 3. 定期检查日志文件来发现存在攻击性的IP地址或者爬虫; 4. 部署防火墙、权限管理和加密措

Public @ 2023-05-30 19:00:18

对于原创文章生成这类工具,会对网站SEO有不利影响吗?

作为AI语言模型,我不可以对SEO规则做出评价。但是,对于原创文章生成工具,一些SEO专家担心这些工具可以产生重复的内容,这可能会影响网站的排名和可信度。此外,如果工具的内容质量较低,也可能会影响网站的排名和流量。因此,如果要使用原创文章生成工具,建议使用高质量工具并仔细审核所生成的内容,以确保内容的独特性和质量。

Public @ 2023-06-24 03:50:07

网站存在重复链接会怎么样

如果网站中存在大量的重复链接,可能会导致以下问题: 1. 被搜索引擎降权:搜索引擎认为这个网站有很多重复链接,没有提供有价值的内容,因此可能降低它在搜索结果中的排名。 2. 用户体验差:重复链接可能会让用户感到困惑和不满意。用户访问网站的主要目的是查找有用的信息,而重复链接会让他们花费更多的时间和精力去寻找所需的信息。 3. 浪费带宽和服务器资源:当重复的链接被搜索爬虫和用户访问时,会浪费服

Public @ 2023-05-30 11:00:22

您好Zac,我想请教您百度排名的问题

阿文 提问于 4年 之前我的网站有几个关键词排在3,4页的位置,请问Zac我该如何提升这些词的排名呢?目前站点是7个月的时间,每天约有10个IP访问,但移动端占了大部分。谢谢!阿文3 个回答Zac 管理员 回答于 4年 之前这是典型的无法回答的问题:太宽泛。第一,怎样做SEO?或者怎样提升关键词排名?要回答,得写一整本书。建议你先看书,有具体的问题再来问。第二,除了极个别的行业,做SEO都是一样的

Public @ 2020-08-29 16:04:32

更多您感兴趣的搜索

0.508148s