Categories


Tags


搜索引擎友好的网站设计

前几天有个朋友在MSN里面问搜索引擎友好指的是什么,这是个涉及面挺宽的问题,今天从几方面谈一下大概。

假设我们从搜索引擎蜘蛛的角度去看待一个网页,在抓取,索引和排名的时候会遇到哪些问题呢?解决了这些问题的网站设计就是搜索引擎友好的。

搜索引擎蜘蛛能不能找到你的网页?

要让搜索引擎找到你的主页你就必须要有外部链接,在找到你的主页之后,还必须能找到你的更深的内容页,也就要求你要有良好的网站结构,符合逻辑,可能是一个扁平的,可能是一个树状的。

而且这些网页之间要有良好的链接结构,这些链接以文字链接最好,图像链接也可以,但是JavaScript链接,下拉菜单链接,flash链接等就会有问题。

一般推荐网站需要有一个网站地图,把所有重要的部分和网页都列进去。如果网站比较大,网站地图还可以分成几个。

网站的所有页面都要能从主页开始,顺着链接找到,最好在3,4次点击之内。

搜索引擎蜘蛛找到网页后能不能抓取网页?

网页的URL必须是可以被抓取的,如果网页是由数据库动态生成的,那么URL一般要经过改写成静态的,也就是去掉那些URL中问号参数之类的东西,也要去掉Session ID。技术上倒不是搜索引擎不能读取这种URL,但是为了避免陷入无限循环,搜索引擎蜘蛛通常要远离这类URL。

还有如果你的网站是一个整个的flash,那也没办法读取。虽然搜索引擎在努力想读取flash信息,但目前为止收效甚微。

还有框架结构(frame),在网站刚出现的时候,框架结构风行一时,现在还有不少网站在用,这是搜索引擎蜘蛛的大敌。

还有尽量去除不必要的搜索引擎不能读的东西,像音频文件,图片,弹出窗口等。

搜索引擎蜘蛛抓取网页之后,怎样提炼有用信息?

网页的HTML码必须很优化,也就是格式标签占的越少越好,真正内容占的越多越好,整个文件越小越好。把CSS,JavaScript等放在外部文件。

把关键词放在应该出现的地方。

检查网页对不同操作系统,不同browser的兼容性。检查是否符合W3C标准。

只有搜索引擎能顺利找到你的所有网页,抓取这些网页并取出其中真正的有相关性的内容,这个网站才可以被视为是搜索引擎友好的。

来源:SEO每天一贴 Zac 昝辉


Public @ 2011-02-24 15:45:12

java主机常见问题(jsp版本)

1. 使用了过时的JSP标签库或方法 2. JSP页面编译错误,如语法错误、代码逻辑错误等 3. 内存不足或内存泄漏导致JVM崩溃 4. Web服务器配置错误,例如没有正确配置servlet映射 5. Java虚拟机版本过低或过高 6. 数据库连接问题,例如连接池出现故障或连接超时 7. 网络连接问题,例如服务器无法与数据库或其他服务通信 8. 前端页面JS脚本错误,导致JSP页面无法正常展示 9

Public @ 2023-06-10 05:00:09

如何让搜索引擎抓取AJAX内容?

1. 无刷新加载页面:与搜索引擎爬虫一起使用哈希标记(hash tagging)或查询字符串(query strings)。 2. 哈希值: 使用路径增数的技术实现AJAX的无刷新加载,将AJAX数据以哈希值的形式存储在URL文件末尾,让爬虫可以识别它。 3. 提供HTML snipped:网站可以提供一个HTML snipped,其中包含重要的AJAX内容,这样爬虫就可以获取到相关信息。

Public @ 2023-02-27 23:00:35

十个JavaScript页面布局技巧

1. 使用CSS网格布局:CSS网格布局是一种强大的布局技术,可以将页面划分为行和列,并通过简单的CSS属性设置来定位和对齐元素。 2. 使用Flexbox布局:Flexbox布局是一种弹性布局技术,可以实现灵活的盒子布局,并通过简单的CSS属性来对齐、排序和分布元素。 3. 使用响应式设计:通过媒体查询和CSS属性,可以为不同的设备和屏幕尺寸创建适应性布局,以提供更好的用户体验。 4. 使

Public @ 2023-07-27 17:50:37

网站美观重要还是实用重要?

我设计和推广网站已经有几年时间了。但是网站到底是实用重要还是美观重要?到现在为止,也还是经常在脑子里转来转去,没办法有一个确定的答案。当然两者兼得最好。但实际上往往两者不能兼得。这时候必须选择以其中的一个方面为主。今天在读冯英健博士的一篇博客文章:新竞争力网站为什么不做漂亮一点?又引起了我对这个问题的思考。应该说新竞争力网站确实不漂亮,但是却是很少几个我会经常去看的中文网站之一。为什么呢?当然第一

Public @ 2009-10-24 15:45:11

更多您感兴趣的搜索

0.469134s