HTML压缩和SEO?
在工作中,我们有一位专门的SEO分析师,其工作是倾销大量数据(KeyNote /竞争等)并为执行人员生成花哨的报告,以便他们可以在自然搜索排名中了解我们如何与竞争对手竞争。他还领导了通过尽最大努力来优化我们网站上SEO排名的计划。
我们还有一个长期任务,那就是减少页面加载时间,这在某些页面上目前还很伪劣。
SEO家伙提到,语义有效的HTML比混乱的HTML可以使爬虫获得更多的分数。我一直在研究实时HTML压缩器,它将减少我们的页面大小,这是一个相当不错的块。压缩HTML是否会损害我们的网站排名?
解决方案
回答
我建议在传输层使用压缩,并从HTML中消除空格,但为了速度而又不牺牲标记的语义。实际上,"压缩"标记的效果越好,传输层压缩的效果就越差。或者,作为一种更好的方法,让gzip传输编码为HTML变薄,并倾注精力编写清晰的标记,一旦它到达浏览器,它就会快速呈现。
回答
压缩HTML不会伤害我们。
当我们说HTML压缩器时,我假设我们指的是一种从页面中删除空格等以使其更小的工具,对吗?这不会影响搜寻器如何看到html,因为当它从网站获取页面时,它可能会从HTML中剥离相同的内容。 HTML的"语义"结构是否存在,无论是否经过压缩。
我们可能还需要看一下:
- 在Web服务器中使用GZIP压缩来压缩页面
- 减少图像,CSS,JavaScript等的大小
- 考虑浏览器的布局引擎如何加载页面。
通过混乱的HTML,这个SEO人员可能意味着使用表格来布局和重新使用内置HTML元素(例如,<p class =" headerOne">标题1 </`p>)。这增加了HTML标签与页面内容的比例,或者SEO术语中的关键字密度。但是,它还有更大的问题:
- 由于要下载的内容增加,因此页面加载时间更长,为什么不使用H1标签呢?
- 屏幕阅读器很难理解并影响网站的可访问性。
- 浏览器可能需要更长的时间来呈现内容,具体取决于它们如何解析和布局具有样式的页面。
回答
我曾经将一堆乱七八糟的布局表改版为xhtml 1.0 transitional,大小从100kb变为40kb。加载的图像从200kb增至50kb。
我之所以能节省这么多钱,是因为该网站在每个页面中都嵌入了所有JS。我还重新设计了所有JS,因此对于IE6和FF2都是正确的。图像也被编译成图像图。所有技术均在A List Apart上有详细记录,并且易于实施。
回答
使用压缩不会损害页面排名。马特·卡茨(Matt Cutts)在他的"抓取缓存代理"文章中谈到了这一点。
通过调整图像大小,还可以大大缩短页面加载时间。尽管可以在img标签中使用height和width属性,但这不会更改下载到浏览器的图像的大小。在将图像放到页面上之前调整其大小可以将加载时间减少50%或者更多,具体取决于所使用图像的数量和类型。
可以改善页面加载时间的其他因素包括:
- 使用网络标准/ CSS而不是表格进行布局
- 如果我们从MS Word复制/粘贴内容,请去除Word生成的额外标签
- 将CSS和javascript放在外部文件中,而不是嵌入到页面中。当用户访问我们网站上的多个页面时提供帮助,因为浏览器通常会缓存这些文件
该网页分析器将为我们提供速度报告,其中显示了页面中不同元素的下载时间。
回答
在传输阶段使用gzip压缩来压缩HTML,然后只需确保代码有效,并且对所有内容都使用逻辑标记即可。
回答
The SEO guy mentioned that semantic, valid HTML gets more points by crawlers than jumbled messy HTML.
如果SEO家伙试图提供有关SEO的事实,请告诉他提供消息来源,因为据我所知这完全是不真实的。如果内容在那里,将对其进行爬网。 SEO分析师普遍认为,这是不正确的。
但是,建议使用标头标签。页面标题的<H1>标记和主要标题的<H2>标记,然后向下显示较低的标题。
I've been working on a real time HTML compressor that will decrease our page sizes my a pretty good chunk. Will compressing the HTML hurt us in site rankings?
如果可以毫无问题地在客户端读取它,那就很好了。如果我们想查找其中的任何一个,我建议我们引用Matt Cutt的任何东西,也可以参考以下文章。
常见问题:搜索引擎优化