HTML压缩和SEO?

时间:2020-03-05 18:48:47  来源:igfitidea点击:

在工作中,我们有一位专门的SEO分析师,其工作是倾销大量数据(KeyNote /竞争等)并为执行人员生成花哨的报告,以便他们可以在自然搜索排名中了解我们如何与竞争对手竞争。他还领导了通过尽最大努力来优化我们网站上SEO排名的计划。

我们还有一个长期任务,那就是减少页面加载时间,这在某些页面上目前还很伪劣。

SEO家伙提到,语义有效的HTML比混乱的HTML可以使爬虫获得更多的分数。我一直在研究实时HTML压缩器,它将减少我们的页面大小,这是一个相当不错的块。压缩HTML是否会损害我们的网站排名?

解决方案

回答

我建议在传输层使用压缩,并从HTML中消除空格,但为了速度而又不牺牲标记的语义。实际上,"压缩"标记的效果越好,传输层压缩的效果就越差。或者,作为一种更好的方法,让gzip传输编码为HTML变薄,并倾注精力编写清晰的标记,一旦它到达浏览器,它就会快速呈现。

回答

压缩HTML不会伤害我们。

当我们说HTML压缩器时,我假设我们指的是一种从页面中删除空格等以使其更小的工具,对吗?这不会影响搜寻器如何看到html,因为当它从网站获取页面时,它可能会从HTML中剥离相同的内容。 HTML的"语义"结构是否存在,无论是否经过压缩。

我们可能还需要看一下:

  • 在Web服务器中使用GZIP压缩来压缩页面
  • 减少图像,CSS,JavaScript等的大小
  • 考虑浏览器的布局引擎如何加载页面。

通过混乱的HTML,这个SEO人员可能意味着使用表格来布局和重新使用内置HTML元素(例如,<p class =" headerOne">标题1 </`p>)。这增加了HTML标签与页面内容的比例,或者SEO术语中的关键字密度。但是,它还有更大的问题:

  • 由于要下载的内容增加,因此页面加载时间更长,为什么不使用H1标签呢?
  • 屏幕阅读器很难理解并影响网站的可访问性。
  • 浏览器可能需要更长的时间来呈现内容,具体取决于它们如何解析和布局具有样式的页面。

回答

我曾经将一堆乱七八糟的布局表改版为xhtml 1.0 transitional,大小从100kb变为40kb。加载的图像从200kb增至50kb。

我之所以能节省这么多钱,是因为该网站在每个页面中都嵌入了所有JS。我还重新设计了所有JS,因此对于IE6和FF2都是正确的。图像也被编译成图像图。所有技术均在A List Apart上有详细记录,并且易于实施。

回答

使用压缩不会损害页面排名。马特·卡茨(Matt Cutts)在他的"抓取缓存代理"文章中谈到了这一点。

通过调整图像大小,还可以大大缩短页面加载时间。尽管可以在img标签中使用height和width属性,但这不会更改下载到浏览器的图像的大小。在将图像放到页面上之前调整其大小可以将加载时间减少50%或者更多,具体取决于所使用图像的数量和类型。

可以改善页面加载时间的其他因素包括:

  • 使用网络标准/ CSS而不是表格进行布局
  • 如果我们从MS Word复制/粘贴内容,请去除Word生成的额外标签
  • 将CSS和javascript放在外部文件中,而不是嵌入到页面中。当用户访问我们网站上的多个页面时提供帮助,因为浏览器通常会缓存这些文件

该网页分析器将为我们提供速度报告,其中显示了页面中不同元素的下载时间。

回答

在传输阶段使用gzip压缩来压缩HTML,然后只需确保代码有效,并且对所有内容都使用逻辑标记即可。

回答

The SEO guy mentioned that semantic,
  valid HTML gets more points by
  crawlers than jumbled messy HTML.

如果SEO家伙试图提供有关SEO的事实,请告诉他提供消息来源,因为据我所知这完全是不真实的。如果内容在那里,将对其进行爬网。 SEO分析师普遍认为,这是不正确的。

但是,建议使用标头标签。页面标题的<H1>标记和主要标题的<H2>标记,然后向下显示较低的标题。

I've been working on a real time HTML
  compressor that will decrease our page
  sizes my a pretty good chunk. Will
  compressing the HTML hurt us in site
  rankings?

如果可以毫无问题地在客户端读取它,那就很好了。如果我们想查找其中的任何一个,我建议我们引用Matt Cutt的任何东西,也可以参考以下文章。

常见问题:搜索引擎优化