SEO迷信:标签真的不好吗?
我们办公室里有一个SEO团队,他们的格言之一是,与HTML内联的<script>块很多,这显然是不好的。作为一个对我完全没有意义的开发人员。当然,作为地球上最聪明的人的Google搜索工程师知道如何跳过此类障碍?
我的直觉是,最小化脚本块是来自搜索引擎优化早期的一种迷信,而在当今世界,它毫无意义。有人对此有见识吗?
根据我们的SEO专家,脚本块(尤其是内嵌脚本或者实际内容之前出现的脚本块)非常非常糟糕,使Google机器人在处理实际内容之前就放弃了。对我来说似乎很牛,但是我想看看别人怎么说。
解决方案
回答
我不知道这方面的SEO方面(因为我永远都无法从真实交易中看出曼波果酱)。但是正如道格拉斯·克罗克福德(Douglas Crockford)在他的一个javascript网络广播中指出的那样,浏览器始终在每个元素处停止解析脚本。因此,如果可能的话,我宁愿提供整个文档并尽可能地使用脚本来增强页面。
就像是
<head> --stylesheets-- </head> <body> Lorem ipsum dolor ... ... <script src="theFancyStuff.js"></script> </body>
回答
自从我玩过阅读Google的茶叶游戏以来已经有很多年了,但是SEO专家可能会这样说是有一些原因的
- 三,四年前,有一种传统的看法,那就是搜索引擎算法可以赋予页面上较早出现的搜索词更多的权重。如果页面A和页面B上的所有其他条件均相等,则如果页面A在HTML文件中比页面B提早提及窗口小部件,则页面A"获胜"。并不是说Google的工程师和博士员工无法跳过障碍,而是因为他们发现了一个有价值的指标。考虑到这一点,很容易看出,除非被文档的头部"需要"(请参阅下面的#2),否则被SEO迷恋的人会想要它。
- 不提供快速修复的SEO人士倾向于精心设计,验证/符合HTML / XHTML结构的人。内联Javascript,尤其是那种对网络无知的软件工程师倾向于青睐的类,使这些人(我是其中之一)看到了。对脚本标签本身的偏见也可能来自Yahoo和其他人在优化Ajax应用程序方面所做的一些工作(除非必须这样做,否则不要让浏览器解析Javascript)。不一定与SEO直接相关,但是白帽子SEO类型的最佳实践已被采用。
- 我们也有可能彼此误解。由Javascript生成的内容在SEO世界中被认为是有争议的。并不是说Google无法"看到"该内容,而是人们不确定它的存在如何对页面进行排名,因为许多黑帽SEO游戏都围绕用Javascript隐藏和显示内容。
SEO充其量是克里姆林宫学科,更糟的是黑帽很久以前赢得的领域。我的免费主动建议是不要参与SEO游戏,向经理提供估算值,以便执行与SEO相关的更改将花费多长时间,然后再进行估算。
回答
我在一些地方读到过,Google的Spider只索引页面的前100KB。页面顶部20KB的JS表示20KB的内容稍后在Google上看不到,依此类推。
请注意,我不知道这个事实是否仍然正确,但是将其与在SEO论坛的黑暗弱点中发现的其他迷信/谣言/彻头彻尾的骗术相结合时,它开始产生一种奇怪的感觉。
除此之外,内联JS就表示,内容和行为的分离而言是一件坏事,正如其他答案中提到的那样。
回答
避免使用内联/内部Java脚本有多种原因:
- HTML用于结构,而不用于行为或者样式。出于同样的原因,我们不应将CSS直接放入HTML元素中,也不应将JS放入。
- 如果客户不支持JS,那么我们会遇到很多麻烦。浪费带宽。
- 外部JS文件被缓存。这样可以节省一些带宽。
- 我们将拥有一个简化的javascript。这导致代码重复以及随之而来的所有已知问题。
回答
SEO专家稍微有点偏离目标,但我了解担忧。这与这种做法是否正确无关,或者与Google是否看待一定数量的脚本标签无关,但与页面权重有关。 Google停止缓存(我认为)为150KB之后。页面包含的内联脚本越多,由于这些脚本增加了过多的权重,因此无法为重要内容建立索引的机会就越大。
回答
我花了一些时间在搜索引擎(不是Google)上工作,但是从SEO角度来看,我从来没有做过很多事情。
无论如何,这是Google可以合理使用的一些惩罚页面的因素,应该通过添加大块的JavaScript内联代码来增加这些因素。
- 整体页面大小。
- 页面下载时间(页面大小和下载速度的混合)。
- 搜索字词在页面中出现的时间有多早(可能会忽略脚本标签,但这需要更多的处理)。
带有很多内联javascript的脚本标签可能会被认为本身是错误的。如果用户经常从网站上加载很多页面,那么如果脚本位于单个共享文件中,他们会发现它的速度要快得多。