Google 的 John Mueller 最近在 Reddit 中与搜寻排名相关的留言中提到一个有趣的观念:「排名并不是唯一目标。」其中的概念,就像是 Google 品质管理指南当中所倡导的,Google 希望提供使用者尽可能最相关的搜寻结果,因此,搜寻引擎演算法的目的是找出,与搜寻关键字最具相关性,以及最丰富、有用的内容,并立即显示在搜寻者的面前(前十名)。
基于这个想法,有人在 Reddit 上发问道:
如果我不知道 SEO 的相关技术,但我具有高品质的内容,那我的排名能够达到第一名吗?-Reddit
随后,John Muller 在下方回应:
排名并不总是目标,你的网站有办法有好的排名,但如果没有人搜寻它,那它实际上并没有什么用。因此,即便你有世界级的伟大内容,仅凭这个,并不代表你可以获得巨大的流量。同时,了解电脑也并不会改变什么。
技术上来说,你能做错的事情有限;如果页面无法被索引,那你无法做任何事情来弥补。一个被 robots.txt 封锁的页面仍然可以排到第一名,而一个页面无法被索引(或许是错误的 CMS 设定)或是无法立即透过 URL 访问的页面,是无法获得排名的。矛盾的是,使用 robots.txt 阻止 noindex 页面会使它能够被索引。当然,noindex 页面是可以从搜寻中间接获得流量的(链接页面可能会提升排名与获得流量)。
一般来说,我的建议是降低风险并使基础有良好的状态。使用现代的 CMS,无论是初学者还是非技术的人群也会使用,它会自动帮你完成。我更担心的一点是,那些对电脑有足够了解并自己建立网站的人 :-).
原文:
Ranking isn’t always the goal, your site can rank well but if nobody searches for it, that’s not really useful. From that, great content alone, even if it’s world class, does not mean you’ll get great traffic. And, understanding computers doesn’t change that part either.
Technically, there are limits in regards to what you can do wrong; if the page is unindexable, there’s nothing that can compensate. A page blocked by robots.txt can still rank first, a page with a noindex (misunderstood CMS setting, perhaps) or one that’s not immediately reachable with a URL can’t rank at all. Paradoxically (?) blocking a noindex page with robots.txt can make it indexable. And of course a noindex page can get indirect traffic from search too (a linking page might rank and drive traffic).
Usually my recommendation is to reduce risks and get the basics somewhat into a good shape. Using a modern CMS, something beginners or non technical folks would use, will do that for you automatically. The ones I worry about more are those that understand computers enough to make their own site :-).- John Muller
从 John Muller 的回答中,我们去理解一下它三段话的含义个别代表什么意思。
第一段显示了,Google 并不想让人为了「排名」作为目标,John Muller 以「如果没有人搜寻,那基本上也没用」作为範例去解释。因此,我认为我们应该反过来想,先去寻找那些「有人搜寻的内容」,甚至是「非常多人搜寻的内容」,接着再去建立所谓的「高品质的内容」,如此一来,我们之后所做的那些 SEO 才有意义。
第二段话与第三段话我认为可以合併起来一起讨论,这两段话主要讲述的就是有关你所使用的内容管理系统(CMS),他对于具有专业知识,能够自己架设网站的人有一定的担忧。我想,可能是自己架设网站的人可能会不小心误入一些盲区,导致发生了一些技术性的问题发生,影响了 SEO。而 John Muller 利用了「使用 robots.txt 阻挡 noindex 的页面会使它能够被索引」的奇怪现象来举例。因此,他也才会建议使用一般人都会使用的现代 CMS(像是 WordPress)来建立网站。
综合以上,「获得排名」并不能放在首要的顺序,依据重要性,依序应该以:
- 寻找关键字(热门搜寻的内容)
- 创造优质的内容(对使用者有益处)
- 使用现代 CMS(能自动配置最佳的环境)
希望以上能够带给大家多一点的思考,对于 Google 搜寻演算法不断改变的情况下,打好基础是最不起眼但,也是最重要的一环。