后面咱们曾经我理解过搜索引擎的工作原理,晓得了搜索引擎会依据算法对收录的网站进行排序,而影响算法排序的因素又是非常复杂的。
本章,咱们就将为读者揭秘:一次残缺的 SEO 的流程到底是怎么的?
前排预报:本期内容与下一期内容都是硬核干货,肯定要认真哦!
话不多说,点赞上车,让咱们当初开始!
一次 SEO 流程大抵能够分成这样 5 个阶段:
收录
还记得上一章咱们提到的“图书馆”的例子吗?网站的收录就是图书馆图书入库的过程。
要确保你的网站被收录,就要留神网站的用户体验、内容品质、标签内容(比方:页面题目、形容、关键字等)、点击量等一系列因素。
须要阐明的是:搜索引擎可不只会收录一个页面。收录页面的数量和品质越高,网站在搜索引擎中获取流量的机会越大!
当然,除了期待被收录,你还能够被动给搜索引擎提交链接以揭示爬虫爬取网页,缩小爬取工夫:
● 百度:https://ziyuan.baidu.com/linksubmit/index
● 必应:https://www.bing.com/webmaster/submiturl
● 谷歌:https://www.google.com/webmasters/tools/submit-url
然而,这并不一定会立刻减少网站的收录。搜索引擎会依据网站的品质和相关性来决定是否收录它们,而不仅仅是因为你提交了链接。
此外,在收录阶段你还要理解「robots.txt」文件。
这是一个文本文件,位于网站的根目录下,用于通知搜索引擎哪些页面能够被爬取,哪些页面不应该被爬取。
当网络爬虫拜访一个网站时,它会首先查找该网站的 robots.txt 文件。如果找到了这个文件,爬虫会依据文件中的规定来决定哪些页面能够被抓取,哪些页面应该被疏忽。
以下是一个示例 robots.txt 文件的示例:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/
其中,User-agent 示意所有的爬虫都要恪守上面的规定;Disallow 批示爬虫不应该拜访的页面。在下面这个示例中,爬虫不应该拜访 /cgi-bin/、/tmp/ 和 /private/ 目录下的页面。
须要留神的是,robots.txt 文件并不是一种平安机制,也不能保障所有的爬虫都会恪守其中的规定。一些歹意的爬虫或者搜索引擎可能会疏忽 robots.txt 文件中的指令,因而在爱护网站时,还须要采取其余的措施。
同时,你也能够利用 robots.txt 文件给搜索引擎的爬虫程序做指引。
首先,你须要制作一个 sitemap 文件,有很多在线工具或者插件能够间接生成,十分不便;生成的 sitemap 文件要上传到网站的根目录下,并在 robots.txt 文件中增加一个指向 sitemap 文件的链接,以便搜索引擎能够找到它,代码大抵如下:
User-agent: *
Disallow:XXX
Sitemap: http://www.example.com/sitemap.xml
最初还要阐明的一点是:SEO 优化人员要定期检查 robots.txt 文件是否依然无效,因为当网站的构造或内容有较大更新和变动后,局部网页的爬取规定可能会存在变动,甚至间接影响到 robots.txt 文件的有效性。
排名
无关排名的影响因素,咱们在上一章中曾经聊过,在此不做过多赘述,读者能够「点击链接」跳转查看。
流量
流量是掂量网站受欢迎水平的重要指标之一。而流量的前提,已收录的页面中在整体搜寻后果中的展示状况,这也间接体现了 SEO 的优化程度。
转化
获取流量后的下一个动作就是转化客户,也就是将网站的访问者转化为实现某个预期口头的用户,例如填写表格、购买产品、注册会员等等。
换句话说,转化是指将潜在客户转化为理论客户的过程,而是否实现客户转化则与网站的用户体验非亲非故,这也是近几年 SEO 工作的重心。
1~4 循环
经验了 1~4 的步骤,如果你胜利实现了转化客户的指标,阐明你的 SEO 策略是可行的、胜利的。接下来,你只须要将这几个步骤周而复始,并且一直迭代优化,就能够为你的业务带来源源不断的收益。
当然,一个大前提是:你到底该如何让本人的网站飙到搜寻后果的前排去?
下期预报
下一期,咱们将教你:如何用正确的伎俩,打造出一个会让搜索引擎“爱不释手”的网站?敬请期待!