大连思耐科技有限公司,数年网站设计制作经验,深受广大客户赞誉,思耐科技希望与您合作,期待共赢。
地址:大连市甘井子区榆林街34号
手机:13889670678
电话:0411- 84687060
网址: ww.dlsnail.com
Q Q:174010637
联系人:胡先生
行业动态
2022 B2B官网SEO优化指南
发布人:管理员        发布时间:2022-10-24 22:26:12           返 回

如题,应邀写一篇关于B2B官网SEO优化文章,内容核心是围绕B2B官网常见优化内容进行总结,分上篇、中篇、下篇。这是上篇,主要围绕SEO基础能力做介绍。您若不弃,也可照猫画虎,逐一核对自家站点进行自查。

本文不一定能帮助你成为SEO大佬,但不管你是SEO老炮还是SEO新手,它在一定程度上能助你更深入了解SEO具体要做些什么,也能让其他人更清楚了解你的角色定位。

当然,也不指望你能一次性消化所有内容,毕竟有些实施项目是要调用你所储备的技术能力模块,比如:爬虫原理、前端(Div+css)、Js/Php、Python、Linux及服务器运维能力要求等。于我而言,这才是一名合格的SEO工程师该有的样子,当然,我不是唯技术论,但为什么要这么强调,因为日常工作中这直接关乎到与你相关的上下游,举个例子,突然有一天发现网站打不开,排除一些客观原因(如断网等),更多的还是需要你通过多方排查找出问题所在,“是不是服务器宕机、域名解析失效、网站是不是被打了”等等,这些细节都需要建立在有一定的技术知识储备,不能什么事情都直接扔给开发或者运维,试想你公司没有这样的人员怎么办呢,所以面对技术问题是你的常规课题,你若不具备处理能力,那至少需要具备描述问题的能力,否则你会显得很无助,用现在的话说,你会很拉垮。

诚然,文中某些细分知识点也不可能通过一篇文章就能讲透,再加上我的解读水平也有限(毕竟不是科班人士),因此只做了一个简单普适版的,具体会按照目录顺序一一详解,文中若有讲述不正确的,欢迎大家批评指正!最后,衷心希望能为大家提供不同的视角来理解这个行业和工种,有必要或者感兴趣的,可以加下方微信私聊!

飞优网主理人 Rapheal Lau

9年数字营销Adtech背景,专注B2B领域网站建设、SEO/SEM(搜索引擎营销)、数字营销体系建设与落地执行。最佳实践:官网1个月上权2,实现ROI达1000%的效果,纯白帽手法。

先看看以前负责的案子,这是一个底子比较好的企业站,接手时PV20万不到,经过10个月的时间,全年实现527758pv,翻一番。(流量虽然不是特别大,但是整体的线索精准度不错)

 

因此,我将历年来负责的优化项目进行总结,整理出一份2022年官网SEO优化必备清单,希望对大家有帮助。

文章目录上篇:SEO基础+技术SEO中篇:关键词研究+页面SEO+内容建设下篇:链接建设

附:2022年B2B官网优化落地执行清单↓↓↓

 

看到如此之冗长清单,心中不禁一颤,究竟该如何利用SEO优化指南指导日常的官网运营工作?来,走着!

SEO基础

设置站长工具

将百度/谷歌较为常用的站长工具配置在你的网站中,国内SEO优化一般是以百度为主,海外或者Google SEO可以考虑Google Webmaster Tool,也就是Google Search Console。关于安装代码可以直接百度,以Google Search Console安装举例,具体有两种方法可以安装:

Google站长工具安装为例

方法一:通过域名解析实现

 

方法二:提交网站前缀资源文件上传根目录

另一种方式验证只需要将网址协议与域名填好,在后台下载一个带有追踪参数的链接上传到网站根目录,这个最为便捷(推荐此法) 。

 

Tips:安装Google Search Console 需要搭梯子,否则不会验证成功。

百度站长工具安装图片步骤

 

点击查看更多百度站长工具安装详细教程。

其他的站长工具安装方法同理,百度和谷歌两个工具是可以相互补充使用的,这为后面进行站内优化索引量覆盖检测是有明显优势的。

以上两种站长工具安装完后需要再进一步进行百度统计+Google Analystics工具安装,步骤类似,也是需要将异步代码安装到网站首页标签之前,详细教程可以度娘一下。

集成SEO功能

假如你的网站是通过开源程序制作的,比如:wp、dede、z-blog、dzx等,那可以通过第三方插件库进行插件下载安装,以WP为例,比较好用的是Yoast SEO插件,该插件功能比较强大,常见的能修改TDK及创建相关推荐等内链结构设置。

Yoast SEO仪表盘

当然,以上是基于第三方开源程序安装的,有些企业是定制网站(区别于开源程序,委托第三方或自己的技术部门开发搭建),这种情形就需要SEO工程师与开发进行项目需求沟通,经评估后最后集成在站点里,方便SEOer在后台进行直接自定义编写,切记要开发写一个了可视化的配置页面,不要开发者直接在源码进行改写,这样是不明智的做法。

创建Robots.txt文件

3.1 何谓Robtots协议?

Robots协议是爬虫与网站之间的一种明文规则,它能告诉爬虫哪些是能够抓取访问,哪些是禁止抓取访问的,当然这是一种理想状态,但是也有极个别的爬虫不一定会遵守协议规则。

在日常SEO优化工作中如何查询一个站点有没有设置Robots.txt协议?

很简单,你只需要在目标网站上输入

https://你的域名/robots.txt

即可,你会看到如下内容:

 

Robots文件在很大程度上都不会被待见,尤其是在开发者眼里,他们觉得没什么作用,相反还会带来负面,为什么?因为容易被黑客盯上,通过禁止访问的文件夹和信息,黑客会找出程序bug攻击(尤其是开源程序,因为代码是公开的,很容易找出漏洞),这样会导致你的站点损失惨重,以上图为例,不难发现该网站是用wordpress搭建,通过Disallow信息可以看出禁止爬虫访问后台,插件目录,动态链接、astra钩子(这可能是主题下的目录)、重定向链接地址目录,假如别有用心的人看上了会根据这些提示信息一步步测试找出漏洞,最后实现攻击目的。

3.2 Robots协议有哪些好处?

首先可以告诉搜索引擎爬虫哪些页面可以抓取,哪些不可以抓取,有助于优化。

比如:一个商城网站通常会有购物车页面,实际上在SEO上毫无用途,所以可以直接告诉爬虫进行禁止访问,因此可以直接写入规则:

User-agent: *//冒号前有一个空格Disallow: /cart/ //冒号前有一个空格

3.3 Robots协议如何创建?

创建robots协议之前需要认真掌握下Robots协议语法构成及书写规则,就上述规则做个解释说明:

User-agent //代表搜索引擎类型;* //代表所有搜索引擎类别;Disallow //禁止访问指令;Allow //允许访问指令;/ //代表根目录。

举一反三,我们不妨思考下:假如我要屏蔽百度蜘蛛访问网站根目录,具体该怎么写入规则,按照上面的介绍不难写出:

User-agent: Baiduspider

Disallow: /

3.4 Robots协议的使用场景

有一种常见情形:当网站处于线上/测试阶段时,我们也可以利用robots 协议进行屏蔽告诉爬虫禁止访问网站,这样便于为做好内容准备。肯定有些“刁民”会说,不在本地测试直接在线上测试这样不会导致网站进入沙盒期吗?这种情况会有,但是我实际操作每次都是在线上,至今没遇到过,大家可以实际验证下!

点击查看关于更多百度爬虫类型拓展阅读

创建sitemap文件

4.1 Sitemap释义

Sitemap即网站地图,打个不恰当的比方,sitemap好比一条河流系统,水如同搜索引擎爬虫,河流中不乏一些支流,这些支流形成一个巨大的网络结构,支流结构就好比网页结构,各条支流就好比是网页上的具体目录和页面信息,爬虫的访问就好比水流流向各支流的行为,因此它能够有效地告诉搜索引擎关于你的站点中的网页、视频或者其他文件的相关信息,帮助搜索引擎更好的认识和理解你的站点。


城市切换: 大连微信小程序开发    大连小程序制作    大连小程序开发    营口网站制作    大连开发区网站制作   
 关闭