SEO日记22-常见流量来源介绍

SEO人员在研究流量的时候,要充分了解网站的流量来源,下面就列出几个常见的流量来源
1.自然搜索,即为通过搜索并点击自然搜索结果访问进来的流量,也是目前SEO工作的主要内容。
2.付费搜索,点击付费进行的搜索方式,也叫竞价排名/PPC,也很多人管这个叫SEM。此类页面不被用户点击是不会产生费用,这类信息在搜索结果中排名靠前(部分关键词底部和右侧也有付费搜索),具有见效快、关键词数量无限制、关键词不分难易程度等优点。
3.直接访问,就是没有通过其他媒介,直接访问网页的流量。一般包含这几类:
(1)用户直接在浏览器地址栏输入网站地址访问
(2)用户通过浏览器收藏夹里面的网址直接点击访问
(3)用户通过点击软件(QQ、word等)里的超文本访问
4.引荐流量,用户通过其他网站访问进来,常见方式有:友情链接里、各类社交平台、部分网站里的广告等

SEO日记21-canonical标签

当出现一组内容完全相同的网页,通过使用canonical标签来告诉搜索引擎哪个页面为规范页面,能够避免网站相同内容网页的重复展示,可以避免权重分散,优化规范网页的排名。下面列举一些需要使用canonical标签的情况。
1.在网页改变或者换域名后,由于各种原因不能设置301重定向,可以使用canonical标签来标准新的页面
2.当某一个产品有多个历史版本的介绍时,可以使用canonical标签来标准最新的页面。
3.由于网站设置问题,一个页面产生了不同的URL,并且由于一些功能原因,不能对这些页面使用301重定向,那么可以使用canonical标签来进行标准。

SEO日记20-链接农场和内容农场

链接农场,即没有实际内容,通过收集网站和交换链接来提升网站权重的网站。链接农场里没有真正有价值的内容提供给用户,属于严重的作弊行为,会遭到搜索引擎的严厉打击。
内容农村,即为搜索引擎制作大量低质量内容的网站。这些内容并不是为用户提供,而是在研究搜索引擎中有搜索量的词,并且围绕这些关键词,通过采集、拼接、打乱等伪原创方式制造内容,同样属于严重的作弊行为,是搜索引擎的重点打击对象。

SEO日记19-导航优化的注意事项

网站导航的本职工作是引导用户和spider更好地浏览网站内容。不仅可以告诉用户和spider自己所在网页的位置,还可以布局整站的内链架构,控制站内权重的流动以及向spider声明站内各个页面的重要程度。
常见的导航有这几种形式:主导航、多级导航、底部导航和面包屑导航。面包屑导航在之前已经说过了,这次就说说其他三种导航。
1.主导航:主导航用于展示网站一级重要频道入口,一般是整站内容的大分类栏目,在主导航中最好不要添加过细分类或内容页面的链接。
2.多级导航:如果网站内容复杂丰富,一般会有树形的多级分类。有的网站会独立于主导航单独设置多级导航,有的网站会在主导航的基础上进行扩展。
3.底部导航:原本这些位置会提供网站介绍、联系方式等网页入库。在网站注意做SEO工作志辉,底部导航就会被添加上大量网站主推页面或者站内索引页的链接。

SEO日记18-robots.txt的具体用途

一般来说可以使用robots.txt文件来屏蔽不想被搜索引擎抓取的页面,但是这些页面都有哪些?
1.多版本URL情况下,非主显URL的其他版本。比如链接伪静态之后的动态版本,这时就可以使用robots.txt屏蔽掉这些动态链接
2.如果网站有大量交叉组合查询所生成的页面,肯定有大量的页面是没有内容的,对于没有内容的页面可以单独设置一个URL特征,然后用robots.txt进行屏蔽
3.如果网站由于某些原因突然要删除大量的页面,也可以在robots.txt文件中对这些链接进行屏蔽
4.常规的不希望被爬虫抓取的内容,比如用户信息、管理后台等隐私数据,可以使用robots.txt屏蔽。

SEO日记17-robots.txt是什么

robots.txt是什么
robots.txt文件是引导搜索引擎抓取网站内容的协议。合理地使用robots.txt可以告诉搜索引擎哪些页面可以抓取,哪些不能抓取。
要不要使用robots.txt
对于有需要屏蔽爬虫抓取内容的网站,当然是需要robots.txt文件的。但是对于希望把内容全部开放给爬虫的网站来说robots.txt就没有意义了。
有些人认为,如果允许爬虫抓取全站内容,还在服务器放置一个robots.txt文件是不是会浪费爬虫抓取次数,但其实是不论你设不设置robots.txt文件,爬虫都会频繁地抓取这个文件,以为爬虫并不会知道你以后是否会更新robots.txt文件为了遵守互联网协议,就只能频繁地抓取此文件。

SEO日记16-sitemap是什么?

sitemap是什么?
sitemap即网站地图。网站地图分为两种,一种是HTML地图,主要是提供给用户使用,一种是XML地图,主要是引导爬虫抓取。
是否需要sitemap
如果你的网站结构比较复杂,或者你有资源处于多级目录下,spider不容易抓取全站的内容,那么你可以制作XML地图来引导spider抓取。如果你的网站只是一个小型博客站点,网站结构简单,链接都可以正常抓取,那么spider很容易就能把你网站内容全部抓完,此时也就没有必要制作XML地图了。

SEO日记15-面包屑导航

面包屑导航是网站不可或缺的一种元素,对用户来说,面包屑导航可以让用户清楚的知道自己所浏览的页面处于网站中的位置,对于SEO来说,面包屑导航体现了网站的架构层级,保证了网站各级页面的权重流通导向,常见的展示方式是这种:

首页>栏目页>内容页。

如果当前页面是网站的二级域名,那么最好不要把面包屑导航的第一级设为网站的首页,而是要设置为子域名的首页。而且网站导航最好使用普通文本链接形式,这样更有助于爬虫抓取。

SEO日记14-spider和普通用户的区别

虽然绝大多数搜索引擎都表示自己的spider和普通用户访问没有太大区别,但是在长时间观察后发现并不是这样的,在此我列举一些区别,让各位了解spider和用户的区别后,可以更方便地优化自己的网站。

1.spider可以分辨出网页中是否有隐藏内容,而用户却不可以。
2.spider没有referer,对网站的抓取都是直接访问的,而普通用户除了直接访问都是有referer的。
3.用户可以识别网页中的图片和视频,而spider却不能识别
4.spider不会主动注册登录网站,但是普通用户是可以的
5.原则上spider是不会抓取robots内已经屏蔽的内容,用户是可以访问的

利用好以上这些区别,可以在不影响搜索引擎抓取和排名的前提下,为用户带来更好的浏览体验

SEO日记13-绝对路径和相对路径的优缺点

在设计网站时,有不少人会考虑用绝对路径还是相对路径,其实无论使用相对还是绝对路径,搜索引擎都是可以正常抓取。在此说一下两种路径各自的优缺点
绝对路径的优缺点:
1.如果你的文章内容被人采集,而且对方比较懒,没有去掉你文章上的链接,那么就如同给你的网站增加外链。
2.如果你的网页需要移动目录,那么就不用担心影响到网页内的链接
3.有的网站在上线之前需要进行测试,如果用的绝对链接,就会出现死链接,不利于测试
4.如果网页内的链接过多,就会增加网页体积
相对路径的优缺点刚好相反。