什么是蜘蛛池

蜘蛛池其实本质上就是站群,运用网站程序或许软件依据模板或许自定义页面完成主动生成文章内容,或许也就是一些收集后加工做伪原创的内容,以此来吸引查找引擎蜘蛛抓取,然而具有站群这样页面数量巨大的量后,查找引擎怎样抓取就会在站群中,也就构成了所谓的蜘蛛池,这也是蜘蛛池的原理。

网站在搜索引擎中是怎么样的?

网站是由很多的链接组成,每个链接对应的是一个网页,新建建立好之后,我们将网站提交给搜索引擎,搜索引擎蜘蛛来到网站后,会按照网页上的链接由上到下逐条抓取,当到首页的时候,如果有其他链接,就会进行裂变,呈树状的方式,分散到各个链接中继续爬行抓取,理论上每一条链接是可以生成无数的其他链接的,通过爬行抓取,最终搜索引擎蜘蛛会将数据带回到数据库存放,当有用户有搜索行为的时候,数据库会根据一系列排名规则来发出最适合这个答案的链接。

快收快排原则

提供优质的网页,符合用户需求的,不是大量的低质量页面,毕竟百度数据库也是有资源限度的,不可能任何页面都给你收录进去。

比如企业网站,通常包含 新闻资讯,关于我们,产品中心,公司简介,联系我们等.....每个网站在导航栏都有这些内容。站在你的角度,当你需要找一个产品的时候,你进到一个网站,最关心什么,当然是产品,我是来了解或者购买产品的,我根本不在乎有什么新闻,公司简介之类的,我也不会去看。换一个企业的角度,是不是也应该认为产品中心才是最重要的,你的目的是卖货。既然用户和企业最关心的是产品,那搜索引擎也是这么认为的,处理方法下文说。

自己打造生态蜘蛛池

新站建立之后,我们希望搜索引擎蜘蛛能高速高频次的抓取我们网站,当然是让它反复来抓取,怎么来实现?

1、提交百度站长工具

2、抓取诊断

当提交首页后,为加快收录,可以将没有收录的链接进行诊断。

3、robots设置

搜索引擎蜘蛛进入网站后抓取的第一个页面不是首页,是robots文件,文件里面的内容相当于是你的网站跟搜索引擎的一种约定,告诉它哪些页面是可以抓取,哪些是不能抓取的。

所以我们可以把那些无关紧要的页面用robots协议屏蔽掉,只抓取重要的页面。

淘宝用robots文件屏蔽了搜索引擎,所以提示。

4、投诉快照

通过投诉快照,可以让搜索引擎再次来到你的网站,24小时之内就会来,甚至马上就会,目的是反复来抓取你的网站,但是前提是你有新的内容产生。要不然,欺骗搜索引擎自然会被扣分。

生产优质内容

上面说了,企业网站产品才是最重要的,但是产品不可能天天有新品,厂家几年才出一个新品的都很多,怎么解决。

通过百度指数的人群画像,我们可以看到省份、区域、城市这几个属性,它们表示关注这个关键词最多的省份、区域、城市是哪些。有了这个方向就好办了,没有产品好办,直接找和产品最相关的需求,案例,我们可以在网站更新xxx省客户案例、xxx市客户案例。搜索引擎发现你更新的内容与用户最关心相关性非常高,同样认为是高质量页面。

做SEO其实没有想象的那么复杂,总结一句话,SEO就是发现需求到满足需求的过程。

查看原文 >>
相关文章