当前位置:首页 > 行业动态 > 机密文件:处理好网站首页被K方法~

机密文件:处理好网站首页被K方法~

2018-07-11

在搜索引擎输入高级搜索指令:site:www.soudao.com 搜索结果显示是:很抱歉,没有找到与“site:www.soudao.com” 相关的网页;或者用站长工具查询,收录那一栏显示“0”,如果是曾经被收录过的网站出现这样的情况,我们就叫做这个网站被K了。要只是首页消失,就称为网站首页被K。

到目前没有一个全能的办法来解决网站被封的问题。所以我们采用排除法来对付这个问题。查看问题出在哪里,制定相应的对策来解决它,让搜索引擎重新认识,重新收录。

一、近期网站修改记录

SEO的每一个重要方案的上线迭代时间点,都需要进行记录,作为之后对问题的排查和线索发现的依据,同时建立方案到效果的量化关系,与K站相关的常见几种问题:

1)、导致错误链接的修改

2)、影响站内结构的调整

3)、过度优化的内部链接调整

4)、TDK频繁调整

5)、JS等代码实现的桥页

6)、低质量内容大量镜像、采集和重复

二、网站日志分析

从日志中,可以发现很多的问题,分别如下:

1)、大量5xx错误,尤其500错误,说明服务器问题,导致无法提供稳定的抓取响应,需要运维介入解决;

2)、大量4xx错误,尤其404错误最常见,需要干掉站内页面中存在的死链接,屏蔽掉SE爬虫发现404页面的入口;

3)、大量301循环跳转,会导致SE爬虫陷入抓取死循环;

4)、抓取频率、抓取量降低,需要注意服务器响应时间和响应速度是否有下降作为切入点;

5)、抓取停留时间变少,尤其相对历史水平大于30%,并同时存在抓取页面收录震荡,需要改善页面质量。

三、robots.txt写法是否正确

robots.txt文件用来阻止搜索引擎蜘蛛抓取某些目录或某些文件,虽然这个功能很有用,但是很容易出错。如果你的robots.txt文件设置有问题,搜索引擎蜘蛛就没办法抓取你的网站了。正常设置和有错的设置可能差别非常微小,要多次检查,确保无误。

四、关键词大量叠加

不了解SEO的人们,往往把网站的标题写得非常长。在title标签、keywords标签、description标签里,往往堆积着大量的关键词。也有部分好像了解SEO优化的人,喜欢在网页上(一般是页脚)毫无理由得摆放良多关键词。这是网站被封非经常见的一个因素。

五、群发、群建外链

我们知道群发外链被发现的根据是,同一时间网站突然增加了大量的外链,这些外链所在的网页内容基本一致,包括锚文本链接和文章内容。群建,除了与群发一样的判定尺度外,还有一点是,往往IP段一样。博客群建假如过多,则可能被当做群发,由于有和群发类似的特征,防患于未然。一旦被K,没有解决办法。

六、外部因素

还有一些外部因素,很容易会被忽略的,如:

1)、被巨量刷某类关键词流量,有违禁词、动态页等多种,并同时伴有外链存在,通常禁止掉此类页面抓取即可 。

2)、被外部链接攻击,通常新站会遭遇,尤其存在动态页;

3)、中小站点被镜像;

4)、被挂马、注入赌博、成人、违法等页面信息,要定期检查网站安全性;

网站被降权是每一个站长不愿意看见的,只要在做网站就一定会遇到降权的事情,不管怎样网站是要做的,流量是需要靠百度的。总结自己以前做站的手法和多数同行交流,使自己的SEO手法得到提高。不要花大量时间去研究这个垃圾站天天采集,天天群发外链他怎么能靠前,而我的站正常做站为什么不靠前。我是否也要开始做垃圾站? 相信一点你的客户是卖你产品的人,而不是搜索引擎。研究怎样靠网站讨好你的访客比去研究垃圾站如何排名靠前靠谱的多。