当前位置:博客首页>>关于SEO >> 阅读正文

网站内容收录不佳的六大原因探究

作者: 郑晓 分类: 关于SEO 发布于: 2012-08-21 23:13 浏览:5,242 没有评论


经常会有做SEO的朋友会问,自己的网站优化了那么长时间,但是网站的内页一直收录不佳,是什么原因呢?
我感觉对于这个问题,应该是草根站长们的一大难题,一般收录率达到70%以上算是优质站点,大多数网站收录率仅仅只有一半左右,如何提高内页收录率成为关键性难题。
本博在此共分析了六种导致内页不被收录的原因,下面与各位朋友探究一下这几大原因及解决办法。

一,网站内容涉嫌抄袭、伪原创

这应该是最须要注意的一点,搜索引擎对伪原创甚至抄袭一直是嗤之以鼻的,蜘蛛索引时通过对比数据库计算相似度,若是超过比例上限则会考虑放弃收录。从最近两月的数据上看,百度加大了对抄袭站的打击力度并声明日后会持续“净化”。但不可否认伪原创对收录量提升的作用,因此建议各位站长保持合适比例的原创,鱼龙混珠进而快速提高收录量。

二,网站内页的权重太低

网站内页权重未达到搜索引擎的索引标准,自然会被判定为无意义页面而放弃索引。通常安排四层结构为上限,层次过深容易导致权重分配不足而难以收录。通过增加内页外链以及首页直链能有效提高内页权重,进而带动深层页面的收录。

三,网站内容有涉及到敏感词汇的内容。

若是内容涉及法律敏感词汇,页面将不会被收录。通过百度搜索部分敏感词汇可以发现搜索结果皆为知名站点,原因在于知名站点可信度较高,百度作为搜索服务商可以降低可能由此产生的法律纠纷。若是内容无法避免提及敏感词汇,可以采用同义词近义词或是错别字的方法刻意躲避该收录陷阱。

四,网站打不开,内部程序出错等。

由于页面存在死链接或代码出错也可能导致不收录现象,建议收录量过低的站长朋友们仔细检查站内是否存在内部程序错误。

五,网站服务器、空间不稳定、速度慢等。

网站空间不稳定会导致不少问题,可以试想蜘蛛在爬行某网站时多次碰壁会有何种印象。一个稳定快速的网站空间是所有站点健康成长的基石。

六,内页的内容、文章质量不行。

对比抄袭或伪原创,即使是原创但内容质量过低也是一大弊端,如恶意堆叠关键词或是锚文本链接质量过低数量过多等。在此笔者要驳斥一下所谓“文采差”“可读性低”引起不收录的说法,通过长期的观察笔者发现不少站点即使内容页语句不畅不知所云,甚至全文乱码也能被收录并获得优异的排名,对此笔者在自己博客内有作过大量测试,有兴趣的朋友可以观察研究。

要解决问题首先要知道问题原因,根据上面的几种情况,多去分析一下自己的网站,看看问题到底出在哪里?本博在这里坚信一点:当你把每一个内页都当做首页一样重视时,收录不会再成为难题。只有收录量提升才能争夺更多排名更多流量,针对内页的不收录问题值得我们更多的反思和探索。

       

本文采用知识共享署名-非商业性使用 3.0 中国大陆许可协议进行许可,转载时请注明出处及相应链接。

本文永久链接: https://www.zh30.com/six-reasons-for-website-content-included-poor.html

发表评论

change vcode