日常网站seo优化过程中,我们首先考虑的是什么?可能很多站长和seo工程师会先考虑如何优化网站的TDK,也就是标签、描述、关键词这三项,然后再针对性的进行外链和内链的相关优化。认为做好这些,把页面做的漂亮,然后有效的增加优质内容,便可以提高收录。
这些seo基本的常识确实没错,然而在重视网站TDK属性、内外链、优质内容的同时,我们也往往会忽略一些平时很难直接注意到的要素,从而导致网站明明看起来做的不错,但是收录效果却不理想。那么问题究竟出在哪里呢?今天在这里,笔者要跟大家分享的是网站页面长度过长导致的不收录的反面案例。
网站页面代码长度对收录的影响
此前在百度站长平台的站长学院中,百度官方的工程师分享了这样一个案例,一个网站主题内容由js生成,没有对用户访问做优化,但是对搜索引擎爬虫做了很多有针对性的优化,表面看起来十分完美,但是却没有被百度收录。
究其原因发现,这个网站将图片二进制内容直接放到了html中,导致页面长度过长,从而没有被百度收录。可能很多站长看了这个案例会纳闷,做了好多年网站,还从没遇到这样的案例。难道页面长度也是影响网站收录的重要因素吗。
分析这个问题,首先我们要了解什么是网站页面长度。这里所谓的页面长度并非直观意义上浏览网站页面所看到的长度。而是指的页面代码长度。一般的网站,都会将图片的链接或者路径直接加到html代码中,对页面长度没有太大影响,而这个网站的案例并不多见,它直接将图片的二进制内容放到html代码中,也就是直接使用了base64编码,才导致了网站不收录的情况。
百度站长平台给出的分析原因:
1、网站针对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,网站页面长度达164k;
2、 站点优化后将主体内容放于后,图片却放于前面;
3、爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,终导致页面被认定为空短而不收录。
工程师建议:
1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取
2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长
3、针对爬虫爬取做优化,请将主体内容放于前方,避免抓取截断造成的内容抓取不全
其实这个问题,一般网站都不会出现,只是极少数网站会采用如此不合理的页面优化方式。不过也给广大网站提了个醒,在平时优化网站时,页面长度也是衡量一个页面质量能否被收录的主要因素之一。