• 百度优化为什么更喜欢抄的文章

    2015-10-13

    自己写的就一定会被搜索引擎认为这是一篇原创文章,并不是网站有文章网站优化。因为其中还有很多技术方面的问题,搜索引擎还未能解决。记得我曾经在一个网站每天更新一篇文章,一篇文章的字数只有100字左右,但是文章页面非常简单,简单到整个页面没有JSCSSHTML代码,只有文字,但收录却非常好,而有一些网站,用JSCSShtml代码把网站修饰的非常漂亮,但是发布的文章却不收录,这让我开始觉得代码与原创度有直接关系。

    200KB算是很大了博客只有30KB左右,忘记了哪里看到过这样的一句话“搜索引擎只能识别200KB以内的内容”对于一个网页而言。所以我博客在搜索引擎中抓取是完全没有压力,如果你网站有超过200KB觉得你应该要优化了

    来看看,这和网站的文件大小有什么关系呢?好。搜索引擎在抓取一个页面的流程是从头到底,任何一个页面都有一个共同点,那就是头部一样、底部一样,唯一不一样的就是文章内容,那么搜索引擎在抓取头部有10KB左右是一模一样的中部文字的时候只有2KB不一样的而底部又有10KB一模一样的那么还会认为这是原创文章吗?

    那就是搜索引擎是不认识字的只有把这个汉字放到数据库去对比,这里还得给大家灌输一个理念。当一对比一个新文章页面的时候,总共22KB页面,居然有20KB一模一样,就算是写了原创文章,也会被列入到伪原创的列表中去。

    对原创文章的判断得出了这样的一个理论,经过我3年的SEO优化加测试网站优化。当一个页面比较大的时候,一个页面的不同点至少占页面的1/3那么写多少文字呢,比方你页面有10KB那么至少的写3KB文字,剩下的7KB相同,这些才不容易被列入到伪原创的列表中。当然,这是个人得出的理论,并没有完全的证据和理论来证明。