做了好几年的SEO,给我一个感觉是,做SEO在解决网站收录上花费的时间是最多的。尤其是操作大型网站,解决收录问题来提升流量的方法在大型网站非常有效,比如:如果可以提高50%的收录量的话,那么就可以使网站搜索流量上涨几十个百分点。有些朋友会问,大型网站权重高收录应该不成问题。但是如果你看过大型网站的抓取数据你就会明白,大型网站存在的收录问题比小型网站要多得多,单从蜘蛛抓取量、抓取轨迹及其他行为来看,大型网站甚至会有很多的页面压根就没被蜘蛛抓取过,这种页面的数量级可以是上万的。解决好蜘蛛的抓取是一个基础问题,蜘蛛都抓不到页面是根本不可能收录的,这在所有类型网站中都适用。其实,解决大型网站和小型网站收录问题的方法是一样的,因为搜索引擎判断收录的规则是一视同仁的。但在讲如何提升收录量之前,我先要讲下百度和谷歌的区别,这个我在以前的文章中详细的说过,但是有必要再过一遍。百度相对于谷歌:1、蜘蛛性能较差:直观的表现就是百度收录比谷歌要低,微观的表现是蜘蛛的爬行层数(深度)、重复抓取率、速度、广度都不如谷歌。有兴趣的朋友可以自己监控下蜘蛛爬行日志的数据。2、技术实力较差:在百度,不管是服务器技术、搜索技术还是蜘蛛技术都是比较差的,可以说是4年前的谷歌。最直观的表现是,你的网站突然收录全无、排名莫名其妙下降等等,其实这些问题都是百度自己出了问题,服务器备份丢失导致收录消失,更新算法控制力较差导致殃及无辜等等。3、百度讨厌SEO:百度一直以来是一个以自身利益为首要目标的公司,换句话说谁也不能阻止他赚钱。不过近几年百度相对中立了很多,以前的百度对SEO是有偏见的,不能和谷歌一样做到与SEO互惠互利。大致上就这三点,详细的就不说了,从我的经验来看,这三点都已经被验证过了,是影响百度SEO效果最核心的三个客观要素。在这里只是提醒大家多注意。如何提升baidu、google收录?1、蜘蛛抓取:像文章开头所说,页面没有被蜘蛛发现过是根本不可能收录的,解决蜘蛛抓取问题是提升收录量的基本问题。我建议:监控蜘蛛抓取行为:数据包括:总抓取量、总访问次数、总停留时间、单个爬虫停留时间、不重复抓取量、不重复抓取率。还有404、500等错误抓取数据,这些会帮助你了解蜘蛛在爬行你的网站时遇到的困难。以上这些蜘蛛爬行数据都可以从网站日志中提取出来,最简单的方法是把网站日志放到excel2007中统计,几个筛选命令就可以得到你想要的数据。2、页面质量:页面质量是指搜索引擎判断收录页面的质量标准,不管是百度还是谷歌,官方声明中都建议网站提供原创的、独特的内容。对于这样的内容搜索引擎是非常喜欢的,而且随着时间的推移和内容的积累,会给网站相当不错的权重。那么,我们如何制作出高质量的页面呢?(百度官方泄露的文章:“搜索引擎如何判断页面价值”)①、将页面分块:页面每个板块中的内容不一定都是原创,但是从整张页面来看,整个页面的原创度要在70%左右。所以要合理布局网站页面内容。②、技术手段:通过技术手段可以解决30%-40%的原创度问题,例如:详情页中“相关文章”板块。但这里应避免相似度过高,因为这会降低原创度。③、相似度问题:现在有太多的人忽视了相似度这个问题,即便是“相关文章”也应避免所有页面的相关板块都一样不变。这就要依赖于技术手段了,对于调取逻辑关系要非常严谨。④、用户体验:不管是采集内容还是原创内容都要符合用户的需求,损害用户体验的SEO是不可取的,我们所做的一切都是为了满足客户的需求,只有这样搜索引擎才会重视你。如何监控网站整体收录数据:1、数据种类:收录这块需要拿到如下数据:网站总页面数(网站所有页面的集合)、每天整站收录量、整站收录率。2、计算收录:利用site:inurl:命令查询网站各个频道的收录量,然后把他们相加。虽然site inurl结果页不太精准,但是相比之下比直接site要好很多。况且,用site inurl命令监控的是收录的趋势,而不是绝对值。3、曲线图:最后我们要将每天的收录量形成曲线图,建立起一个长期的监控机制,看整体的收录趋势变化。最后再牢骚几句:我还是建议大家如果有能力原创内容的,还是坚持做原创的内容,因为只有原创、符合客户需求的内容才可以使网站长久稳定的发展。这些原创所需的时间、金钱是值得花费的,因为它真的可以给你带来巨大的利益。伪原创的时代已经过去了,近期百度又更新了排名算法,主要是判断页面内容质量,这次更新会自动把内容质量差、伪原创内容的网站进行降权。详细可以看这里:http://bbs.zhanzhang.baidu.com/thread-6533-1-1.html,可以看出,搜索引擎越来越看重网站内容的质量,也越来越关注用户的体验,用户不高兴不满意,搜索引擎就会生气,给你降权、惩罚也是理所当然。所以不要做不利于用户的事情,还是那句话,哪怕是采集内容,也要对用户有用,也要让用户满意。
发表回复