c
在进行网站建设的时候,我们都会想到白帽seo和黑帽seo,在这里,我们一起分析一下我们应该要怎样对待白帽seo,怎样充分的运用白帽seo来促进seo工作的正常实行,促进seo的健康发展。 搜索引擎是由爬行器通过跟踪链接漫游 Web 而建立的。白帽 SEO 的主要关注点在于提高站点在使用爬行器编辑的搜索引擎中的排名。 搜索引擎为了满足对速度苛刻的要求(现在商业的搜索引擎的查询时间单位都是微秒数量级的),所以采用缓存支持查询需求的方式,也就是说我们在查询搜索时所得到的结果并不是及时的,而是在其服务器已经缓存好了的结果。那么搜索引擎工作的大体流程是什么样子呢?我们可以理解为三段式。本文仅仅是对着三段工作流程进行大体上的讲解与综述,其中一些详细的技术细节将会用其它的文章进行单独的讲解。 网页搜集,其实就是大家常说的蜘蛛抓取网页。那么对于蜘蛛(google称之为机器人)来说,他们感兴趣的页面分为三类:蜘蛛**抓去过的新页面;蜘蛛抓去过,但页面内容有改动的页面;蜘蛛抓取过,但现在已删除了的页面。那么如何行之有效的发现这三类页面并进行抓取,就是spider程序设计的初衷与目的。那么这里就涉及到一个问题,蜘蛛抓取的起始点。 每一位站长只要你的网站没有被严重降权,那么通过网站后台的服务器,你都可以发现勤劳的蜘蛛光顾你的站点,但是你们有没有想过从编写程序的角度上来说,蜘蛛是怎么来的呢?针对于此,各方有各方的观点。有一种说法,说蜘蛛的抓取是从种子站(或叫高权重站),依照权重由高至低逐层出发的。另一种说法蜘蛛爬在URL集合中是没有明显先后顺序的,搜索引擎会根据你网站内容更新的规律,自动计算出何时是爬取你网站的较佳时机,然后进行抓取。 其实对于不同的搜索引擎,其抓取出发点定然会有所区别,在百度官方博客发布的《索引页链接补全机制的一种办法》一文中,其明确指出“spider会尽量探测网页的发布周期,以合理的频率来检查网页”,由此我们可以推断,在百度的索引库中,针对每个URL集合,其都计算出适合其的抓取时间以及一系列参数,然后对相应站点进行抓取。 那么蜘蛛如何发现新链接呢?其依靠的就是**链接。我们可以把所有的互联网看成一个有向集合的聚集体,蜘蛛由起始的URL集合A沿着网页中**链接开始不停的发现新页面。在这个过程中,每发现新的URL都会与集合A中已存的进行比对,若是新的URL,则加入集合A中,若是已在集合A中存在,则丢弃掉。蜘蛛对一个站点的遍历抓取策略分为两种,一种是深度**,另一种就是宽度**。但是如果是百度这类商业搜索引擎,其遍历策略则可能是某种更加复杂的规则,例如涉及到域名本身的权重系数、涉及到百度本身服务器矩阵分布等。 所以,我们应该要以一种正确的态度去对待白帽seo,不要太将它过于依赖,我们应该知道想要做好seo,就**要用自己的努力去奋斗,去拼搏,这样才能促进seo的发展。 该信息由凯丽隆推广*)提供,转载请注明来源谢谢!