了解搜索引擎收录机制,才能做好seo优化
来源:Eidea浏览次数:4406
蜘蛛对于网站的抓取频率受网站更新周期影响,若网站定期定量更新,那么蜘蛛会规律进入网站中进行爬行和抓取,什么叫规律更新:即按照一定的规律在网站内更新文章,例如:一天一篇或一天两篇,很多人不知道更新几篇为好,建议:按照网站内部的栏目数量来更新文章的数量为佳。
蜘蛛每次爬行都会把页面数据存储起来,如果第二次爬行发现页面与前一次收录的完全一样,说明页面没有更新,多次抓取后蜘蛛后蜘蛛会对页面更新频率有所了解,不经常更新的页面,蜘蛛也就没有必要经常抓取,如果页面内容经常更新,蜘蛛就会更加频繁的访问这种页面,页面上出现的新连接,也自然会被蜘蛛快速的抓取,因此,在优化网站是,应该定期定量的更新内容,增加网站被抓取的频率。
搜索引擎蜘蛛抓取的页面存入原始数据库中,搜索引擎会对原始数据库中的页面进行相应的处理即常说的预处理。
预处理:蜘蛛抓取的原始页面并不能直接用于排名,需要对其进行一定的处理,这个处理的过程称为预处理。搜索引擎预处理 环节是在后台提前完成的,用户搜索时感觉不到这个过程,搜索引擎预处理,涉及到网站优化中的多个环节,因此,掌握搜索引擎预处理的原理,可以快速的理解网站优化的各个因素。
搜索引擎预处理一共分为六步骤
1. 提取文字:搜索引擎以文字内容为基础,从网页文件中去除标签、程序,剔除可以用于排名的网页文字内容,同时在优化网站时,页面内容尽量以文字为主,方便蜘蛛提取用于排名的内容
2. 中文分词:搜索引擎将抓取到的页面中的文字提取出来后,需要对提取出来的文字进行拆分重组,这个过程称为中文分词。现在的搜索引擎检索标题时也用上了中文分词算法,所以取一个好的标题尤为重要(中文分词算法后面会有会有详细的举例说明)
3. 去除重复页面:将分词后的页面进行对比,去除重复的页面,同一片文章经常会重复出现不同网站及同一个网站的不同网址上,搜索引擎并不喜欢重复的也难内容,用户搜索时,如果在搜索引擎结果页排名靠前的位置看到的都是来自不同网站但都是同一篇文章,用户体验会很差,搜索引擎是很在乎用户体验的,对于搜索引擎而言,更倾向于高质量的文章内容
4. 计算网页的重要度:搜索引擎会根据网页的被指向链接数及页面的原创性两个因素综合判断,计算出页面的重要程度,所以提供高质量的原创文章给搜索引擎,网页的重要程度与页面得分会越高,那么网页的排名就越高,网站的权重也会随之增长
5. 建立索引:建立索引,是建立关键词与网页之间的对应关系,其好处在于能快速的获取对应的数据,简单来说,依靠的就是提前对页面建立了索引
6. 分析链接:链接关系是预处理中很重要的一步,主流搜索引擎排名因为都包含网页之间的链接信息,需要计算出页面上有哪些链接指向哪些其他页面,形成了网站和页面的链接权重,链接式用来传递权重的。
相关seo研究资讯推荐
- 百度竞价与SEO推广的区别2019-04-21
- 更新网站内容的注意事项2019-05-09
- 淘宝SEO优化常见误区2019-01-13
- seo真的越来越难做了吗?2019-02-19
- 浅谈SEO中的蜘蛛池作用的利与弊2018-10-30
- 文章关键词排名具体怎么优化?2018-10-08