网络爬虫的技术概述及技术分析
浏览次数:66 分类:SEO基础
一、网页蜘蛛的定义
网页蜘蛛(又被称为网络爬虫,网络机器人)是一种按照一定的规则,自动地爬行抓取互联网信息的程序或脚本。
通俗解释:互联网类似于蜘蛛网,网络爬虫在其中不断的爬行抓取,就像是蜘蛛通过蛛网进行捕食,每当发现新的资源蜘蛛立即出动并对其进行抓取并将抓取到的内容存入数据库。
二、网络爬虫的技术概述
网络爬虫帮助搜索引擎从万维网上下载网页,是一个自动提取网页信息的程序,因此网络爬虫也是搜索引擎的重要组成部分。已知的网络爬虫分为传统爬虫和聚焦爬虫。
传统爬虫:就像蜘蛛在蛛网上爬行,网页的URL就类似于相互关联的蛛网,网页蜘蛛从一些初始网页的URL开始,获得初始网页上的URL,在爬虫抓取网页的过程中,又不断从爬取到的页面上重新抽取新的URL放入预抓取队列,如此反复,直到满足系统的停止条件,最终停止抓取。
聚焦爬虫:聚焦爬虫的工作流程较传统爬虫更为复杂,它根据网页分析算法过滤与初始抓取主题无关的URL,保留有用的链接放入预抓取队列,如此反复,直到达到系统的某一条件时停止。
三、为什么要有“蜘蛛”
随着网络的迅速发展,互联网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。作为帮助用户访问互联网的入口和指南,搜索引擎也存在着很多局限性。
1、通用搜索引擎的目标是将网络覆盖率尽可能做到最大化,因此有限的搜索引擎服务器资源与无限的网络信息资源之间产生了巨大的矛盾。
2、通用搜索引擎所返回的结果过于宽泛,其中包含大量与用户搜索目的不相关的网页。
3、互联网数据形式和网络技术的不断发展,图片、音频、视频等多种多媒体数据大量涌出,通用搜索引擎对这类信息不能很好的发现和获取。
4、通用搜索引擎基于关键字搜索,不支持根据语义查询。
以上问题的出现也促使了定向抓取相关网页资源的聚焦爬虫的出现。聚焦爬虫能够自动下载网页,它根据既定的抓取目标seo蜘蛛优化基础知识,有选择的访问互联网上的网页与相关的链接,从中收集需要的信息。与通用爬虫不同,聚焦爬虫并不追求大的覆盖seo蜘蛛优化基础知识,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。
了解搜索引擎的工作原理对于网站SEO优化起着重要的作用,很多的SEO技巧都是根据搜索引擎的工作原理而产生,因此对于搜索引擎工作原理的解读是SEO工作者的重要基本功。
您好!请登录