什么是网络爬虫
终于有人讲明白了01 什么是网络爬虫随着大数据时代的来临,网络爬虫在互联网中的地位将越来越重要
互联网中的数据是海量的,如何自动高效地获取互联网中我们感兴趣的信息并为我们所用是一个重要的问题,而爬虫技术就是为了解决这些问题而生的
我们感兴趣的信息分为不同的类型:如果只是做搜索引擎,那么感兴趣的信息就是互联网中尽可能多的高质量网页;如果要获取某一垂直领域的数据或者有明确的检索需求,那么感兴趣的信息就是根据我们的检索和需求所定位的这些信息,此时,需要过滤掉一些无用信息
前者我们称为通用网络爬虫,后者我们称为聚焦网络爬虫
初识网络爬虫网络爬虫又称网络蜘蛛、网络蚂蚁、网络机器人等,可以自动化浏览网络中的信息,当然浏览信息的时候需要按照我们制定的规则进行,这些规则我们称之为网络爬虫算法
使用Python 可以很方便地编写出爬虫程序,进行互联网信息的自动化检索
搜索引擎离不开爬虫,比如百度搜索引擎的爬虫叫作百度蜘蛛(Baiduspider)
百度蜘蛛每天会在海量的互联网信息中进行爬取,爬取优质信息并收录,当用户在百度搜索引擎上检索对应关键词时,百度将对关键词进行分析处理,从收录的网页中找出相关网页,按照一定的排名规则进行排序并将结果展现给用户
在这个过程中,百度蜘蛛起到了至关重要的作用
那么,如何覆盖互联网中更多的优质网页
又如何筛选这些重复的页面
这些都是由百度蜘蛛爬虫的算法决定的
采用不同的算法,爬虫的运行效率会不同,爬取结果也会有所差异
所以,我们在研究爬虫的时候,不仅要了解爬虫如何实现,还需要知道一些常见爬虫的算法,如果有必要,我们还需要自己去制定相应的算法,在此,我们仅需要对爬虫的概念有一个基本的了解
除了百度搜索引擎离不开爬虫以外,其他搜索引擎也离不开爬虫,它们也拥有自己的爬虫
比如 360 的爬虫叫 360Spider,搜狗的爬虫叫