scrapy运行流程解析

scrapy运行流程解析

首先要明白这些英文单词的含义:

Scrapy Engine
引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。 详细内容查看下面的数据流(Data Flow)部分。

调度器(Scheduler)
调度器从引擎接受request并将他们入队,以便之后引擎请求他们时提供给引擎。(其实就是存储request请求的队列)

下载器(Downloader)
下载器负责获取页面数据并提供给引擎,而后提供给spider。

Spiders
Spider是Scrapy用户编写用于分析response并提取item(即获取到的item)或额外跟进的URL的类。 每个spider负责处理一个特定(或一些)网站。 更多内容请看 Spiders 。

Item Pipeline
Item Pipeline负责处理被spider提取出来的item。典型的处理有清理、 验证及持久化(例如存取到数据库中)。 更多内容查看 Item Pipeline 。

下载器中间件(Downloader middlewares)
下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 下载器中间件(Downloader Middleware) 。

Spider中间件(Spider middlewares)
Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider中间件(Middleware) 。

大体流程是这样的:

1.首先引擎Engine获取一个spider中的request请求

2.引擎Engine将请求送给调度器Scheduler,调度器现在队列中存放了这些一个spider中的request请求

3.然后引擎向调度器Scheduler请求一个request,Scheduler给它。

4&5.引擎Engine拿到了一个request请求第一件事就是发送给下载器Downloader,他可以在下载资源之前对request请求进行修改(Downloader middlerware),也可以在获取资源之后对其进行处理后返回。其实就是一个对request发送之前可以进行修改,也可以在获取资源之后进行修改再返回的一个中间件。

6.将resonpse再发给spider用于解析信息

7.解析完成之后再给引擎Engine

8.解析出实体(Item)则交给实体管道(Item-pipelines)进行进一步的处理。如果解析的是Request请求,则交给Scheduler入队,等待抓取。