怎么新建MySQL数据库

发布时间:2022-05-25 作者:admin
阅读:386
在这篇文章中,我们来学习一下“Python Scrapy框架的组件有哪些,工作原理是什么”的相关知识,下文有详细的讲解,易于大家学习和理解,有需要的朋友可以借鉴参考,下面就请大家跟着小编的思路一起来学习一下吧。

一.为什么使用Scrapy框架?

Scrapy是一个快速、高层次的屏幕抓取和web抓取的框架,可用于数据挖掘、监测和自动化检测,任何人都可以根据需要去进行修改。

二.Scrapy框架每个组件介绍

1.Scrapy引擎(Scrapy Engine):负责控制数据流在系统的所以组件中的流动,并在相应动作发生时触发事件。

2.调度器(Scheduler):从引擎接受reques并将其入队,便于以后请求它们提供给引擎。

3.下载器(Downloader):负责获取网页数据并且提供给引擎,然后提供给Spider。

4.Spiders: 指Scrapy用户编写用于分析response并且提取item或额外跟进的URL类人。每个Spider负责处理一些特定网站。

5.Item Pipeline:负责处理被Spider提取出来的item。典型的处理有清洁、验证及持久化

6.下载器中间件(Downloader Middlewares):指在引擎及下载器之间的特定钩子(specific hook),处理Downloader 传递给引擎的response。它提供一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

7.Spiders中间件(Spider Middlewares):指在引擎及Spider之间的特定钩子(specific hook),处理Spider 的输入(response)和输出(itemsrequests)。它提供一个简便的机制,通过插入自定义代码来扩展Scrapy功能。

三.Scrapy框架工作原理

1.引擎向spider要URL

2.引擎将要爬取的URL给调度器

3.调度器会将URL生成请求对象放入指定的队列中

4.从队列中出队一个请求

5.引擎将请求交给下载器进行处理

6.下载器发送请求获取互联网数据

7.下载器将数据返回给引擎

8.引擎将数据再次给到spiders

9.spiders通过xpath解析该数据,得到数据或URL

10.spiders将数据或URL给到引擎

11.引擎判断该数据是URL还是数据,交给管道处理,URL交给调度器处理

12.当调度器里没有任何数据之后,整个程序停止

下面是我根据工作原理画的可以结合去看:

总结



以上就是关于“Python Scrapy框架的组件有哪些,工作原理是什么”的介绍了,感谢各位的阅读,如果大家想要了解更多相关的内容,欢迎关注群英网络,小编每天都会为大家更新不同的知识。

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。

二维码-群英

长按识别二维码并关注微信

更方便到期提醒、手机管理

7*24 全天候服务

售前 400-678-4567

售后 0668-2555666

售后 400 678 4567

信息安全 0668-2555 118

域名空间 3004329145