scrapy部署多个爬虫项目

首先上图:(因为工作原因,项目名需要打码)

《scrapy部署多个爬虫项目》

由于各方面原因,需要将多个爬虫部署在一起,scrapy可以很好的解决这个问题。

接下来,开始无脑CV大法做实验:

1:创建一个scrapy程序:scraps startproject MySpides

2.疯狂创建项目: scrapy genspider BaiduBaidu.com 

scrapy genspider taobaotaobao.com

scrapy genspider jianshujianshu.com

… …

3.配置问题:

面对每一个爬虫,配置也不一样,这时候,该怎么办?没错! 看到custom_settings.py文件了吗?就是这个,我将每个爬虫单独的配置放在里面了.对于settings.py我将公共配置(例如延迟,U-A等等)放在里面。

《scrapy部署多个爬虫项目》

4.启动配置:

在scrapy中提供了一个custom_settings 关键字,可以在爬虫项目中使用其指向该项目的配置.

custom_settings =custom_settings_for_baidu

将这句话添加作为项目的类函数就好

《scrapy部署多个爬虫项目》

5.怎么可能还有5呢?结束了!躁起来!

喜欢的话就点个赞吧!

    原文作者:醋溜八酱
    原文地址: https://www.jianshu.com/p/39f9c5bffbd1
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞