Scrapy抓取壁纸图片

1 安装Scrapy

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

本文编写一个简单的Python 爬虫用于抓取http://desk.zol.com.cn/的部分壁纸。

开发环境是mac OS ,python 版本是2.7.

step1 需要先安装python 的虚拟环境。virtualenv可以搭建虚拟且独立的python环境,可以使每个项目环境与其他项目独立开来,保持环境的干净,解决包冲突问题。

  pip install virtualenv

创建一个虚拟且独立空间。env 是虚拟环境的名称

virtualenv env

启动虚拟环境(就是运行 目录env/bin 下的activate 文件)

. env/bin/activate

step2 安装Scrapy。

pip install Scrapy

安装Python 图形处理库,下载图片时需要使用到这个库。

pip install Pillow

step3 创建项目 ,download 是项目名称。

scrapy startproject download

2 编写爬虫

  1. 定义抓取的Item。第一步是定义我们需要爬取的数据结构。

    items.py

    import scrapy   
    class DownloadItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        image_urls = scrapy.Field() //图片的网址
        images = scrapy.Field() //图片信息 scrapy 自动获取的
        images_page_url = scrapy.Field()
        images_catalog = scrapy.Field() //图片的存放目录
    
  2. 编写网络爬虫。在spiders目录下新建一个文件dmoz_spider.py,用于编写爬虫逻辑。我使用Chrome浏览器的开发者工具对网站的结构进行分析,使用scrapy 选择器提取响应的信息。

    #!/usr/bin/env python
    # -*- coding: utf-8 -*-
        
    import scrapy
    from download.items import DownloadItem
        
    class DmozSpider(scrapy.Spider):
        name = "download"
        allowed_domains = ["zol.com.cn"]
        start_urls = [
            "http://desk.zol.com.cn/"
        ]
        
        def parse(self, response):
            #连接到图片内容页面
            for sel in response.xpath('//a[@class="pic"]'):
                shortUrl = sel.xpath('@href').extract()[0]
                url = response.urljoin(shortUrl)
                yield scrapy.Request(url, callback=self.parse_article) #连接到内容页的调用,在回调函数处理。
                
            #连接到图片内容页面
            for sel in response.xpath('//a[@class="title"]'):
                shortUrl = sel.xpath('@href').extract()[0]
                url = response.urljoin(shortUrl)
                yield scrapy.Request(url, callback=self.parse_article)
        
        #真正下载图片的处理函数
        def parse_article(self, response):
            item = DownloadItem()
            bigImgUrl = response.xpath('//img[@id="bigImg"]/@src').extract() #获取图片的URL
            
            item['image_urls'] = bigImgUrl
            item['images_page_url'] = response.url
            url = response.url
            catalog = url.split('_')[-3]
            catalog = catalog.split('/')[-1]
            item['images_catalog'] = catalog #获取图片的目录 用于存放图片
            yield item
        
            nextPageUrl = response.xpath('//a[@id="pageNext"]/@href').extract()[0] #下一页
            
            if nextPageUrl.index('.html') >= 0:
                url = response.urljoin(nextPageUrl);
                yield scrapy.Request(url, callback=self.parse_article)
    
    

3 保存图片

  1. 图片的保存需要用到Scrapy 的图片处理Pipe。在setting.py中设置。先使用scrapy.pipelines.images.ImagesPipeline保存图片,再使用自己编写的 download.pipelines.DownloadPipeline对图片分类处理。

    在setting.py 中设置。

     BOT_NAME = 'download'
     
     SPIDER_MODULES = ['download.spiders']
     NEWSPIDER_MODULE = 'download.spiders'
     
     #同时使用图片和文件管道
     ITEM_PIPELINES = {
                       'scrapy.pipelines.images.ImagesPipeline': 1,
                       'download.pipelines.DownloadPipeline':2,
                       }
     IMAGES_STORE = '/Users/superzhan/Documents/project/python/Scrapy/download/' # 图片存储路径
    
  2. 爬虫抓去到的数据需要通过pipelines 来分类保存。在pipelines.py 中对下载到的图片进行分类保存。

    # -*- coding: utf-8 -*-
     
     import os
     import shutil
     
     class DownloadPipeline(object):
     
         #move file
         def process_item(self, item, spider):
             curPath = '/Users/superzhan/Documents/Project/python/Scrapy/download/'
             
             #分类后的图片目录
             targetPath ='/Users/superzhan/Documents/Project/python/Scrapy/download/Img/'
     
              #创建分类目录
             catalog = item['images_catalog']
             targetCatalog = os.path.join(targetPath,catalog)
             if False == os.path.exists(targetCatalog):
                 os.mkdir(targetCatalog)
             
             images_path= item['images'][0]['path']
             full_image_path = os.path.join(curPath,images_path)
             target_image_path = os.path.join(targetCatalog,full_image_path.split('/')[-1])
             
             #分类
             shutil.move(full_image_path,target_image_path)
     
             return item
    
  1. 最后切换到项目的根目录,执行

    scrapy crawl download -o items.json
    

    开始抓取图片。

4 代码下载

百度网盘https://pan.baidu.com/s/1nv32Y6l

实际使用时需要修改setting.py和pipelines.py的下载路径。

5 参考资料

  1. 官方文档 http://scrapy-chs.readthedocs.io/zh_CN/0.24/index.html
  2. Scrapy笔记系列 http://www.pycoding.com/2016/03/08/scrapy-01.html
    原文作者:superzhan
    原文地址: https://www.jianshu.com/p/d4f60814fd1f
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞