Scrapy爬取网易云音乐和评论(三、爬取歌手)

目录:

1、Scrapy爬取网易云音乐和评论(一、思路分析)
2、Scrapy爬取网易云音乐和评论(二、Scrapy框架每个模块的作用)
3、Scrapy爬取网易云音乐和评论(三、爬取歌手)
4、Scrapy爬取网易云音乐和评论(四、关于API)
5、Scrapy爬取网易云音乐和评论(五、评论)

前面有提到,spiders目录下的文件最好不要取和项目相同的名字,如果取了也没关系,有办法,在导入模块的最前面加上这句:

from __future__ import absolute_import

因为参考的文章太多了,我也找不到出处的链接了抱歉。

一、导入:

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 import

仍然提醒,要记得导入items的那几个模块、

二、最基本的代码结构是这样的:

class WangYiYunCrawl(scrapy.Spider):
    name = 'WangYiYun'
    allowed_domains = ['music.163.com']
    # start_urls = 'http://music.163.com/discover/artist/cat?id={gid}&initial={initial}'
    group_ids = (1001, 1002, 1003, 2001, 2002, 2003, 6001, 6002, 6003, 7001, 7002, 7003, 4001, 4002, 4003)
    initials = [i for i in range(65,91)] + [0]
    headers = {
            "Referer":"http://music.163.com",
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3067.6 Safari/537.36",
        }

    def start_requests(self):
        pass

   def parse(self,response):
        pass

最前面的那一大段前面都有说过,就不再提,这里的headers是自己写的,所以后面会调用到self.headers,只在settings.py文件里配置的这里可以省略,后面也不用用。

还剩allowed_domains。

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 http://cuiqingcai.com/3472.html

首先讲一下我之前一直困惑的地方:start_urls 和start_requests()可以同时存在,也可以只要一个即可。
如果你写的是start_urls,那start_requests()这个函数可以省掉,直接在parse里对它进行处理,parse这个函数,就是爬虫的主程序,平常怎么写就怎么写。

然后这个response,我们先来看代码:

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 start_requests()和parse()

start_requests()这个函数在返回的时候,(对了,这个scrapy里返回用的都不是return,而是yield,迭代的意思),使用Request,可以看到它大多是和requests这个库很像,它的作用也是一样,返回是一个response,它特别的在于它最后一个参数,callback的值接的是回调函数,即你要把返回的response作为参数传递给哪个函数,这个函数后面不需要括号,所以一开始我也没搞懂它是个什么。

另外,这里调用headers是因为我将headers定义在了这个class里,如果是定义在settings.py里,这里可省略。
之后的函数都是这样,如果你要将什么参数穿到下一个函数,都可以用这个,而在回调函数里必须传入这个response参数。

关于parse函数:

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 来自http://cuiqingcai.com/3472.html

parse这个函数的名称无所谓,但是最好带上parse(许多scrapy类型的文章都这么用,一眼看上去就知道是什么),并且保证传递的回调函数参数和这个函数名称一致即可。

三、parse函数

1、默认情况,scrapy推荐使用Xpath,因为response这个对象可以直接使用Xpath来解析数据,比如我代码中的,response对象下直接就可以用selector.xpath。

response.selector.xpath('//ul[@id="m-artist-box"]/li')

当然,除此之外,还有一种使用xpath的方法:

from scrapy.selector import Selector
selector = Selector(response.body)

关于Selector的用法,可以参考:
http://blog.csdn.net/liuweiyuxiang/article/details/71065004
但是这种方法并不是特别方便,所以直接使用response.selector.xpath的方法就好。

2、关于xpath的格式,参考中文官方文档吧,http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/tutorial.html。它跟lxml大同小异,但是还是有些区别,如图,这是四种基本的方法:

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 Selector()的方法

它返回的其实都是数组,xpath不用说,然后最常用的就是extract了,这个返回的列表里都是文本,而不是Selector对象

《Scrapy爬取网易云音乐和评论(三、爬取歌手)》 extract()

它获取的就是所有href的集合。
等价于BeautifulSoup这么用,只不过这个是获取单个的:

from bs4 import BeautifulSoup
soup = BeautifulSoup(response.content,'lxml')
href = soup.find('a')['href']

然后简单提两个xpath简单而常用用法:
@href:这种@后面加什么的,都是某个标签的某个属性,其他比如src也是这样用。
text():这个就是获取文本了。

3、item它就是那个对应某个爬虫所对应的数据库的字段,因为mongodb存储的格式类似json,在python里它就是个dict,当它是个dict就可以了。

item = WYYArtistItem()

4、使用scrapy.Request它可以传递的不只是url,它也可以传递整个item,使用meta,例如

yield scrapy.Request(url=url,meta={'item': item}, headers=self.headers, method='GET', callback=self.parse)

然后在parse()函数调用的时候,

def parse(self,response):
    item = response.meta['item']

但是并不建议这么用,因为很浪费资源。

另外,传递url的时候,除了用url,如果获得的url这段直接存进了item里,也可以直接用item[‘url’]:

yield scrapy.Request(url=item['album_url'], headers=self.headers, method='GET', callback=self.parse_album_list)

最最最最重要的一点是,如果要存到数据库里,比如最后一个不用再Request了,那么一定要加上

yield item

这样才能存进数据库里,之前一直存不进去,一个就是前面忘了导入items,一个就是这里。

四、其他部分

后面基本都照这个模式来,因为我的顺序是:歌手–专辑页–专辑所有歌曲–歌曲,刚好每一个爬下来的url都可以直接传递给下一个函数,通过callback的方式。

这里最大的好处就是,比如歌手页,不用爬下来存一个列表,然后到了下一个函数,再遍历一遍这个列表,它每抓一个url,直接就能到下一个函数运行。

我运行的时候最大的一个问题就是‘yield item’那里,四个部分,我最后一个步骤才放‘yield item’,于是它只存最后一个,即歌曲部分,搞得我一脸懵逼,后来想想大概要执行完这个,然后再把前面的改成yield item,才能都存进去。这个是一个很严重的问题。

所以最好就是在parse就是第一个地方就存,yield item,存完再改成yield Request再执行下一个函数。我才知道之前参照的那个项目里为什么会有注释掉的’yield item’。

因为这份代码被我弃用了,所以还有一些有瑕疵的地方没改过来,代码就不发出来了。
我之前贴的那个GitHub的项目就还可以,我就是参照那个改的,基本上我讲清楚了,弄懂了就可以看得懂,就可以上手了。

    原文作者:Python_1024
    原文地址: https://www.jianshu.com/p/120412697fc6
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞