scrapy.cfg
存放的目录认定是 项目的根目录
scrapy
针对不同目的提供了多个命令。
创建项目
$ scrapy startproject my_pro
有些Scrapy
命令(比如crawl
)要求必须在Scrapy
项目中运行,有些则不用
# 全局命令(不需要在项目中执行):
startproject
settings
runspider
shell
fetch
view
version
# 项目命令(必须在项目中执行):
crawl
check
list
edit
parse
genspider
bench
命令注解
startproject
- 语法:
scrapy startproject <project_name>
- 全局命令
在 project_name
文件夹下创建一个名为 project_name
的Scrapy
项目,如上边例子。
genspider
- 语法:
scrapy genspider [-t template] <name> <domain>
- 项目命令
在当前项目中创建spider
。
这仅仅是创建spider
的一种快捷方法。该方法可以使用提前定义好的模板来生成spider
。您也可以自己创建spider
的源码文件。
查看模板的方法如下:
# 查看模板
$ scrapy genspider -l
Available templates:
basic
crawl
csvfeed
xmlfeed
# 编辑模板
$ scrapy genspider -d basic
# -*- coding: utf-8 -*-
import scrapy
class $classname(scrapy.Spider):
name = "$name"
allowed_domains = ["$domain"]
start_urls = (
'http://www.$domain/',
)
def parse(self, response):
pass
根据模板来生成spider
:
$ scrapy genspider -t basic sina sina.com
$ scrapy genspider baidu baidu.com
$ scrapy genspider zhihu zhihu.com
$ scrapy list
baidu
sina
zhihu
$ ls my_pro/spiders/
baidu.py baidu.pyc __init__.py __init__.pyc sina.py sina.pyc zhihu.py zhihu.pyc
crawl
- 语法:
scrapy crawl <spider>
- 项目命令
使用spider
进行爬取
# 例子
$ scrapy crawl myspider
check
- 语法:
scrapy check [-l] <spider>
- 项目命令
运行contract
检查。
list
- 语法:
scrapy list
- 项目命令
列出当前项目中所有可用的spider
。每行输出一个spider
。
# 例子
$ scrapy list
baidu
sina
zhihu
edit
- 语法:
scrapy edit <spider>
- 项目命令
使用 EDITOR
中设定的编辑器编辑给定的spider
# 例子
$ scrapy edit baidu
fetch
- 语法:
scrapy fetch <url>
- 全局命令或项目命令,但结果不同
使用Scrapy
下载器(downloader
)下载给定的URL
该命令以spider
下载页面的方式获取页面。例如,如果spider
有 USER_AGENT
属性修改了 User Agent
,该命令将会使用该属性。
因此,您可以使用该命令来查看spider
如何获取某个特定页面。
该命令如果非项目中运行则会使用默认Scrapy downloader
设定。
# 例子:项目外边执行
$ scrapy fetch --nolog --headers http://www.baidu.com
> Accept-Language: en
> Accept-Encoding: gzip,deflate
> Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
> User-Agent: Scrapy/1.1.1 (+http://scrapy.org)
>
< Bdqid: 0xfbf98a3b0000db32
...
...
...
$ scrapy fetch --nolog http://www.baidu.com
...
...
...
view
- 语法:
scrapy view <url>
- 全局命令
在浏览器中打开给定的URL
,并以Scrapy spider
获取到的形式展现。 有些时候spider
获取到的页面和普通用户看到的并不相同。 因此该命令可以用来检查spider
所获取到的页面,并确认这是您所期望的。
$ scrapy view http://www.baidu.com
shell
- 语法:
scrapy shell [url]
- 全局命令
以给定的URL
(如果给出)或者空(没有给出URL
)启动Scrapy shell
$ scrapy shell
$ scrapy shell http://www.baidu.com
parse
- 语法:
scrapy parse <url> [options]
- 全局命令
获取给定的URL
并使用相应的spider
分析处理。如果您提供 --callback
选项,则使用spider
的该方法处理,否则使用 parse
。
settings
- 语法:
scrapy settings [options]
- 全局命令
获取Scrapy
的设定
在项目中运行时,该命令将会输出项目的设定值,否则输出Scrapy
默认设定。
$ scrapy settings --get BOT_NAME
scrapybot
$ scrapy settings --get DOWNLOAD_DELAY
0
runspider
- 语法:
scrapy runspider <spider_file.py>
- 全局命令
在未创建项目的情况下,运行一个编写在Python
文件中的spider
。
$ scrapy runspider first_mod.py
bench
- 语法:
scrapy bench
- 全局命令
Scrapy
提供了一个简单的性能测试工具。其创建了一个本地HTTP
服务器,并以最大可能的速度进行爬取。 该测试性能工具目的是测试Scrapy
在您的硬件上的效率,来获得一个基本的底线用于对比。 其使用了一个简单的spider
,仅跟进链接,不做任何处理。
$ scrapy bench