BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

Burp Spider 是一个映射 web 应用程序的工具。它使用多种智能技术对一个应用程序的内容和功能进行全面的清查。 通过跟踪 HTML 和 JavaScript 以及提交的表单中的超链接来爬行目标应用程序,它还使用了一些其他的线索,如目录列表,资源类型的注释,以及 robots.txt 文件。 结果会在站点地图中以树和表的形式显示出来,提供了一个清楚并非常详细的目标应用程序 视图。能使你清楚地了解到一个 web 应用程序是怎样工作的,让你避免进行大量 的手动任务而浪费时间,在跟踪链接,提交表单,精简 HTNL 源代码。

一、模块:Control

用来开始和停止 Burp Spider,监视它的进度,以及定义 spidering 的范围。

1.1 Spider Status

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

用来开始和停止 Burp Spider,监视它的进度。

选项解释
Spider running运行蜘蛛。这里显示的一些 Spider 进度的指标,让你能看到剩余的内容和工作量的大小。
Clear queues清除队列。停止并清除正在运行的爬行线程。
Requests made已经发出的请求
bytes transferred传输的字节
requests queued未发送的请求
forms queued排队的表格

1.2 Spider Scope

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

精准的定义 spidering 的范围。

选项解释
Use suite scope [defined in target tab]使用套件范围[在目标标签中定义]
Use custom scope使用自定义的范围。选择该项后会出现详细的配置列表,如图:

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

二、模块:Options

这个选项里包含了许多控制 Burp Spider 动作的选项。

2.1 Crawler Settings

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

爬虫设置。设置控制蜘蛛爬行的基本Web内容。

选项解释
check robots.txt检测robot.txt文件。选择后Burp Spider会要求和处理robots.txt文件,提取内容链接。
Detect custom “not found” responese检测自定义的’not found’响应。打开后Burp Spider会从每个域请求不存在的资源,编制指纹与诊断“not found”响应其它请求检测自定义“not found”的响应。
ignore links to non-text content忽略非文本内容的连接。这个选项被选中,Spider 不会请求非文本资源。使用这个选项,会减少 spidering 时间。
request the root of all directories请求所有的根目录。如果这个选项被选中,Burp Spider 会请求所有已确认的目标范围内的 web 目录,如果在这个目标站点存在目录遍历, 这选项将是非常的有用。
make a non-parameterized request to each dynamic page对每个动态页面进行非参数化的请求。如果这个选项被选中,Burp Spider 会对在范围内的所有执行动作的 URL 进行无参数的 GET 请求。如果期待的参数没有被接收, 动态页面会有不同的响应,这个选项就能成功地探测出额外的站点内容和功能。
Maximum link depth这是Burp Suite在种子 URL 里的浏览”hops”的最大数。0表示让Burp Suite只请求种子 URL。如果指定的数值非常大,将会对范围内的链接进行无限期的有效跟踪。将此选项设置为一个合理的数字可以帮助防止循环Spider在某些种类的动态生成的内容。
Maximum parameterized requests per URL请求该蜘蛛用不同的参数相同的基本URL的最大数目。将此选项设置为一个合理的数字可以帮助避免爬行“无限”的内容。

2.2 Passive Spidering

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

被动扫描

Passively spider as you browse:如果这个选项被选中,Burp Suite 会被动地处理所有通过 Burp Proxy 的 HTTP 请求,来确认访问页面上的链接和表格。使用这个选项能让 Burp Spider 建立一个包含应用程序内容的详细画面,甚至此时你仅仅使用浏览器浏览了内容的一个子集,因为所有被访问内容链接到内容都会自动地添加到 Suite 的站点地图上。

选项解释
link depth to associate with proxy requests这个选项控制着与通过 Burp Proxy 访问的 web 页面 有关的” link depth”。为了防止 Burp Spider 跟踪这个页面里的所有链接,要设置一个比上面 选项卡里的” maximum link depth”值还高的一个值。

2.3 Form Submission

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

设置蜘蛛是否提交表单与如何提交表单

选项解释
individuate forms个性化的形式。这个选项是配置个性化的标准(执行 URL,方法,区域,值)。当 Burp Spider 处理这些表格时,它会检查这些标准以确认表格是否是新的。旧的表格不会加入到提交序列。
Don’t submit开启后蜘蛛不会提交任何表单。
prompt for guidance提醒向导。如果被选中,在你提交每一个确认的表单前,Burp Suite 都会为你指示引导。这允许你根据需要在输入域中填写自定义的数据,以及选项提交到服务器的哪一个区域。
automatically submit自动提交。如果选中,Burp Spider 通过使用定义的规则来填写输入域的文本值来自动地提交范围内的表单。每一条规则让你指定一个简单的文本或者正则表达式来匹配表单字段名,并提交那些表单名匹配的字段值。
set unmatched fields to设置不匹配的字段。

2.4 application login

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

控制蜘蛛如何提交登录表单

选项解释
don’t submit login forms不提交登录表单。开启后burp不会提交登录表单。
prompt for guidance提示向导。Burp能交互地为你提示引导。默认设置项。
handle as ordinary forms以一般形式处理。Burp 通过你配置的信息和自动填充规则,用处理其他表单的方式来处理登陆表单。
automatically submit these credentials自动提交自定义的数据。开启后burp遇到登录表单会按照设定的值进行提交。

2.5 Spider Engine

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

蜘蛛引擎。设置控制用于Spidering时发出HTTP请求的引擎。

选项解释
Number of threads设置请求线程。控制并发请求数。
Number of retries on network failure如果出现连接错误或其他网络问题,Burp会放弃和移动之前重试的请求指定的次数。测试时间歇性网络故障是常见的,所以最好是在发生故障时重试该请求了好几次。
Pause before retry当重试失败的请求,Burp会等待指定的时间(以毫秒为单位)以下,然后重试失败。如果服务器宕机,繁忙,或间歇性的问题发生,最好是等待很短的时间,然后重试。
Throttle between requests在每次请求之前等待一个指定的延迟(以毫秒为单位)。此选项很有用,以避免超载应用程序,或者是更隐蔽。
Add random variations to throttle添加随机的变化到请求中。增加隐蔽性。

2.6 Request Headers

《BurpSuite基础教程第三发:Spider模块(蜘蛛爬行)》

自定义蜘蛛发出的HTTP请求的请求头部分。

您可以配置头蜘蛛在请求中使用的自定义列表。这可能是有用的,以满足各个应用程序的特定要求 – 例如,测试设计用于移动设备的应用程序时,以模拟预期的用户代理。

选项解释
Use HTTP version 1.1在蜘蛛请求中使用HTTP/1.1,不选中则使用HTTP/1.0.
Use Referer header当从一个页面访问另一个页面是加入Referer头,这将更加相似与浏览器访问。

参考

在论坛转悠突然发现的教程,因为写的太好了,所以转过来让更多人看到。
尊重原作者!原帖请查看:点击查看

    原文作者:Jewel591
    原文地址: https://www.jianshu.com/p/594fb068bf3c
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞