学习爬虫首先就要知道什么东西是不能爬的。所以先来了解一下robots协议吧。
robots协议在哪看呢?
直接在目标网站后面加上/robots.txt就能看见了,以csdn为例
访问https://www.csdn.net/robots.txt,得到下面的信息:
User-agent: *
Disallow: /scripts
Disallow: /public
Disallow: /css/
Disallow: /images/
Disallow: /content/
Disallow: /ui/
Disallow: /js/
Disallow: /scripts/
Disallow: /article_preview.html*
Disallow: /tag/
Disallow: /?
Disallow: /link/
Sitemap: https://www.csdn.net/sitemap-aggpage-index.xml
Sitemap: https://www.csdn.net/article/sitemap.txt
User-agent: * 代表所有爬虫都要遵守下面的规则
disallow:就是不允许爬取的页面
有的还会有Allow
其他网站可能还会有各种有趣的协议,自己去看看吧!