First
项目地点:Crawler-for-Github-Trending
项目中基本每一句代码都写有解释(由于就这么几行😂),合适对Node爬虫感兴趣的同砚入入门。
Introduction
50 lines, minimalist node crawler for Trending.
一个50行的node爬虫,一个简朴的 axios, express, cheerio 体验项目。
Usage
起首保证电脑已存在node环境,然后
1.拉取本项目
git clone https://github.com/ZY2071/Crawler-for-Github-Trending.git
cd Crawler-for-Github-Trending
npm i
node index.js
2.或许下载本项目压缩包,解压
cd Crawler-for-Github-Trending-master // 进入项目文件夹
npm i
node index.js
Examples
当启动项目后,能够看到控制台输出
Listening on port 3000!
此时翻开浏览器,进入当地效劳 http://localhost:3000/daily
http://localhost:3000/time-language // time示意周期,language代表言语 比方:
http://localhost:3000/daily // 代表本日 可选参数:weekly,monthly
http://localhost:3000/daily-JavaScript // 代表本日的java分类 可选参数:恣意言语
轻微守候即可看到爬取终了的返回数据:
[
{
"title": "lib-pku / libpku",
"links": "https://github.com/lib-pku/libpku",
"description": "贵校课程材料民间整顿",
"language": "JavaScript",
"stars": "14,297",
"forks": "4,360",
"info": "3,121 stars this week"
},
{
"title": "SqueezerIO / squeezer",
"links": "https://github.com/SqueezerIO/squeezer",
"description": "Squeezer Framework - Build serverless dApps",
"language": "JavaScript",
"stars": "3,212",
"forks": "80",
"info": "2,807 stars this week"
},
...
]
More
本项目仅供爬取体验,每次接见都邑及时爬取数据,所以数据返回速率会比较慢,实际操作应该是定时爬取数据然后将数据存进数据库,数据从数据库返回从而进步数据返回效力。
但项目很基本,能够作为以上各个node模块最基本的练手运用,愿望能够帮到人人 😀