SQLflow:基于python开发的分布式机器学习平台, 支持通过写sql的方式,运行spark, 机器学习算法, 爬虫

项目git:https://github.com/lqkweb/sqlflow

SQLflow (python3+)

Sqlflow based on python development, support to Spark, Flink, etc as the underlying distributed computing engine, through a set of unified configuration file to complete the batch, flow calculation, the Rest service development.

2019-01-22 更新界面,近期会规范一下代码,写一些注释并加入读写功能

主页:

《SQLflow:基于python开发的分布式机器学习平台, 支持通过写sql的方式,运行spark, 机器学习算法, 爬虫》 sqlflowindex.png

结果页面:

《SQLflow:基于python开发的分布式机器学习平台, 支持通过写sql的方式,运行spark, 机器学习算法, 爬虫》 sqlflow.png

SQLflow

SQLflow 基于python开发, 支持通过写sql的方式操作分布式集群, 数据处理, 机器学习、深度学习模型训练, 模型部署, 分布式爬虫, 数据可视化等。

Build

python3.6

git clone https://github.com/lqkweb/sqlflow.git

pip install -r requirements.txt

python manage.py

主页:http://127.0.0.1:5000
脚本页面:http://127.0.0.1:5000/script
单sql页面:http://127.0.0.1:5000/sql

【注意:1、下载apache spark文件配置manage.py中的SPARK_HOME路径。2、data.csv是放到sqlflow/data目录中】

Usage

在脚本执行页面:http://127.0.0.1:5000/script 输入 select * from A limit 3; 或者 select * from A limit 3 as B; 生成临时表A或者B

生成临时表A数据:

select * from A limit 3;

生成临时表B数据:

select * from A limit 3 as B;

打开单sql执行页面:http://127.0.0.1:5000/sql, 直接就可以用spark sql任意语法操作数据表A和数据表B了:

desc A
select * from A limit 2
select * from B limit 2

[注] “as B” 相当于创建了一个 B 临时表。

一个简单的sql操作spark集群的Demo,是不是很简单。

[附] sparksql doc: https://spark.apache.org/docs/latest/api/sql/index.html

正在新增sql版机器学习算法功能, 谢谢支持。
正在新增sql版爬虫功能, 谢谢支持。
记得给个start鼓励一下!Thanks♪(・ω・)ノ
    原文作者:天降攻城狮
    原文地址: https://www.jianshu.com/p/05bb4226afe1
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞