spark招聘要求(对自己的提醒)

蚂蚁金服-Spark高级研发工程师

发布时间:2018-03-05

工作地点:杭州市,北京市,上海市

工作年限:三年以上

所属部门:蚂蚁金服

学 历:本科

招聘人数:2

岗位描述:

1、Spark等分布式计算框架深度定制,包括SparkSQL查询引擎优化,Streaming时效性时效性等;
2、优化基于Yarn的分布式计算调度系统,提升集群资源利用率;
3、依托开源社区,为业务提供先进的分布式计算能力和大数据解决方案;
4、与开源社区保持良性互动,调研/吸收开源经验的同时,回馈社区。

岗位要求:

岗位要求:
1、具备超大规模分布式计算和存储项目的研发能力;
2、精通Java/Scala/Python/C++任一种语言;
3、熟悉常用算法/网络编程/多线程编程等技术;
4、具备强烈的进取心/求知欲/团队合作精神/良好的沟通能力。

具有以下条件者优先:
1、在开源社区活跃并有贡献者;
2、有Spark/Hadoop/Flink/Hive/HBase/OLAP等项目的源码经验者;
3、熟悉Yarn/Kubernetes/Mesos/Docker等集群资源调度和管理系统者;
4、具备大数据平台的管理/运维经验者。

蚂蚁金服-蚂蚁Spark工程师

发布时间:2016-09-19

工作地点:杭州市,北京市

工作年限:三年以上

所属部门:蚂蚁金服

学 历:硕士

招聘人数:2

岗位描述:
1、负责蚂蚁金服Spark计算平台的研发和优化,支撑蚂蚁业务需求;
2、丰富和完善Spark生态,包括Streaming/SQL/MLLib/GraphX等;
3、基于Spark生态为业务构建大数据处理的一站式解决方案。
岗位要求:
1、精通Spark和Hadoop技术细节,具备源码开发的能力和经验;
2、精通Java、Scala、Python或C++任一种语言;
3、熟悉常用算法、网络编程、多线程编程技术等技术;
4、具备强烈的进取心、求知欲及团队合作精神,具有良好的沟通能力。

具有以下条件者优先:
1、在开源社群活跃并有积极贡献者,包括但不限于Spark/Hadoop/Yarn/Hive/Flink等;
2、有大规模系统设计和工程实现经验者;
3、具备一定开源的大数据平台运维经验者。

spark开发工程师/专家

职位描述:

工作职责:
1. 负责ODPS中计算引擎(spark方向)的设计与实现
2. 负责ODPS中计算引擎(spark方向)的测试与维护
任职要求:
1. 计算机或相关专业本科以上学历
2. 精通C++/Java/Scala程序开发(至少一种),熟悉Linux/Unix开发环境
3. 2年以上大规模分布式程序开发的项目经验
4. 熟悉常用开源分布式系统,Hadoop/Hive/Spark/Yarn,精通源代码尤佳
5. 熟悉数据仓库原理,熟悉SQL语言
6. 具有良好的沟通协作能力,具有较强的分享意愿,对业务有很好的理解能力

    原文作者:天青色等烟雨
    原文地址: https://zhuanlan.zhihu.com/p/36514937
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞