【搜狐大数据中心招聘】Hadoop/Spark工程师

【岗位要求】

1.计算机或相关专业本科或以上学历

2.扎实的数据结构与算法基础

3.熟悉JAVA、Linux操作系统,良好的Shell脚本编程能力

4.使用过Hadoop、zookeeper、kafka、或spark者优先

【岗位职责】

1. 参与数据挖掘、数据分析工作,帮助公司建立高质量的个性化推荐产品

2. 数据离线数据平台相关基础设施搭建

3. 参与实时计算平台构建,为线上系统提供支持

【联系方式】

电子邮件:yichen205373@sohu-inc.com

    原文作者:陈义
    原文地址: https://zhuanlan.zhihu.com/p/20103364
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞