岗位职责
负责 Hadoop,Spark 计算平台的设计和开发,为业务提供大数据计算所需的海量资源调度,构建高效稳定的计算平台。
任职要求
- 计算机相关专业,本科及以上学历,3 年以上 Hadoop 开发经验,对分布式计算理论有深刻理解;
- 熟练掌握 Hadoop 技术体系,有 Hadoop 计算集群在实际项目上的开发和维护经验,有 Mapreduce,Hive 实际应用经验及编程经验;
- 熟悉 Spark 流计算框架或其他开源实时计算框架;
- 有 Elasticsearch 集群运维经验优先;
- 精通 Java,熟练掌握 MapReduce 原理及数据分析相关的二次开发;
- 熟悉 Linux/UNIX shell,熟悉(Python/shell)任意一种脚本语言;
- 对新技术充满热情,具有良好的学习能力、团队协作能力和沟通能力;
- 能承受较大的工作压力;
邮箱
bGV2aW5lbGl1QHRlbmNlbnQuY29t