工作职责:
1 、管理、优化并维护 Spark 计算引擎,深入内核研究和二次开发,解决线上问题;
2 、打造业界领先的大数据计算平台,为海量数据挖掘、数据分析、机器学习业务场景提供可靠、高效的支持;
3 、研究业界最新的大数据技术,参与大数据平台的设计与开发,提供有前瞻性的大数据基础架构解决方案;
4 、快速理解业务场景,从具体问题中抽象出通用的解决方案。
任职要求:
1 、计算机或相关专业本科及以上学历;
2 、熟练使用 Java 或 Scala 编程语言,扎实的数据结构和算法基础,良好的编程习惯,较强的独立解决问题的能力;
3 、从事大数据平台底层研发,对大规模分布式、并行计算系统有浓厚兴趣;
4 、良好的沟通能力、学习能力、团队协作能力和自驱力;
5 、加分项:熟悉 Hadoop 大数据生态组件,了解 Spark 、Hive 、Flink 等源码,对社区有贡献。
简历请投递至:
[email protected]