V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
infra
V2EX  ›  酷工作

[上海]浦东招大数据运维、运维开发

  •  
  •   infra · 2018-12-27 16:12:57 +08:00 · 1343 次点击
    这是一个创建于 1939 天前的主题,其中的信息可能已经有所发展或是发生改变。
    职位诱惑:上市公司、全员持股、外企文化、技术氛围好、同事关系简单


    工作职责:

    负责 Hadoop Ecosystem 运维工作
    参与高可用,持续交付系统的架构设计
    参与监控,容灾,快速响应方案的设计与实施
    保障 Zookeeper/HDFS/MapReduce/Yarn/Hive/HBase/Spark 等系统稳定,能持续优化
    深入了解 Hadoop 大数据平台架构,可基于业务实现定制化调整或 Bug 修复

    职位要求:
    本科及以上学历,2 年以上数据行业工作经验,2 年以上 Hadoop 相关工作经验
    精通 Hadoop Ecosystem 相关系统,熟悉底层架构
    深入理解 Unix/Linux 系统, 精通一门以上脚本语言,Python/Shell/Perl 等
    优秀的问题分析解决能力,严谨,踏实的工作态度,强烈的责任心和进取心态
    优秀的学习,沟通能力和团队合作精神,强烈的主动 Push 意识

    工作地址:
    上海市浦东新区 盛夏路亚芯科技园


    大数据运维在线申请: https://www.debian.cn/job/ezbuy-533
    运维开发在线申请: https://www.debian.cn/job/ezbuy-534
    2 条回复    2018-12-29 23:58:40 +08:00
    infra
        1
    infra  
    OP
       2018-12-28 09:47:53 +08:00
    顶起。 工作轻松,有兴趣的朋友速度。可年后入职。
    infra
        2
    infra  
    OP
       2018-12-29 23:58:40 +08:00
    最后一次顶起
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   959 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 21:24 · PVG 05:24 · LAX 14:24 · JFK 17:24
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.