岗位职责:
1、负责大数据平台相关系统的运维保障,包括:Hadoop、ZK、Spark、Kafka、Storm等开源系统
2、负责分布式业务平台的架构审核、业务监控、持续交付、应急响应、容量规划、性能优化等
3、为线上服务高效稳定运行负责,支撑业务和数据量的快速扩张
4、深入理解大数据平台架构,发现并解决重大故障以及性能瓶颈
任职要求:
1、2年以上Hadoop相关运维经验
2、深入理解Linux系统、运维体系结构、精通容量规划、架构涉及以及性能优化
3、熟悉Hadoop大数据生态圈各个组件,包括但不限于HDFS/YARN/HIVE/SPARK等
4、了解Hadoop各组件的原理,并有实际部署维护经验
5、有开发经验,精通一门以上语言(shell/python/golang/java等)
6、具备故障排除能力,有很好的技术敏感度以及风险识别能力
7、深入理解Hadoop各组件的原理和实现,有阅读源码能力者优先;
8、良好的服务意识,善于团队协作,项目管理,主动思考,自我驱动力强。