岗位职责:
1.参与 Flink/Spark/Yarn/Hive 相关大数据基础组件的二次开发;
2.负责分布式计算平台的研发建设工作,包括离线计算/实时计算/资源调度/数仓等系统的开发、优化;
3.持续推动公司大数据计算技术栈的优化和演进,提供稳定高效服务,支撑业务在大数据计算方向的各类需求,改善用户体验;
4.深入优化业务场景,针对性提供技术解决方案;
5.跟踪业界最新的分布式计算技术,并应用于实际系统中。
任职要求:
1.本科或研究生以上学历,计算机科学、软件工程等相关专业;
2.具备扎实的计算机操作系统和网络基础知识,熟悉分布式系统的设计原理和实现方法,了解Hadoop大数据生态系统;
3.有分布式存储和计算系统的开发和维护实战经验,熟悉至少一种业界主流分布式计算产品、调度框架,如YARN、Spark、Flink、Hive、Trino、Starrocks、Iceberge、Hudi等优先;
4.熟练掌握Java或C++编程语言,有用Java和C++编程语言,重视代码质量,熟悉DevOps流程者优先;
5.熟悉Linux工具、掌握内核原理、具备良好的分析问题解决问题的能力、有分布式计算产品调优者优先;
6.有较强的学习能力,有良好的团队合作精神,善于沟通和交流。