职责
1)参与百度 Spark/MapReduce 等分布式计算引擎和平台的研发工作,覆盖但不限于高吞吐离线计算、高性能数据分析、数湖数仓等场景
2)参与百度云大数据产品研发工作,实现极高性价比、极致资源弹性的产品能力
3)支持外部客户,增加产品营收,支持内部用户,赋能百度业务
4)探索新架构、新技术、新硬件,设计并开发下一代分布式计算系统
要求
1)本科及以上学历,计算机专业优先,熟悉数据结构、算法、操作系统、网络等基础原理
2)精通Spark/Hadoop 生态和原理,具备大规模的大数据开发经验,有源码经验和开源社区经验优先
3)精通Java 高性能后端服务开发,具备5年以上相关经验,打造过至少一款高性能高并发后端服务,具备云计算产品经验优先
4)具有很强的目标感、自驱力,优秀的跨团队协同能力,良好的的工程师素养,喜欢挑战并善于将事情做成