**工作职责**
1. 维护大数据集群;
2. 维护 ETL pipeline;
3. 数据处理和分析;
4. 内部工具的开发和维护;
5. 配合前后端团队做相关开发工作;
6. 配合产品团队处理外部需求;
**技术要求**
1. 理工科,本科以上学历,计算机、数学、物理或统计学背景,三年开发相关工作经验;
2. 熟悉 Python;
3. 熟悉关系型数据库,至少有使用一种关系型数据库的项目开发经验;
4. 熟悉 Elasticsearch 集群,有维护和使用 Elasticsearch 集群的经验;
5 熟悉git,理解常规的版本控制原理和良好实践;
6. 熟悉 Airflow 加分;
7. 熟悉 Hadoop、Spark 技术栈,有 Spark 集群上开发 Scala 程序的经验加分,有维护 Hadoop 集群和 HDFS 文件系统的经验加分;
8. 熟悉 Docker 加分;
**团队要求**
1. 工作主动性强,自我驱动,目标导向,结果导向;
2. 独立分析和解决问题的能力;
3. 能够与人融洽相处,善于沟通和团队合作;
4. 能够适应多种工作角色的迅速转换,抗压能力强。