{bc_title1}
{bc_date}
{bc_job_count}个职位
{live_item_title}
{live_item_date}
{state_str}
保障福利
- 每周双休
- 年假
- 年终奖
- 标准工时
- 优质企业
- 社会保险
- 环境优雅
- 餐补
- 晋升快
- 全勤奖
- 加班费
- 年底双薪
- 绩效奖金
- 团队聚餐
- 双休
职位详情
职位描述:
作为数据ETL工程师,您将负责数据清洗、转换、加载以及完成SQL编写等工作。您将与数据分析师、产品经理、软件开发团队紧密合作,确保数据的准确性和完整性,以支持业务决策和数据驱动的解决方案。
岗位职责:
? 负责大数据平台的ETL流程设计、开发和维护,确保数据准确性和时效性。
? 使用Hive SQL、Dataworks、Maxcompute、SLS日志服务、Hologres等技术栈进行数据处理和分析。
? 利用Python进行数据清洗、转换和加载,优化数据处理流程。
? 使用Quick BI、FineBI等工具进行数据可视化和报表制作。
? 参与数据仓库的设计和优化,提升数据存储和查询效率。
? 跟踪行业动态,持续学习和应用新技术,提升数据处理能力。
任职要求:
? 大专及以上学历,1-3年大数据ETL相关工作经验,有电商公司背景者优先。
? 熟练掌握Python编程,有良好的编程习惯和代码质量意识。
? 熟悉Hadoop、Spark、Flink、kafka等大数据组件,有过数据仓库开发经验。
? 熟悉数据仓库分层,能独立完成ETL开发工作。
? 熟悉主流BI工具,如Quick BI、FineBI等,能够进行数据分析和可视化。
? 具备良好的数据敏感度和逻辑思维能力,能够快速定位和解决数据问题。
? 良好的团队合作精神,能够在快节奏的工作环境中保持高效和专注。
我们提供:
? 竞争力的薪资和福利待遇。
? 广阔的职业发展空间和晋升机会。
? 正常双休、提供餐补、节假日按照法定时间。
加分项:
- 熟悉大数据技术栈,如Hadoop、Spark、Kafka等;
- 有阿里云dataworks、sls日志服务使用经验优先考虑;
- 有数据仓库和数据湖的设计和建设经验;
- 有云计算平台(如AWS、Azure、GCP、Dataworks)上的数据ETL经验;
- 有Quick BI,Power BI、Tableau、FineBI等可视化经验;
联系我时,请说是在抚州招聘网上看到的,谢谢!
简历曝光率扩大 18 倍,HR主动邀约
企业信息
温馨提示
求职过程中,遇到企业收取费用、押金都可能有欺诈嫌疑,请警惕!
投递简历
×
完善简历提醒
你当前的在线简历填写不完整,现在投递求职成功率不高,
建议先完善后再投递,不能浪费任何一个机会哦~
×
扫码下载百城招聘个人版App
查看完整个人竞争力
简历已投递
但你的简历信息还不够完善,会影响您的求职效果哦~
建议您继续完善以下信息。
去完善
沟通成功!
已向该职位的HR发送消息
请在app内查看