管理者范文网 > 安全管理 > 安全管理 > 任职要求
栏目

数据开发工程师任职要求15篇

发布时间:2023-03-17 热度:27

数据开发工程师任职要求

第1篇 中级大数据开发工程师职位描述与岗位职责任职要求

职位描述:

职责描述:

1、参与公司商业智能平台的研发工作;

2、参与公司商业智能平台的升级改造工作,包括运维工作。

任职要求:

1、正规院校本科及以上学历,软件、计算机、通信、信息安全、网络工程等相关专业;

2、良好的java开发背景,熟悉spring/mybatis技术体系;

3、良好的sql功底,熟悉mysql或oracle数据库;

4、熟悉linu_;

5、了解开源pentaho产品,包括prd、mondrian、saiku、kettle等;

6、熟悉hadoop、hive、hbase、storm、spark等大数据平台;

7、沟通能力强,有较强的学习能力,有较强的责任心与良好的团队协作能力。

第2篇 高级大数据开发工程师职位描述与岗位职责任职要求

职位描述:

岗位职责:

1. 基于公司大数据产品进行数据开发,包括数据的采集,清洗,预处理,存储,建模,分析挖掘等

2. 根据业务用户需要分析数据,提供数据支持

3. 参与公司大数据产品的运维和监控,保障数据质量和服务稳定性

任职要求:

1. 具备本科以上学历, 计算机, 软件以及相关专业, 5年以上大数据开发经验

2. 熟悉数据仓库维度建模, 并能根据客户需求进行数据开发, 向模型更新数据

3. 使用过至少一种以上的etl工具

4. 熟练掌握java, 对hadoop相关的技术和组件(hdfs, mr, hbase, hive, spark, storm, kafka等)有全面深入了解

5. 熟练掌握shell或者python中的一种

6. 具备spark开发经验者优先

7. 具备实时计算(kafka+storm/spark streaming) 经验者优先

8. 具备数据分析和数据挖掘方面经验者优先

第3篇 数据开发工程师/python/c++(p6-p7)3职位描述与岗位职责任职要求

职位描述:

职责描述:

'负责内部数据分析平台建设;

开发数据分析算法,提升计算效率和准确率;

对平台进行运营,满足用户需求。'

任职要求:

'计算机相关专业本科及以上学历,3年以上工作经验;

精通python, c/c++开发,熟悉的常见的设计模式;

精通spark,hadoop,es 等大数据平台的原理,做过大数据分析平台项目,对性能调优有经验;

熟悉mysql,postgresql,mogodb,redis等数据管理系统;

拥有良好的发现、分析与解决问题的能力,责任感强、具有团队精神与服务意识;

具有良好的学习能力,对互联网的新技术有很强求知欲望。'

第4篇 健康科技中心-高级大数据开发工程师职位描述与岗位职责任职要求

职位描述:

职位描述:

1. 基于hadoop生态系统进行大数据平台建设;

2. 负责各业务条线相关指标数据的数据建模

3. 负责基于sqoop,hive、spark、sparksql、mysql进行大数据开发

4. 负责离线运算、实时计算平台项目的设计、开发及运维

5. 负责对数据平台进行性能调优

任职要求:

1.统招本科或以上学历,6年以上大数据开发工作经验;

2.熟练掌握shell、python开发语言;

3.熟练掌握hadoop、hive、hbase、spark、spark sql、storm、sqoop、kafka、flume、sparkmlib等分布式框架原理,有相关的调优、运维、开发经验;

4.熟练掌握mysql数据库集群;

5. 精通主流etl开发工具,如:informatica、data services、kettle;精通主流调度工具,如:azkaban, oozie;

6.有数据仓库、分析系统、用户画像等产品开发经验者优先;

7.有较强的数据和业务结合能力;

8.有医疗或者大健康背景优先;

9.有较强的独立、主动的学习能力,良好的沟通表达能力。

第5篇 bi数据开发工程师岗位职责

大数据bi开发工程师 【岗位职责】:

1、负责业务相关指标的梳理和计算;

2、负责数据仓库模型设计和开发;

3、负责数据仓库 etl 开发;

4、上级交办的其他任务.

【任职要求】:

1、本科及以上学历,计算机相关专业;

2、3 年以上数据仓库开发经验;

3、熟悉数据仓库理论,能够根据业务需求进行数据仓库设计开发;

4、熟悉 sql 开发并能够进行优化;

5、熟练掌握 hive 开发,熟悉 hadoop 生态相关工具者优先;

6、熟悉 shell,python 者优先考虑;

6、喜欢钻研,善于沟通,有团队合作精神。 【岗位职责】:

1、负责业务相关指标的梳理和计算;

2、负责数据仓库模型设计和开发;

3、负责数据仓库 etl 开发;

4、上级交办的其他任务.

【任职要求】:

1、本科及以上学历,计算机相关专业;

2、3 年以上数据仓库开发经验;

3、熟悉数据仓库理论,能够根据业务需求进行数据仓库设计开发;

4、熟悉 sql 开发并能够进行优化;

5、熟练掌握 hive 开发,熟悉 hadoop 生态相关工具者优先;

6、熟悉 shell,python 者优先考虑;

6、喜欢钻研,善于沟通,有团队合作精神。

第6篇 阿里健康-合资公司-大数据开发工程师职位描述与岗位职责任职要求

职位描述:

岗位职责:

1、负责公司数据平台项目的etl设计、实现以及优化。

2、负责etl流程优化,关键问题解决;

3、研究医院信息化数据,负责数据建模、数据存储设计;

4、使用etl技术对医院信息系统数据进行提取、清洗、转换和整合;

5、负责基于hadoop/spark生态的大数据离线/实时处理平台开发;

6、负责基于阿里云的ma_compute的大数据离线处理平台开发;

7、负责数据源调研、入库、开发的全流程工作,并保证数据质量;

岗位要求:

1、有2年以上医疗行业数据建模经验;了解数据建模方法论,并且在项目中实践甚至优化扩展;有大型项目建模经验优先;对数据模型有独到理解;

2、熟悉大数据平台,了解hadoop、hive、hbase,有大型数据中心运维经验或实施经验者优先;

3、2年以上医院业务信息化实施开发经历优先 ;有his、emr开发经验优先;

4、有数据仓库etl经验,对调度、元数据、数据质量等有一定理解;

5、有良好的逻辑思维能力,主动思考,善于学习,与团队沟通无障碍;

6、熟悉java,python,shell,scala等任一种开发语言;

7、拥有良好的沟通、表达能力,工作认真负责,学习能力强,执行力强,乐于接受挑战并具备较好的承压能力;

第7篇 大数据开发工程师(渠道团队)职位描述与岗位职责任职要求

职位描述:

职责描述:

1.参与产品和项目研发工作,基于spark完成产品大数据架构和功能开发;

2.搭建和调优大数据基础平台,包括hadoop/hbase/hive/sqoop/kafka/flume/spark/storm等大数据组件的环境搭建;

3.维护线上系统的稳定性、可靠性,通过分析现象快速定位问题,进而提出优化方案,改进要求;

任职要求:

1.计算机相关专业本科及以上学历,5年以上大数据工作经验,有扎实的计算机理论基础;

2.熟练使用mapreduce、spark提供的api编程,具备海量数据加工处理(etl)相关经验;

3.熟练使用大数据的工具平台,熟悉hadoop生态环境,对hadoop、spark、storm、hbase、hive等至少一个项目有着深入了解;

4.掌握数据分析的基本流程,具备数据采集、清洗、分析等环节的实战经验;可以进行数据产品etl需求的调研及开发;

5.熟悉etl任务调度及管理;

6.熟悉shell命令,进行简单的shell编程;熟悉linu_文本处理命令,vi、awk、sed等命令

7.熟练使用hadoop或其他分布式平台的一种,能使用java、python或其他语言编写mapreduce进行大数据处理优先;

8.有大型金融项目经验者优先。'

第8篇 后端数据开发工程师职位描述与岗位职责任职要求

职位描述:

职责描述:

1. 配合产品经理,参与数据平台发展各阶段产品需求分析和功能设计;

2. 基于确定的产品功能需求,参与平台后端系统架构设计、接口定义实现及测试、构建部署和运维等各阶段工作;

3. 根据产品或技术实现发展需要,按需进行一些新技术的研究,并评估将其引入现有平台实现的可行性。

任职要求:

1. 本科及以上学历,至少3年及以上的实际开发经验;

2. 熟练掌握c/c++/python/java/go/javascript其中至少2种及以上程序设计语言,并且自认为具有良好的编程素养;

3. 熟练掌握常用的数据结构及算法;

4. 熟悉linu_系统开发,熟悉网络编程、文件系统,有分布式系统开发经验;

5. 应具有熟练的技术领域相关的英文文献阅读能力;

6. 有良好的沟通能力和团队合作能力,能够自主驱动,具备良好的问题定位分析能力。

优先考虑:

1. 熟悉containerization和virtual machine平台和相关技术,熟悉docker、kubernetes和kvm等,并具有相关的实际运用经验;

2. 熟悉当前主流的云计算平台,如应熟悉aws、azure和阿里云其中至少一种平台的iaas,并具有相关的项目经验;

3. 有开源项目实际参与经验。

第9篇 大数据开发工程师-偏数据模型方向-l80542职位描述与岗位职责任职要求

职位描述:

职责描述:

1、参与数据需求的沟通和模型设计;

2、负责大数据平台的数据需求开发,包括实时和批量处理;

3、负责不同数据源的接入解析落地的设计开发工作;

4、负责数据质量监控,解决数据运行和质量问题。

任职要求:

1、计算机本科以上学历,至少有3年数据开发经验;

2、精通java/scala/python,至少有3年以上开发使用经验;

3、熟悉spark,hive,flink,jstorm等大数据实时计算技术;

4、掌握hive sql,sparksql,es query dsl 等查询语言;拥有sql性能调优经验;

5、具有较强的业务理解能力,较强的责任心、团队合作能力和沟通能力;

6、有过图数据库开发或spark mllib开发经验者优先考虑。

第10篇 大数据开发工程师(驻场开发)职位描述与岗位职责任职要求

职位描述:

岗位职责:

(1)根据业务进行数据需求的调研、设计、开发及验证工作,并持续进行数据业务的优化;

(2)负责大数据整体设计和开发工作,包括数据接入、清洗、计算、校验等数据加工流程,并沉淀文档;

(3)持续对系统的技术架构进行改进和优化,提升海量数据的查询性能和用户体验。

(4)此岗位需驻场开发半年左右(地点:新疆)

任职资格:

(1)统招本科或以上学历,计算机、数学等相关专业,工作至少3年以上;

(2)熟悉java/scala开发,有脚本语言(shell,python)开发经验者优先;

(3)至少熟悉一种大数据处理栈技术,如hadoop、spark; 熟悉流计算应用开发,如spark streaming, flink;熟练掌握大数据生态各个工具的原理及使用,如hive, sqoop, kafka等

(4)掌握hbase、redis、elastic search等开源大数据存储技术,并能结合不同的业务场景深入使用;

(5)熟悉storm,spark streaming,flink,beam至少一种

(6)熟悉kafka,redis,es等相关组件

(7)对解决具有挑战性的数据问题充满激情,具有良好的分析问题和解决问题的能力,能够胜任部分数据分析,挖掘,建模工作。

第11篇 大数据开发工程师(数仓方向)职位描述与岗位职责任职要求

职位描述:

岗位职责:

1. 理解业务需求,负责数据仓库建设、etl流程的开发和优化工作;

2. 解决业务数据分析、数据报表、数据异常相关的技术问题;

3. spark/yarn/hdfs 的性能改进、功能扩展、故障分析;

任职资格:

1. 计算机相关专业本科及以上学历;

2. 精通java编程语言,并熟悉scala、python、shell等一门以上脚本语言;

3. 熟悉hadoop大数据平台架构,熟悉spark/spark sql/yarn开发调优技术,具有相关项目经验

4. 掌握数据仓库(dw)/olap/商业智能(bi)/数据统计理论,熟悉oracle/mysql数据库;

5. 思路清晰,具备良好的沟通能力和理解能力,较强的学习能力以及快速解决问题的能力;

6. 具有高度的责任感,工作认真、踏实。

福利待遇:

1、薪酬:有竞争力的薪酬体系,我们不止跟你谈理想,钱也必须谈一谈~

2、交通:无论天涯,免费班车直达公司,蓦然回首,地铁就在公司不远处。。。

3、工作时间:5天7小时工作制,充足的休息让你一整天元气满满!

4、各种福利:五险一金小case,节日礼物福利补贴说不完!

5、团建活动:下午茶,团队活动,部门聚餐,经费充足不差钱,大公司就是这么壕!

6、发展平台:想要升职加薪走向人生巅峰?上市公司晋升发展机会多多~

第12篇 大数据开发工程师 [数仓方向]职位描述与岗位职责任职要求

职位描述:

工作职责:

1、使用etl工具(如sqoop、kettle)进行数据加工、清洗等流程;

2、根据业务需求,进行数仓日常数据分析、数据报表开发;

3、使用hive进行数据处理,及数据模型构建;

4、具备良好的分析问题和解决问题的能力;

5、具备较强的沟通能力和逻辑表达能力,具备良好的团队合作精神和主动沟通意识;

任职要求:

1、计算机相关专业本科及以上学历;

2、熟练使用sql(mysql / oracle);

3、熟练数据库/数据仓库分层设计、宽表设计、星型模型设计等;

4、熟练etl工具、sqoop、kettle、spark等;

5、熟悉hadoop、hive、hdfs等常用大数据组件;

6、有互联网业务分布式数据仓库、cube、大数据数据分析等相关经验者加分;

第13篇 大数据开发工程师职位描述与岗位职责任职要求

职位描述:

工作职责:

1、根据业务需求进行数据模型的调研、设计、开发及验证工作,并持续进行模型的优化;

2、负责数据模型架构的构建,建立数据抽取、清洗、校验等数据加工流程规范及olap多维数据分析模型;

3、持续对系统的技术架构进行改进和优化,提升海量数据的查询性能和用户体验。

任职资格:

1、统招本科或以上学历,计算机、数据挖掘等相关专业,工作至少3年以上;

2、熟悉java开发,有脚本语言(shell,python)开发经验者优先;

3、至少熟悉一种大数据处理技术,如hadoop、spark;

4、掌握hbase、redis、elastic search等开源大数据存储技术,并能结合不同的业务场景深入使用;

5、精通sql,精通mysql、oracle、sql server等一种大型数据库,以及数据库的维护和优化。

6、熟悉常用java web开发框架,如:spring、mybatis等;

7、熟悉多线程编程,并对java自带线程池有一定研究;

8、对解决具有挑战性的问题充满激情,具有良好的分析问题和解决问题的能力。

第14篇 数据开发工程师职位描述与岗位职责任职要求

职位描述:

工作职责:

1、负责数据收集、清洗和规约等工作;

2、提供面向业务的数据服务,完成数据指标的统计、多维分析和展现;

3、根据业务和产品情况,抽象业务逻辑,搭建和开发大数据平台。

任职要求:

1、统招本科或以上学历;

2、精通sql,有较好的sql性能调优经验,了解hive/mysql的基本原理和调优策略

3、熟悉常用的数据挖掘、分析的工具和方法,熟悉linu_平台,精通shell/python/php等脚本语言的一种或多种,编码基本功扎实 ;

4、精通java开发,熟悉大数据处理相关技术,有hadoop开发经验,掌握mapreduce。

第15篇 java大数据开发工程师职位描述与岗位职责任职要求

职位描述:

职责描述:

1. 精通java开发、熟悉restful和maven,精通主流java web开发框架spring、spring boot、spring data jpa、logback、mybatis;

2.熟悉对常用关系型数据库和hdfs、hive,kafka、storm等读写操作,性能优化;

3. 具备系统架构设计能力,具备较强的java程序调优能力及数据库设计和sql调优能力,具备良好的沟通能力;

4. 熟悉多线程编程、熟悉junit单元测试;

《数据开发工程师任职要求15篇.doc》
将本文的Word文档下载,方便收藏和打印
推荐度:
点击下载文档

相关专题

相关范文

分类查询入口

一键复制