ETL工程师在找工作做简历的时候,经常不知道求职简历中的项目经验板块怎么写,下面是简历网小编整理的适合ETL工程师在做简历时写的项目经验范文5篇!希望能帮助到大家。
范文1
所属公司:xx机电科技有限公司
项目周期:2022.03-2023.05 (1年2个月)
参与角色:ETL工程师
描述
作为公司ETL负责对客户xx机电科技有限公司进行技术支持,配合实施实现客户需求的功能
职责
帮助客户高腾机电科技有限公司及其两家分公司开发后台数据动态存储过程,实现数据实时同步到用友及各月份单据成本核算功能
主要职责:
1.负责大数据分析及编写动态存储过程;
2.开会制定项目计划,确定数据需求;
3.参与需求评审,并且及时与项目经理沟通;
4.与项目对应实施和开发对接,开发数据仓库架构,编写动态存储空间或视图,对过程进行测试,确保脚本没有问题;
5.进行日常数据采集并同步的工作,检查同步日志并处理问题数据,处理数据时需谨慎避免误操作,多做数据备份;
6.及时与项目实施沟通并处理前台出现的数据问题,确保客户使用数据的准确性;
7.能熟练运用用友、金蝶erp维护企业bom数据
8.将工作内容进行汇总,总结数据处理时遇到的问题并讨论解决,保证不会犯相同的错误。
范文2
所属公司:温州市xx眼镜有限公司
项目周期:2021.09-2022.03 (6个月)
参与角色:ETL工程师
描述
作为公司ETL负责对客户温州市瓯海眼镜有限公司进行技术支持,配合实施实现客户需求的功能
职责
帮助客户温州瓯海眼镜有限公司开发后台数据动态存储过程,实现数据实时同步到用友及各月份单据成本核算功能
主要职责:
1.负责大数据分析及编写动态存储过程;
2.开会制定项目计划,确定数据需求;
3.参与需求评审,并且及时与项目经理沟通;
4.与项目对应实施和开发对接,开发数据仓库架构,编写动态存储空间或视图,对过程进行测试,确保脚本没有问题;
5.进行日常数据采集并同步的工作,检查同步日志并处理问题数据,处理数据时需谨慎避免误操作,多做数据备份;
6.及时与项目实施沟通并处理前台出现的数据问题,确保客户使用数据的准确性;
7.能熟练运用用友、金蝶erp维护企业bom数据
8.将工作内容进行汇总,总结数据处理时遇到的问题并讨论解决,保证不会犯相同的错误。
范文3
所属公司:中国管网
项目周期:2022.08-至今 (10个月)
参与角色:etl工程师
所属公司:广州xx科技有限公司
描述
项目介绍:将管网底层数据进行一系列的数据加工处理,最后在我们公司研发平台上进行大屏的展示,方便用户查看,并负责项目后期一年的运维工作。
职责
1:将客户提供的 excel 模版导入到平台上面,生成不同级别的资源目录表(一级,二级,三级)。
2:在平台上面进行数据加工处理(kettle),将客户数据库中的底层数据进行清洗标准化、根据 excel 模版上面给定的逻辑,编写 sql 脚本,生成不同维度表,用于不同维度大屏的展示
3:将写的转换放在调度平台上面进行定时调度,确保大屏显示结果及时更新。
4:负责项目后期运维,根据客户提供的需求,更改加工逻辑、字段名等。
5:在其它项目中的工作
(1)对公司新框架开发的平台进行测试,并提交与修改相应的 bug。
(2)对客户提供的69张数据表进行规则整理,整理出的规则分为通用规则和非通用规则,并整理相应的负责校验方法。
范文4
所属公司:中电e查
项目周期:2022.04-2022.08 (4个月)
参与角色:etl开发工程师
所属公司:xx软件有限公司
描述
中电e查:立足自主计算行业,运用先进的大数据和信息化技术,集信息查询,智能管控,风险监控于一体的行业风险识别工具。
项目职责:
1.对报表展示页面速度的优化,对底层数据表的开发以及查询速度的优化。
2.根据客户需求,梳理逻辑并开发相应的中间表以及储存过程,并核对数据,方便客户查看以及报表人员完成相应的报表
职责
1.对报表展示页面速度的优化,对底层数据表的开发以及查询速度的优化。
2.根据客户需求,梳理逻辑并开发相应的中间表以及储存过程,并核对数据,方便客户查看以及报表人员完成相应的报表开发。
3.对报表开发人员smartbi的bi数据集进行调优。
范文5
项目周期:2021.08-2022.03 (7个月)
参与角色:etl工程师
所属公司:广州xx信息科技有限公司
描述
广州银行信用卡中心SAS 高可用集群搭建为卡中心SAS 一期分析单机服务器升级项目。根据卡中心项目实施整体计划,在高可用集群搭建后需要针对信用卡中心应用进行升级改造迁移,将现有的线上运行SAS 报表及下发数据应用迁移到SAS 高可用平台。并对日程批次数据、历史数据进行规划迁移,确保高可用上线的SAS 应用平滑过渡,并保证数据结果准确。
信用卡分析系统SAS作业迁移根据需求分析需要进行应用迁移的SAS 应用代码约330段,其中大风险数据部119个、大市场部211个,迁移应用根据现有行内的映射文档,梳理关键表映射关系,并迁移报表结果到SAS 分析集群。
作业历史数据迁移根据数据结构设计数据目录,并对数据进行迁移,迁移数据包括oracle数据仓库的中间层数据、中间层历史数据;大数据集市下发的非标层数据及其他大数据集市数据,如ADM、SDM等中间集市日常批次数据。
职责
1.将需要修改的sas脚本进行归类;
2.修改/增加脚本内的代码,引用宏,引用的表明,以及压缩上传代码等;
3.将修改后的sas脚本进行运行,确保不报错。
4. 运行无误后将生成的表格与141服务器/158服务器原代码生成的数据进行比对,比对结果一致后进行下一个脚本代码的更改。