大数据运维工程师的主要职责说明
大数据运维工程师需要设计实现大规模分布式集群的运维、监控和管理平台。下面是学习啦小编为您精心整理的大数据运维工程师的主要职责说明。
大数据运维工程师的主要职责说明1
职责:
1、响应及解决客户的技术要求、疑问以及系统使用过程中的各种问题;
2、负责服务过程中问题现象和处理方案的收集撰写,形成知识库,并对知识库进行维护更新;
3、及时反馈技术处理过程中的异常情况,及时向上级反馈告警,同时主动协调资源推动问题解决;
4、定期对所有服务问题进行分析,并对服务效率有影响的问题提供反馈意见,提升服务支撑团队专业度。
5、能够独当一面,具备独立思考和处理问题的能力,并能够与客户建立良好的关系。
6、明确工作范围,定期与客户沟通工作量,并获取客户回执,及时归档。
7、能够快速熟悉参与项目中的业务,总结后与研发定期沟通。
岗位要求:
1、3年及以上工作经验,计算机相关专业本科及以上学历;
2、熟悉weblogic中间件的安装部署;
3、熟悉Oracle数据库的增删改查操作;
4、了解ETL相关内容,如Informatica、kettle等,具备基础操作技能;
5、了解BI报表相关内容,如cognos、tableau、自助式分析工具等,具备基础操作技能;
6、掌握基本的windows/linux操作命令;
7、熟练操作Office办公软件;具有较强的文档理解与编写能力,具有较强的语言表达及沟通协调能力;
8、熟悉电网业务优先。
大数据运维工程师的主要职责说明2
职责:
1. 管理公司大数据集群,提供高可用、高性能大数据集群系统,并保障系统稳定运行
2. 负责大数据集群性能监控与优化,故障处理,数据备份及灾难恢复
3. 负责大数据集群自助平台的高可用架构设计和负载均衡的设计和实现
4. 负责业务系统大数据集群管理,包括数据库日常维护,系统数据安全以及权限管理、故障处理、日常错误情况处理等
5. 负责依据业务需求优化数据存储结构,负责数据库系统部署方案的计划、设计和实施
6. 负责系统大数据集群定期检查,进行性能分析与调优,充分保证信息系统数据的安全及系统高效运行
任职资格:
1. 全日制本科及以上学历,计算机或相关专业,1年以上hadoop运维经验
2. 熟悉Hadoop生态圈Hadoop、Kafka、Zookeeper、HBase、Spark、hive等的安装配置和优化
3. 熟悉MySQL等关系型数据库的部署与优化,了解MongoDB或Cassandra等NoSQL数据库
4. 熟悉Linux类操作系统的基础命令操作,能够编写脚本开展日常运维工作
5. 熟悉Linux开发环境,会使用Shell/Java/Python中的一门脚本语言
6. 熟悉常见开源工具如Nginx、Zabbix、Grafana等的安装配置和使用
大数据运维工程师的主要职责说明3
职责:
1、负责大数据运维体系中的监控工作;
2、负责处理用户服务请求事件;
3、负责监控报警事件的处理;
4、负责协助完善监控体系;
5、负责监控平台运维工作,持续优化监控体系;
6、按时完成领导交办的其他相关工作。
任职要求:
1、大专及以上学历,计算机相关专业,1年以上大数据系统运维经验;
2、熟悉linux操作系统,熟悉hadoop、hive、hbase、yarn、spark、storm等组件的原理及运维方式;
3、熟悉中间件工作原理,对TOMCAT/jetty/nginx/微服务有一定了解,具备一定的操作能力;
4、至少熟悉python/bash/shell一种或多种语言,可独立编写维护及监控脚本;
5、有强烈的求知欲和钻研技巧,具有良好的独立分析问题与迅速解决问题的能力;
6、有良好的职业责任心和团队协作意识;
7、能适应7*24小时三班倒工作时间。
大数据运维工程师的主要职责说明4
职责:
1、负责公司大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;
2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;
3、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的Hadoop、Spark运维技术及发展方向;
4、具备ownership,故障排查能力,有很好的技术敏感度和风险识别能力;
5、良好的服务意识,主动思考,自我驱动力。
任职资格:
1、熟悉RedHat、CentOS、Ubuntu系列Linux系统的配置、管理、内核优化。能够独立编写(Shell/Python)脚本语言,脚本开展日常服务器的运维;
2、熟悉hadoop生态圈Hadoop, Kafka, Zookeeper, Hbase, Spark、YARN、Elasticsearch、Storm、Tomcat的安装、调试和运维经验; 熟悉分布式日志分析系统ELK及相关技术;
3、熟悉软硬件设备,网络原理,有丰富的大数据平台部署,性能优化和运维经验; 了解运维高容量、大流量、大并发Web系统的业务知识以及解决方案;
4、工作认真负责,有较强的学习能力,动手能力和分析解决问题的能力;
5、能够利用各种开源监控工具、运维工具,HA、负载均衡软件完成工作任务;
6、mongodb、mysql等配置、调优和备份。
大数据运维工程师的主要职责说明5
职责:
1.负责参与公司大数据基础架构平台规划,运维,监控和优化工作,保障数据平台服务的稳定性和可用性;
2.研究大数据前沿技术,改进现有系统的服务和运维架构,提升系统可靠性和可运维性;
3.负责公司Hadoop核心技术组件HDFS、Yarn、MapReduce、HBase、Storm大数据存储计算核心的监控和日常运维工作。
4.独立完成大数据运维过程中问题定位、问题解决、并进行总结及部门的大数据基础技能培训;
任职要求:
1. 计算机、信息系统、数学或相近专业本科以上学历;
2. 拥有至少3年以上Hadoop运维经验、具备基于CDH与HDP的维护经验;
3. 熟悉Hadoop大数据生态圈服务的工作原理,具备相关实战维护经验,包括但不限于HDFS、YARN、Hive、HBase、ELK、Spark、Kafka、Zookeeper、Flume等;
4. 至少独立维护过中大型Hadoop集群系统服务;
5. 至少精通Python,shell中的一种,了解JAVA;有良好的系统性能优化及故障排除能力;
6. 有大数据架构师工作经验更佳;
相关文章: