1.負責大數據平臺的維護建設、提升平臺安全、穩定及效率;
2.負責大數據平臺工具研發,提高平臺及算法工程師的工作效率;
3.負Hadoop\Hive\Hbase\Spark等平臺的實施和定制開發;
4.負責重點技術攻關和生產環境異常處理;
5.負責大數據相關技術的研究。
【任職資格】:
1.本科及以上學歷,計算機相關專業,具有3年以上大數據開發經驗,熟悉Java,Linux;
2.熟悉Hadoop大數據處理系統的開發,搭建及部署者;
3.熟練地處理數據模型、數據ETL以及存儲管理;
4.熟悉HDFS/Hive/MapReduce/Kylin/HBase,能獨自進行Mapreduce程序開發者優先;
5.熟悉分布式系統概念、架構,有大規模分布式系統設計、實現、部署等經驗;
6.有較強的書面與口頭溝通表達能力,獨立分析、解決問題的能力。
本崗位用工方式為第三方機構用工