职位描述
职位描述:
岗位职责:
1、负责基于Hadoop/Spark生态系统的大数据计算和挖掘研发;
2、负责基于Flink/SparkStreaming技术进行实时数据处理;
3、负责参与大数据应用需求分析、功能模块详细设计和相关文档的交付;
任职要求:
1、熟悉Hadoop,Spark,HDFS,Kafka,Redis,Hive,HBase,,druid等分布式系统框架;
2、熟练使用Scala,Pyhon,Java任一语言;
3、熟悉SparkStreaming,SparkSql, Flink, Apache Beam等组件,熟悉HiveSql等语言,并且能够性能调优;;
4、计算机、软件工程相关专业,本科及以上学历,5年以上相关工作经验;
相关福利和优势:
1、新华网控股公司 ;
2、我们关注员工成长,定期提供培训,助您提优更高的能力;
3、我们每月欢聚一堂,举办生日会,并为您呈上一份生日券;
4、我们关心您的健康,每年提供定期健康体检;
5、我们关心您的工作状态,朝九晚五,弹性工作时间;
6、我们激励您的潜能,提供晋升调薪的空间,努力就有回报;