职位描述:
负责spark、hadoop计算平台的设计和开发工作,构建高效稳定的计算平台,为业务提供大数据分析所需的海量计算服务;
负责数据仓库、以及机器学习平台的建设。
任职要求:
计算机相关专业,本科及以上学历,2年以上大数据平台开发、运维经验;
对spark、hadoop平台计算原理有深刻理解,能够阅读spark、hadoop源码;对社区有源码贡献者优先;
熟悉spark流计算框架或其他开源实时计算框架;
有elasticsearch集群运维、开发经验者优先;
有数据仓库建设经验者优先;
数据大数据算法经验、机器学习平台建设经验者优先;
精通java、熟练掌握mapreduce原理及数据分析相关的二次开发;
对新技术充满热情,具有良好的学习能力、团队协作能力和沟通能力;
能承受较大的工作压力。
因篇幅问题不能全部显示,请点此查看更多更全内容