本文目录导读:
图片来源于网络,如有侵权联系删除
随着大数据技术的飞速发展,数据湖作为海量数据存储和处理的核心平台,正逐渐成为企业数字化转型的重要基础设施,Hudi(HuDF,Hive Upgradable Data File)作为Apache Hadoop生态系统中一款创新的数据湖存储格式,以其高性能、易扩展的特点,赢得了业界的广泛关注,现诚邀具备丰富大数据处理经验的您加入我们,共同推动数据湖Hudi技术的应用与创新,以下是我们对数据湖Hudi专家职位的具体招聘要求:
基本要求
1、教育背景:计算机科学、软件工程、信息管理等相关专业本科及以上学历。
2、工作经验:3年以上大数据平台架构设计、开发或运维经验,熟悉Hadoop、Spark等大数据技术栈。
3、技术能力:
- 熟悉数据湖Hudi的设计理念、架构和实现机制;
- 掌握Hadoop生态系统中的核心组件,如HDFS、YARN、Hive、Spark等;
- 具备扎实的Java编程基础,熟悉Scala语言者优先;
图片来源于网络,如有侵权联系删除
- 熟悉分布式存储和计算架构,了解数据存储、数据仓库、数据湖等概念;
- 具备良好的数据结构和算法基础,能够独立解决复杂的技术问题。
岗位职责
1、负责数据湖Hudi产品的架构设计、技术选型及方案制定;
2、深入研究Hudi技术,持续优化现有功能,提升产品性能和稳定性;
3、跨部门协作,与产品、测试、运维团队紧密配合,确保项目顺利进行;
4、撰写技术文档,分享技术心得,提升团队整体技术水平;
5、参与开源社区,推动Hudi技术的发展和应用。
图片来源于网络,如有侵权联系删除
加分项
1、具有开源项目贡献经验,熟悉Git等版本控制工具;
2、具有大数据平台运维经验,熟悉Kafka、Flink等流处理技术;
3、具有数据挖掘、机器学习等相关经验,了解人工智能技术;
4、具有良好的沟通能力、团队协作精神和问题解决能力。
公司简介
我们是一家专注于大数据、云计算和人工智能领域的高新技术企业,致力于为客户提供领先的大数据解决方案,公司拥有一支专业的技术团队,与多家知名企业建立了长期稳定的合作关系,您将有机会参与到最前沿的技术研发,与行业精英共同成长。
如果您具备以上条件,欢迎投递简历至我们的招聘邮箱,我们将尽快与您取得联系,期待您的加入,共同开启数据湖Hudi技术的新篇章!
标签: #数据湖hudi招聘要求
评论列表