阅读 8271

【社区福利】最新 Flink 招聘信息汇总!(实时更新)

大家好,Flink 社区招聘信息汇总帖收集了来自阿里巴巴、知乎、BIGO、字节跳动、爱奇艺、滴滴、美团点评、bilibili、腾讯、小米、蚂蚁金服、Shopee、 DellEMC、Netflix、StreamNative 等 Flink 生态企业的招聘信息,整理如下,供大家参考。欢迎更多企业投递 Flink 相关招聘信息,更欢迎 Flink 专家、技术爱好者自荐。相关需求可联系小松鼠(微信 ID:Ververica2019)。

本期招聘企业及岗位如下,找工作或有意向换工作的同学快到碗里来!

备注:以下顺序按照招聘信息更新的时间排列。点击右下角的目录可直接定位心仪公司哦~

招聘公司及岗位一览

- 阿里巴巴 | 实时计算开发工程师/开发技术专家/高级技术专家
- 腾讯金融 | 大数据实时计算开发
- 知乎 | 大数据实时处理平台研发工程师
- BIGO | 大数据计算平台研发工程师
- 字节跳动 | 数据中台开发工程师
- 爱奇艺 | 大数据实时处理平台开发工程师
- 自如 | 大数据计算平台研发工程师(30k~50k)
- 小米 | OLAP平台开发工程师 / 分布式计算研发工程师
- 阿里巴巴 | 实时计算研发专家/ 数据研发专家(流计算方向)/ 决策智能工程技术专家 / 实时开发专家
- 滴滴 | 实时计算资深研发工程师/专家
- 贝壳找房 | 实时计算平台开发工程师 / 实时数仓研发工程师 / 事件处理平台开发工程师(30~50K)
- bilibili | 实时计算资深研发工程师/专家(30k-60k)
- 腾讯 | 大数据研发高级工程师(30k-60k)
- 美团点评 | 大数据基础架构-实时方向
- 蚂蚁集团 | Java技术专家(数据质量与风险)
- DellEMC | Nautilus Software Intern
- StreamNative | Pulsar Engineer / Cloud Engineer
- Shopee | Data Infrastructure Engineer & Data Infrastructure - SRE
- Netflix | Senior Software Engineer - Real Time Data Infrastructure
复制代码

阿里巴巴:Apache Flink 引擎研发专家 / 大数据实时计算平台研发专家 / 大数据实时计算解决方案架构师

团队介绍

阿里云实时计算部是阿里巴巴大数据技术体系的核心团队,包括所有 Apache Flink 创始成员。以 Apache Flink 为核心打造大数据开发及处理的一站式解决方案,一方面在阿里集团内部提供全公司范围的实时数据服务,淘宝、天猫、高德、优酷、饿了么、钉钉等所有子公司的数据和算法业务都运行在该平台上;另一方面通过阿里云向外界提供实时计算云服务,服务全球中小企业。

我们的技术团队围绕开源技术体系构建,目标给用户提供开源大数据全球 TOP 3 的用户体验,加入实时计算团队将可以与众多技术大神共同探索大数据与 AI 技术世界的奥秘,共创 Ververica 全球大数据处理品牌。

Apache Flink 引擎研发专家

岗位职责

1.参与目前最火热的开源大数据系统 Apache Flink 的研发,引领最新的开源大数据技术风向。
2.基于 Apache Flink 在 Hadoop / Kubernetes 生态上建设阿里巴巴实时计算平台,服务阿里巴巴集团所有实时数据分析业务
3.打造世界顶级的 Apache Flink 企业版软件 Ververica Platform,在全球范围内提供最便捷的实时计算云产品和服务
复制代码

岗位要求

目前正在招募的 开发工程师/开发技术专家/高级技术专家,职级 P6/P7/P8。

如果您对大数据、实时计算有浓厚兴趣,同时:

1. 具备扎实的计算机理论基础, 对数据结构及算法有较强的功底
2. 精通Java语言编程,具备优秀的系统Debug/Profiling能力和经验
3. 熟悉常见的面向对象设计模式,具备优秀的系统架构设计能力
4. 熟悉Flink/Spark/HBase/Hive/Iceberg/Hudi/Presto等开源大数据技术,在开源社区活跃者优先
5. 具备良好的沟通和团队协作能力,做事主动积极,有技术热情和激情面对挑战
复制代码

联系方式

大数据实时计算平台研发专家

岗位职责

1. 负责Blink内核的设计和开发,并参与Apache Flink开源社区研发工作;
2. 基于 Apache Flink 在 Hadoop / Kubernetes 生态上建设阿里巴巴实时计算平台,服务阿里巴巴集团所有实时数据分析业务;
3. 系统性能调优,精简硬件资源需求,例如降低计算开销,降低存储成本,提高响应QPS等;
4. 负责实时计算云产品存储相关的竞对分析和解决方案设计,进行大型关键项目的攻坚。
复制代码

岗位要求

1. 具备扎实的计算机理论基础, 对数据结构及算法有较强的功底;
2. 精通Java语言编程,具备优秀的系统Debug/Profiling能力和经验;
3. 熟悉常见的面向对象设计模式,具备优秀的系统架构设计能力;
4. 熟悉Flink/Spark/Hadoop/K8S等开源大数据和容器技术,在开源社区活跃者优先;
5. 具备大规模Hadoop/K8S 生产集群管理实践者优先。
复制代码

联系方式

大数据实时计算解决方案架构师

岗位职责

1.实时计算解决方案售前支持,参与实时计算解决方案规划设计,支持重点客户拜访交流;
2.系统分析、总结沉淀行业解决方案,并进行解决方案内部宣讲、推广和复制;
3.融合行业需求和阿里云产品能力,联合生态合作伙伴团队,推动实时计算行业化产品。
复制代码

岗位要求

1. 三年以上解决方案或架构设计工作经验,综合能力强;
2. 对实时计算场景的业务架构、应用架构有整体理解,能够独立完成重点客户调研、需求分析和解决方案输出;
3. 能够独立向客户高层进行解决方案的汇报,思路清晰地阐述解决方案的价值,并获得客户认可,有成功案例优先;
4. 了解云计算发展趋势,有新技术支撑行业数字化的思考,敢于创新,具备分析沉淀整体行业解决方案的能力;
5. 具备优秀的文档能力,使用文字、图示清楚地表达解决方案价值,能够熟练编写各类售前文档;
6. 具有娴熟的沟通技巧,执行力强;具有优秀的团队合作精神、敬业精神;对互联网与云计算行业有清晰的认知和热情;
7. 熟悉Flink/Spark/Hadoop/K8S等开源大数据和容器技术者优先;
8. 具备大规模实时计算解决方案实践经验者优先。
复制代码

联系方式

腾讯金融大数据团队:实时计算开发

岗位职责

1.负责金融业务实时需求的沟通与方案设计;
2.负责金融业务大数据实时计算开发,实时数仓建设;
3.负责实时系统的异常数据实时监测和数据质量保障;
复制代码

岗位要求

1.5年以上工作经验,计算机或相关专业本科及以上学历;
2.熟悉大数据生态组件,包括Hadoop、Hive、Spark、Storm、Flink等
3.熟练使用Flink,并且对Flink的底层原理有很深的理解,且有3年及以上实时计算开发经验
4.熟悉linux开发环境,熟练掌握java/python语言开发;
5.有较强的逻辑思维能力,思想上开放,主动积极有责任感,抗压能力强;
复制代码

联系方式

知乎:大数据实时处理平台研发工程师

团队介绍

知乎数据架构团队正在围绕 Apache Flink 为核心打造大数据实时计算平台,为知乎内部业务提供批流融合的大数据计算能力,加入知乎数据架构团队共同探索新一代的大数据技术。

岗位职责

1. 参与 Apache Flink 的二次开发,建设 Flink 批流融合大数据计算引擎
2. 深入理解业务并与业务部门密切合作,基于 Apache Flink + Kubernetes 建设知乎的实时计算平台
复制代码

岗位要求:

1. 计算机、通信、数学等相关专业,具备良好的计算机技术基础
2. 熟悉 Java,具备扎实的数据结构和算法基础
3. 具备良好的沟通和团队协作能力,做事主动积极,有技术热情和激情面对挑战
4. 深入理解 Flink 或 Spark Streaming 原理者优先
5. 有 PB 级数据处理经验和实时计算平台开发经验者优先
4. 熟悉 Hadoop Ecosystem 例如 -- Flink/Spark/Hadoop/Hive/Kafka/Pulsar 以及 Kubernetes,向社区贡献过代码者优先
复制代码

联系方式

BIGO:大数据计算平台研发工程师

团队介绍

BIGO大数据团队专注于在PB级别数据上实现快速迭代,用大数据分析技术赋能上层业务。具体负责面向公司所有业务建设EB级别的分布式文件存储、日均万亿消息队列和50PB规模的大数据计算,包括批、流、MPP等多种计算架构,涵盖从数据定义、通道、存储与计算、数据仓库和BI等全链路技术栈。团队技术氛围浓厚,有众多开源软件的开发者,期待优秀的人才加入我们!

岗位职责

1.设计实现大规模分布式计算平台,包括高吞吐的批量计算、高时效的流式计算、高效能的OLAP引擎等
2.持续优化性能、提升稳定性,为全公司提供高性能、高可用、低成本的计算服务
3.跟进前沿技术,探索新架构、新技术、新硬件,设计下一代分布式计算系统
4.深入理解业务,抽象并构建实时数仓、业务监控、在线机器学习等大数据解决方案
复制代码

岗位要求:

1.计算机或相关专业本科以上学历,3年以上分布式计算方面工作经验。
2.熟悉Hadoop/Spark/Flink/Yarn/Presto/ClickHouse等任一项主流开源技术,具备类似技术的引擎研发经验;
3.对分布式数据计算或数据分析的原理、架构及使用调优有一定经验和深入见解者优先;
4.熟练掌握Java或C++,网络编程和多线程编程技术
5.精通Spark或Yarn优先;
6.具备扎实的编程能力,良好的工程素养,团队合作能力和沟通能力强,抗压能力强,具有较强的自我驱动力;
复制代码

联系方式

字节跳动 :数据中台开发工程师

岗位职责

1、负责字节跳动大数据平台和数据中台建设,承担相关服务,平台的后端开发和架构设计工作;
2、保障技术系统稳定可靠,熟练运用合适技术对复杂场景做出合理技术设计,保障和提升海量数据平台相关系统的性能和稳定性。
3、工作范围涉及包括但不限于:数据开发平台,分布式任务调度系统,数据集成系统,数据资产平台,数据安全合规,实时计算体系,综合数据治理等领域;
复制代码

职位要求

1、拥有扎实的计算机和Java语言基础,熟悉主流的Java框架,包括spring、netty、mybatis、guava等等,了解JVM的基本实现原理
2、扎实的计算机基础,对技术有热情,愿意不断尝试新技术和业务挑战
3、熟悉hadoop ecosystem常用开源框架者优先,例如hadoop/flink/spark/hive等
复制代码

联系方式

爱奇艺:大数据实时计算资深研发工程师

爱奇艺大数据服务团队负责公司大数据基础设施的建设工作,提供涵盖数据采集、数据处 理、数据开发、数据应用等整个大数据处理流程的一系列大数据开源服务及相应的开发平 台,具备万台以上大规模分布式服务能力。

职位描述

1. 负责大数据实时计算平台设计和开发,支持 Spark/Flink 实时计算作业开发、实时任务管
  理、实时数据分析等场景需求
2. 负责基于 Spark/Flink 的 StreamSQL 引擎的迭代开发,推进实时计算 SQL 化
3. 深入研究 Spark/Flink 等计算框架,跟进社区前沿技术,推进流批一体、on Kubernetes 等
服务架构升级
复制代码

职位要求

1. 计算机相关专业,本科以上学历,两年以上工作经验
2. 有大数据技术领域工作经验,熟悉 YARN/Spark/Flink 等大数据开源服务,对其中至少
一项有深入研究
3. 熟练掌握 Java,有良好的开发经验及 trouble shooting 能力
4. 操作系统、数据结构、算法等基础知识扎实,有很强的学习能力
5. 热衷开源技术,有开源社区贡献的优先,请在简历里说明
6. 有责任心,具有良好的团队合作精神、项目管理和沟通能力
复制代码

联系方式

  • 工作地点:上海 爱奇艺创新大厦(长宁区临虹路 365 号)
  • 简历请发送到:liangjianhuang@qiyi.com
  • 邮件主题:大数据实时计算资深研发工程师-${姓名}
  • 简历文件名格式要求:大数据实时计算资深研发工程师-${姓名}

自如:大数据计算平台研发工程师(30k~50k)

岗位职责

1. 负责自如大数据计算与调度平台的运维、开发、监控
2. 负责大数据管理平台的运维、开发、监控,包括元数据管理、权限管控、血缘分析等
复制代码

任职要求

1. 本科以上学历,计算机相关专业优先,5年以上⼯作经验
2. 精通主流大数据批和流处理技术,如Hive、Spark、Flink、Tez、MapReduce等
3. 精通主流大数据管理与调度处理技术,如Ambari、Yarn、Atlas、Ranger、Hue、Airflow、Jenkins等
4. 熟悉基于Springboot的Java后端开发
5. 扎实的计算机基础和算法数据结构功底,掌握Java或Scala,具备并发编程和JVM调优能力
6. 良好的团队沟通协调能力和英文阅读能力
复制代码

加分项

1. 对主流大数据处理组件做过二次开发,参与过某些大数据组件的社区开发,附上Github地址或者Blog地址
2. 熟悉k8s
复制代码

联系方式

  • 薪酬:30k~50k,特别优秀者薪水可谈,不设上限
  • 简历投递: liut23@ziroom.com
  • 地点:北京,14号线将台站普天科技园

小米:OLAP平台开发工程师 / 分布式计算研发工程师

小米计算平台隶属于小米云平台事业部,负责支持小米集团各业务线计算产品的需求,愿景是提供一站式的计算平台服务。计算平台主要负责开发、改进和推广全公司的大数据分析处理基础架构,包括消息中间件(Talos/EMQ/Kafka)和数据集成服务、离线资源调度(Yarn/Azkaban)、计算引擎服务(Flink/Spark)和作业管理平台、OLAP服务(Hive/Kylin/Doris/Druid),ElasticSearch等服务。团队具有清晰的使命、优秀的成员、良好的学习氛围。期待对大数据基础架构感兴趣的新伙伴加入,共同成长。

1.OLAP平台开发工程师

职位描述

1.负责小米云平台 Hive/ElasticSearch 相关系统的研发和运维工作;
2.保障线上服务的高可用,并为此进行服务架构、部署架构、容灾预案等方面的优化;
3. 参与开源,提高小米在开源社区的影响力。
复制代码

任职要求

1.扎实的计算机专业基础,熟悉基本的算法和数据结构 
2.熟悉Linux/Unix操作系统,至少掌握一种后端编程语言(C++/Java/Scala等)
3.了解业界技术发展动向,并能够对新技术/新架构/新产品做出可行性评估 
4.具有良好的自我驱动和学习能力,责任心强,不断追求卓越 
5.具有优秀的发现问题和解决问题能力,对解决有挑战的问题充满热情 
6.具有优秀的沟通和协调能力,具有同理心,能够站在不同角度思考问题 
7.熟悉Hive/SparkSQL/Presto/Impala/Kylin/Druid/Doris等系统或者相关系统者优先,开源社区活跃贡献者优先
复制代码

联系方式

  • 工作地点:武汉
  • 简历投递:zhoukang1@xiaomi.com
  • 邮件标题:姓名-小米计算平台-研发职位应聘,欢迎自荐或推荐

2.分布式计算研发工程师

职位描述

1. 负责小米云平台核心分布式计算系统Spark/Flink/Yarn/Doris的设计与研发工作;
2. 参与相关系统的线上运维工作,高效定位和解决线上问题,保证服务可用性并满足SLA要求;
3. 参与开源,提高小米在开源社区的影响力。
复制代码

任职要求

1.扎实的计算机专业基础,熟悉基本的算法和数据结构 
2.熟悉Linux/Unix操作系统,至少掌握一种后端编程语言(C++/Java/Scala等)
3.了解业界技术发展动向,并能够对新技术/新架构/新产品做出可行性评估 
4.具有良好的自我驱动和学习能力,责任心强,不断追求卓越 
5.具有优秀的发现问题和解决问题能力,对解决有挑战的问题充满热情 
6.具有优秀的沟通和协调能力,具有同理心,能够站在不同角度思考问题 
7.熟悉Hadoop/Spark/Flink/Kafka/Pulsar/Doris等系统或者相关系统者优先,开源社区活跃贡献者优先
复制代码

联系方式

  • 工作地点:北京
  • 简历投递:xiajun@xiaomi.com
  • 邮件标题:姓名-小米计算平台-研发职位应聘,欢迎自荐或推荐

阿里巴巴:实时计算研发专家 / 2021 应届生实习生招聘 / 数据研发专家(流计算方向 P7/P8/P9)

一.计算平台事业部团队介绍

阿里巴巴实时计算部隶属于阿里巴巴计算平台事业部,是阿里巴巴大数据技术体系的核心团队。以Apache Flink为核心打造的大数据实时计算平台,一方面在阿里集团内部提供全公司范围的实时数据服务,淘宝、天猫、高德、优酷、饿了么、钉钉等所有子公司的数据和算法业务都运行在该平台上;另一方面向外界提供实时计算云服务,服务全球中小企业。我们的技术团队围绕开源技术体系构建,包括来自Apache Flink/Hadoop/HBase/Kafka/Hive/Zeppelin等顶级开源项目的十几位PMC/Committer成员,加入实时计算团队将可以与众多技术大神共同探索大数据与AI技术世界的奥秘。

1.实时计算研发专家

岗位描述

  1. 基于Apache  Flink + Hadoop / Kubernetes 建设阿里巴巴实时计算平台,服务阿里巴巴集团所有实时数据业务
  2. 打造世界顶级的Apache Flink企业版软件Ververica Platform,在全球范围内提供实时计算云产品和服务
  3. 参与城市大脑、智慧交通等多项国家战略项目建设,利用实时计算技术处理海量真实世界中的实时数据
复制代码

岗位要求

  1. 计算机、通信、数学等相关专业,具备良好的计算机技术基础
  2. 熟悉Java编程,具备扎实的数据结构和算法基础
  3. 具备良好的沟通和团队协作能力,做事主动积极,有技术热情和激情面对挑战
  4. 熟悉Flink/Spark/Hadoop/Storm/HBase/Hive/Kafka/Kubernetes/TensorFlow等开源技术者优先
  5. 熟悉Spring/MyBatis等web相关技术者优先
复制代码

联系方式

二.数据中台平台产品技术团队介绍

  • 数据建设平台-平台产品技术-实时技术,隶属于阿里巴巴-数据技术及产品部。阿里巴巴于2015年底提出了“大中台,小前台”战略,数据技术及产品部,就是阿里数据中台的引领者。
  • 我们除了负责阿里经济体内各业态的数据资产外,还承担集团内部主要数据产品和关联平台服务的建设,面向小二端、商家端、媒体屏提供数据支持,以数据化运营赋能商业。在这里除了接触到批处理、流计算、图计算、机器学习、端计算等技术外,同时也通过应用技术构建Dataphin平台,在阿里提供云上数据智能平台的解决方案。
  • 我们也是酷炫双11数据大屏背后的“人”,我们还是大数据网红图书《大数据之路——阿里巴巴大数据实践》的作者,业内广为传播的OneData指标规范体系也由我们提出和指定,同时我们还在孵化下一代的数据技术架构,期待你们的加入。

点击可了解超详细岗位详情: www.yuque.com/docs/share/…

1.数据研发专家-实时计算方向(P7/P8/P9,月薪30k~60k,十三薪,3个月以上年终奖,RSU若干,只要你足够优秀,上不封顶!)

岗位描述

基于kafka/hadoop/flink/spark/cloud native等技术,在阿里集团整体业务场景下:
1、研发实时数据研发平台,支持包括核心电商、云计算、大文娱、创新业务等在内的各个综合业务板块务
2、研发实时OLAP(开源的ElasticSearch,Druid,ClickHouse,自研的ADB、Hologress等等)赋能业务,构建实时数仓
3、研发实时智能化(算法和工程),通过技术和业务场景的紧密结合,让数据发挥最大业务价值
4、基于OneData体系研发Dataphin产品,结合采集、建模、研发、运维、元数据等功能,为阿里巴巴和云上中小企业提供数据中台解决方案
5、基于淘宝、天猫、聚划算、AE、天猫海外、天猫国际等业务,提供小二端/商家端/媒体端等数据产品的实时数据服务,面向每天万亿级别数据量提供高性能和低延时的解决方案
复制代码

岗位要求

1、具备扎实的计算机理论基础, 
2、对数据结构及算法有较强的功底,具备技术极客精神
3、精通Java语言编程,具备优秀的系统Debug/Profiling能力和经验
4、熟悉常见的面向对象设计模式,具备优秀的系统架构设计能力
5、熟悉Hadoop/HBase/Flink/Spark 6、Streaming等开源大数据技术,在开源社区活跃者优先
7、熟悉Spring Boot/K8S/Docker/mybatis等技术架构,了解DDD领域建模思想的优先
8、具备实际的大数据业务开发经验以及良好的项目沟通和协调能力
9、具备实时流计算调优经验、全链路解决方案构建经验、平台级产品构建的优先
复制代码

联系方式

2.实时开发专家 - 阿里云

岗位描述

1.负责构建高效、实时、稳定的流式计算引擎,支撑阿里云安全业务公有云、专有云千万级QPS数据的实时计算能力
2.负责流式计算引擎整体架构设计,对Flink\Blink的内核结合业务特性进行深度定制开发和全局优化
3.负责优化Streaming SQL引擎,支撑特殊场景SQL语法
4.负责引擎的基础模块的设计,资源监控、报警监控、日志管理、运维可视化等功能模块,降低开发和维护成本
5.探索流式计算、图计算在安全业务的前沿技术,构建实时数仓、图计算、机器学习等大数据计算解决方案
复制代码

职位要求

1.精通Java,对JVM、类加载、多线程、网络、IO有深入的理解。
2.具有主流大数据计算引擎(包括但不限于Flink、Storm、Spark、Mapreduce、Hive、图计算引擎)的实际应用经验和原理了解,有引擎优化或平台化和产品化的经历;
3.熟悉Kafka/Elasticsearch等开源系统者优先,开源社区活跃贡献者优先
4.对数据仓库、大数据开发平台、图计算、数据中台有深入研究和经验者优先
5.具有安全业务背景经验者优先
6.具有良好的自我驱动和学习能力,责任心强,不断追求卓越
复制代码

联系方式

三.阿里巴巴达摩院机器智能技术团队介绍

  • 阿里巴巴达摩院机器智能技术团队,致力于研发国际领先的大规模机器学习、语音、视觉、自然语言处理、智能决策等人工智能技术,人工智能工程技术团队的使命是让人工智能技术的研究和应用没有工程瓶颈。
  • 我们致力于打造世界一流的工程技术平台,目前我们已经建立了多个人工智能及深度学习相关的工程技术体系,支持着阿里巴巴大部分人工智能相关业务,在不少技术领域,我们处于行业领先水平,期待您的加入,与我们一起建设超一流的人工智能工程技术平台。
  • 如果您对机器智能感兴趣,愿意为这些技术落地、产生实际价值做出贡献,挑战自己的业务架构能力、应用架构能力,欢迎您的加入。

岗位描述

1.负责建设数据智能和运筹优化领域的大规模分布式计算系统
2.对所负责系统进行规划,并结合项目不断优化和升级,提高性能,稳定性,可用性和扩展性
3.进行技术预研和技术攻关,突破系统和项目中的技术难点
4.负责系统的维护和管理,在保障系统安全和稳定运行的前提下,不断降低运维成本
复制代码

岗位要求

1.具备扎实的数据基础和计算机理论基础, 了解运筹学和优化理论的优先
2.精通Java/Python语言,具备优秀的代码阅读能力,系统设计能力和性能调优能力
3.熟悉Flink/Spark/Paramter Server/Ray/Optuna等开源技术框架,并对其运行原理有较好理解
4.熟悉SCIP/Cplex/Gurobi等求解器技术的优先
5.热爱技术研发,具有快速学习能力;注重代码质量,有良好的软件工程知识和编码规范意识
6.具有较好的沟通能力,思路清晰,善于思考,能独立分析和解决问题
7.有强烈的责任心和团队合作精神,良好的抗压能力,心态积极,能主动融入团队
复制代码

联系方式

四.阿里云智能事业群-解决方案架构师-大数据及AI方向(期望职级:P7)

团队介绍

计算平台是阿里巴巴集团数据平台的基础技术设施,提供一站式数据采集、加工、分析、挖掘的平台服务,及完善的配套数据开发、数据管理工具,支持离线分布式计算、在线流计算、图计算、实时多维分析、机器学习、深度学习等多种业界领先的计算服务。对外支撑阿里云全套大数据服务,对内作为集团统一的数据仓库支撑阿里巴巴集团、蚂蚁金服、菜鸟的数据集市,是业界排名top的大数据服务平台。为了帮助客户更加高效地使用大数据产品,发挥数据价值,现招募大数据及AI产品解决方案架构师,欢迎在北京、杭州加入我们!

职位描述

计算平台是阿里巴巴集团数据平台的基础技术设施,提供一站式数据采集、加工、分析、挖掘的平台服务,及完善的配套数据开发、数据管理工具,支持离线分布式计算、在线流计算、图计算、实时多维分析、机器学习、深度学习等多种业界领先的计算服务。对外支撑阿里云全套大数据服务,对内作为集团统一的数据仓库支撑阿里巴巴集团、蚂蚁金服、菜鸟的数据集市,是业界排名top的大数据服务平台。为了帮助客户更加高效地使用大数据产品,发挥数据价值,现招募大数据及AI产品解决方案架构师,欢迎在北京、杭州加入我们!

1.主导大数据和AI产品解决方案的开发和标准化工作,提供从售前到交付的全流程解决方案支撑;
2.提炼行业典型场景,总结并推广行业打法和解决方案;
3.推动行业ISV引入和合作伙伴联合解决方案开发和推广;
4.负责输出整体解决方案架构设计文档,管理总体技术方案的变更,并根据运营中发现的客户需求设计新方案;
5.与业务团队共同推进标杆客户,并且作为产品解决方案的竞争力负责人,能够影响业内公司的关键决策;
6.赋能阿里云的业务团队拿下市场份额,并且对产品的增长负责;
7.识别和反馈行业共性需求,推动专有云产品能力提升,打造业内领先的大数据产品 。
复制代码

职位要求

1.5年以上企业级产品设计、规划、和管理的工作经验 ,在产品决策、执行和愿景规划上有全面把控能力, 有国际化视野优先;
2.协同能力,具备良好的团队沟通协同能力,能推动多业务、角色的大型项目顺利推进,结果导向带领团队拿到结果;
3.计算机、统计、数学、信息技术等相关专业(统计学,机器学习,建模,数据分析与挖掘功底扎实),本科以上学历,有金融、能源、政务、新零售行业大数据背景优先 ;
4.具有数据仓库和数据建模的相关经验,熟练掌握至少一种分布式计算框架,如hadoop、spark、storm等,并理解其架构和工作原理,有MR作业编写优化经验;
5.拥有具象化数据分析/算法应用实践的案例,有目标导向建模并验证模型有效性的完整闭环项目经历优先。
复制代码

其他信息

滴滴:实时计算资深研发工程师/专家

职位描述

滴滴实时计算组负责支持全公司的实时计算任务及集群的优化及维护工作,持续打造稳定可靠、高性能、低成本的实时计算服务。

1. 负责实时计算集群及引擎(Hadoop/Flink)的优化及改进工作;
2. 负责滴滴出行内部实时业务的技术支持工作;
3. 负责实时引擎的问题调查,稳定性及平台建设工作。
复制代码

任职要求

1. 计算机相关专业统招本科,3年以上工作经验,扎实的Java编程基础,具备JVM调优能力;
2. 熟悉Linux Shell,操作系统等,具备性能及稳定性诊断能力;
3. 有丰富的分布式系统研发经验;
4. 有Hadoop、Spark、HBase、Flink等大数据组件改进经验优先;
5. 有开源社区贡献者优先;
复制代码

联系方式

贝壳找房 :实时计算平台开发工程师 / 实时数仓研发工程师 / 事件处理平台开发工程师(30~50K)

1.实时计算平台开发工程师

职位描述

1.负责贝壳Hermes实时计算平台的开发和维护
2.参与相关技术调研及框架源码改造开发
复制代码

任职要求

1.熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 
2.熟悉MySQL、Redis等数据库技术 
3.熟悉Http等常见网络协议 
4.熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 
5.熟悉常见工程工具,如Maven、Git等 
6.良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 
7.具有较强的学习能力
复制代码

2.实时数仓研发工程师

职位描述

1.参与实时数仓相关Hermes平台模块的开发与维护
2.参与制定公司实时数仓开发规范 
3.辅助业务方实时数据的接入与开发 
4.参与相关技术调研
复制代码

任职要求

1.熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,熟练掌握spring、spring boot、MyBatis等主流的开源框架 
2.熟悉MySQL、Redis等数据库技术 
3.熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper、kafka等 
4.深入了解flink及flink sql 
5.对pulsar、clickhouse、doris、kudu、druid、phoenix等了解的优先 
6.有实时计算平台或离线数仓开发或实时数仓开发经验尤佳 
7.良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战,具有较强的学习能力
复制代码

3.事件处理平台开发工程师

职位描述

1.负责贝壳Pandora事件处理平台的开发和维护
2.参与基于Flink,Spark引擎开发通用能力组件
复制代码

任职要求

1.熟悉大数据生态开源组件,包括但不限于Hadoop, HBase, Redis, Kafka等 
2.熟练使用Spark,Flink开发实时作业,且具有一定的业务抽象能力,熟悉源码者优先 
3.熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架。 
4.有良好的编码习惯,代码洁癖者优先 具有良好的逻辑思维,沟通能力和学习能力
复制代码

联系方式

bilibili | 实时计算资深研发工程师/专家(30k-60k)

工作职责:

1. 参与千亿级大数据传输集成体系的研发工作,类似阿里TT中间件。
2. 参与实时计算平台的建设工作,负责任务调度、资源分配、自动优化、监控报警、实时SQL等等。
复制代码

职位要求:

1. 本科及以上学历,1年以上大数据平台研发经验,或2年以上后端开发经验。
2. 具有扎实的编程功底,熟悉常用的算法和数据结构,掌握Java/Python/Scala/Golang等一种以上语言的开发能力。 
3. 熟悉Linux系统, 精通一门 脚本语言(Shell/Perl/Python等)
4. 熟悉开源分布式计算/存储相关技术,包括Hadoop、HBase、Hive、Spark、Presto、Kafka、Cassandra、ES、Flink、K8S等,优先KAFKA、HBASE、FLINK。
5. 独立,负责,团队沟通协作,技术意识,自驱驱他。
复制代码

联系方式

腾讯:大数据研发高级工程师(30k-60k)

职位职责

1、负责开发设计公司级的通用大数据SQL分析平台,服务于腾讯全公司的关键业务; 
2、SQL吞吐量业界领先的平台之上,面向EB级规模SQL计算问题,负责提升系统稳定,优化平台能力,增强用户体验 
复制代码

职位要求

1、有良好的java或者scala开发基础,强悍的系统设计&编码能力以及问题分析定位能力; 
2、熟悉分布式系统原理和技术; 
3、熟悉Hive/SparkSQL/Calcite/Presto或类似分布式SQL框架,有使用、研发、优化经验,在社区有贡献者优先 
4、熟悉通用SQL语法,掌握SQL解析优化原理,有大规模系统之上SQL优化经验者优先 
5、有PB以上级大数据生产环境经验者优先
复制代码

联系方式

美团点评:大数据基础架构-实时方向

岗位描述

1.负责构建美团点评分布式实时计算平台,支撑复杂的业务需求,推进实时计算SQL化;
2.负责建设美团点评实时数仓平台,提供数仓场景下的解决方案;
3.负责美团点评数据平台万亿级消息队列,和其他实时计算依赖的分布式存储引擎的研发;
4.深入理解系统技术原理和架构,持续进行性能优化和架构迭代,不断提高系统的可用性、可扩展性;
5.深入理解系统使用场景,为业务方提供技术指导
复制代码

岗位要求(满足其一即可)

1.计算机基础知识良好,对实时计算感兴趣;
2.对后台开发技术栈有深刻理解,有高并发、高可用服务经历;
2.完整参与过企业级数仓建设,或有数仓平台化的经历;
3.具有主流大数据计算引擎(包括但不限于Spark、Mapreduce、Hive、Flink、Storm)的实际应用经验和原理了解,有引擎优化或平台化和产品化的经历;
4.具有存储系统读写优化相关工作经验。
复制代码

岗位亮点

1.有机会全身心地参与美团大数据平台的建设,和团队一起对平台万亿级消息系统和实时计算系统进行全新的升级、再造;
2.能在急速发展的业务当中,从0到1地建立对实时计算的认知,构建完整的宏观图景;
3.能和多元化背景的团队技术大牛一起,综合学习,共同进步。
复制代码

联系方式

蚂蚁集团:Java技术专家-数据质量与风险

岗位描述

1、参与蚂蚁大数据领域的风险预防、故障发现、故障应急、故障演练、链路高可用等数据风险领域的系统能力研发和风险元数据建设,保障数据按时正确交付业务;
2、参与蚂蚁所有重大项目和产品的数据链路的设计过程,对数据质量和风险进行评审和分析;
3、参与数据采集、处理、服务相关系统架构设计和开发工作,推动业务和技术的融合落地,搭建扩展平台能力;
4、负责数据风险平台的应用架构设计和系统实施,使系统体系化并具有前瞻性,能快速发现业务风险及时管控;
5、对业界在机器学习和数据挖掘等领域有一定预判,参与智能化系统建设,提供工程保证,并可以对具体算法提供建议,落实数据风险智能化分析;
复制代码

岗位要求

1、有强烈的技术热情,工作责任感;计算机软件或相关专业,本科或以上学历;
2、有创新精神,乐于和热于技术钻研。思维严谨,逻辑清晰,具备批判性思维能力和习惯;
3、具备扎实的计算机专业基础,包括算法和数据结构、操作系统、计算机体系结构、计算机网络、数据库等;
4、扎实的Java语言基础,良好的编程素养,对代码美感有追求;
5、至少熟悉一种关系型数据库如Oracle、mysql等,对于大数据处理系统hadoop,spark,storm,Flink等的架构设计比较熟悉,并了解其优劣势和设计原则优先;
7、有很强的分析复杂问题和解决复杂问题的能力,有强烈的责任心和使命感。
复制代码

岗位详情

DellEMC:Nautilus Software Intern

PROJECT BACKGROUND

Project Nautilus combines innovative open source streaming software (Pravega) developed by DellEMC and stream analytics (Apache Flink) to build the DellEMC Streaming Data Platform, which provides an enterprise ready, real-time analytics and streaming storage solution for IoT.

PRINCIPAL DUTIES AND RESPONSIBILITIES

1.Responsible for feature development and technology research on the most advanced streaming data platform.
2.Contributes to the project release and the achievement of organizational goals.
3.Duties may include research, evaluation, development and application of new process and methods into products.
4.Work with global teams on the product solutions.
复制代码

SKILLS

1.Solid knowledge on computer science.
2.Good at Java/C++ programming.
3.General knowledge on Linux system.
4.Knowledge on distributed system, storage system, search engine, k8s, or Flink/Spark will be a big plus.
5.Good English communication
复制代码

Special Benefits

1.Opportunity to discuss technical design with zookeeper founder.
2.Opportunity to understand the gap between ToB software and open source software.
3.Innovative topic for dissertation.
复制代码

Please send the resume to :

Ivy.Xia@emc.com

StreamNative:Pulsar Engineer / Cloud Engineer

Pulsar Engineer

岗位职责

1.开发 Apache Pulsar/BookKeeper 核心组件
2.打造围绕 Apache Pulsar/BookKeeper 的生态系统
3.一起构建 Apache Pulsar/BookKeeper 开发者社区,进行技术布道
4.开发围绕 Apache Pulsar/BookKeeper 的商业化产品
复制代码

任职要求

1.优秀的发现和解决问题能力,良好的沟通能力和团队合作精神;
2.熟悉 Java/Python/Go/C++ 中至少一种语言,有扎实的编程能力;
3.熟悉分布式系统的原理和关键技术,对分布式消息中间件系统(比如Kafka/RabbitMQ)的原理和实现有一定研究优先;
4.有大数据系统(Hadoop、HDFS、Hive、Spark、Flink 等)经验优先;
5.有 Docker,Kubernetes,Ansible/Terraform 等经验优先。
复制代码

联系方式

  • 工作地点:北京市海淀区上地,优秀者可以 remote
  • 待遇:15K - 45K + 期权,优秀者面议
  • 简历投递:cn_recruiting@streamnative.io

Cloud Engineer

岗位职责

1.规划、构建和维护 Apache Pulsar 的企业级云原生流数据服务。
2.利用 Kubernetes 等容器编译工具,帮助在客户的云环境中提供 Apache Pulsar 的云产品。
3.与产品和工程团队协作,共同完善产品,处理产品新需求,不断提升产品质量和竞争力。
4.设计和开发自动化平台,实现运维工作的自动化/工具化/流程化。
5.撰写细致的设计文档,并对其他同事的代码进行审查。
复制代码

任职要求

1.优秀的发现和解决问题能力,良好的沟通能力和团队合作精神;
2.相关领域开发经验,扎实的编程能力
3.了解各种常见网络协议原理和虚拟化技术
4.有使用容器、云原生和微服务架构的生产实践经验;
5.有使用容器编译技术的经验,熟练使用 Kubernetes 的优先考虑;
6.有 Puppet,Ansible 或 Terraform 自动化操作的经验;
7.有分布式系统,负载平衡和系统监控的经验。
复制代码

联系方式

  • 工作地点:北京市海淀区上地,优秀者可以 remote
  • 待遇:20K - 45K + 期权,优秀者面议
  • 简历投递:cn_recruiting@streamnative.io

Shopee:Data Infrastructure Engineer & Data Infrastructure - SRE

The Engineering and Technology team is at the core of the Shopee platform development. The team is made up of a group of passionate engineers from all over the world, striving to build the best systems with the most suitable technologies. Our engineers do not merely solve problems at hand; We build foundations for a long-lasting future. We don't limit ourselves on what we can or can't do; we take matters into our own hands even if it means drilling down to the bottom layer of the computing platform. Shopee's hyper-growing business scale has transformed most "innocent" problems into huge technical challenges, and there is no better place to experience it first-hand if you love technologies as much as we do.

1.Data Infrastructure Engineer

职位描述

1.Design and grow the Shopee data platform to support a variety of big data applications using open-source technologies including Kafka, Hadoop, Presto, HBase, Spark, Hive, Druid, and our own creations. Some examples include a real-time data streaming platform, a unified query platform, a cluster management system, and a machine learning platform
2.Dig into the source code of some open-source big data system to get the whole control and familiar with the details, configurations, designs and source code. 
3.Develop and maintain the internal release of big data systems and components as the business requirements.
4.Keep close and overall monitoring for all the deployments of the systems, maintain the system’s stability, improve the performance, discover the performance bottlenecks, tracking and troubleshooting, cost optimization.
复制代码

任职要求

1.B. Sci. / Ms / PhD in Computer Science or a related technical field
2.2+ years of working experience in software development in at least one of these languages: Java, Scala, Python, C/C++, under Linux / Unix. Scala is a plus
3.Familiar with the Big Data Infrastructure system technology like Distributed File System, Distributed Computing, Distributed Database
4.Familiar with at least one of these system: Hadoop, Spark, Kafka, Presto, and other big data system
5.Contributor/Committer/PMC member of some open-source big data system will be a plus
6.Love to use and develop open-source technologies
7.Excited to work intimately with data
8.Passionate, self-motivated, and takes ownership
复制代码

联系方式

2.Data Infrastructure - SRE

职位描述

1.Responsible for maintaining big data system such as Hadoop/Spark/Storm/Kafka
2.Responsible for big data ops architecture review, capacity planning, cost optimization, tracking and troubleshooting, and building a big data monitoring system to maintain overall stability and efficiency
3.Deeply participate in big data related businesses, such as search engine, deep learning, and promote the sustainable development of big data business
4.Responsible for the maintenance and development of the BigData ops automation platform, and improve the operation and maintenance management level of big data
复制代码

任职要求

1.Bachelor’s or higher degree in Computer Science, Engineering, Information Systems or related fields
2.More than 1 year of experience welcomed
3.Familiar with the Linux system and script developments, familiar with the common python/Shell background development
4.Familiar with BigData platform such as Hadoop/zookeeper/redis/kafka/SPARK/MQ/ELK will be a plus
5.Familiar with large-scale big data operation and maintenance architecture solutions will be a plus
6.Excellent communication, expression and organizational collaboration teamwork ability, adapt to a diversified international working environment. Proficient in English communication
复制代码

联系方式

Netflix:Senior Software Engineer - Real Time Data Infrastructure

  • Los Gatos, California
  • Infrastructure and Tooling

Netflix is the leading provider of streaming video, reaching over 100+ million subscribers globally. Our subscribers account for about 37% of the downstream Internet traffic in North America. Subscribers enjoy Netflix on more than 1,000 different device types. Supporting this global brand presents significant engineering challenges.

We are a data-driven company, handling trillions of events per day to answer many application and business related questions. At the center of providing scalable solutions to these challenges is the Netflix Real Time Data Infrastructure team. This team is responsible for building Messaging as a Service and Stream Processing as a Service to collect, transport, aggregate, process and visualize various events. All engineering teams at Netflix use the platform and build application and insights on it.

We are looking for an experienced, talented, and motivated Senior Software Engineer to join the Real Time Data Infrastructure team. You will be an integral component of our product and infrastructure development teams . Our product teams test new features at blistering pace - think weeks vs. months or years.

Opportunity

1.Design and develop Messaging as a Service and Stream Processing as a Service that will be used by Netflix engineers from across the company.
2.Build a large scale distributed, scalable, self service platform that can seamlessly scale to handle trillions of events per day.
3.Innovate and partner with Product and Data teams which allows partners to focus on building business critical applications and insights with the platform.
4.Innovate and collaborate with partners to help them build business critical applications and insights on the real time data infrastructure.
5.Curate or build reusable blocks to analyze events. Build abstractions and developer tooling that allow engineers to quickly build streaming applications in a self service manner.
6.Work on, and contribute to open source software, and have industry impact.
复制代码

Qualifications

1.You have years of experience building high performance distributed system solving large scale engineering challenges
2.You have expertise in Java, Scala, or other JVM-based languages
3.You have worked on and/or have deep understand messaging/queuing systems or stream processing systems.
4.You are a good communicator, self-driven and work with and through partner teams.
5.Your experience working with Flink, Samza, Spark Streaming, Storm is a plus.
6.Your experience building a self service platform with appropriate developer tooling and abstractions is a plus.
7.Have a BS/MS or PhD in Computer Science or equivalent
复制代码

Apply & More Information

jobs.netflix.com/jobs/867178

文章分类
阅读
文章标签