Redian新闻
>
京东这样用 Flink:适应业务的才是最好的

京东这样用 Flink:适应业务的才是最好的

科技

嘉宾 | 付海涛
编辑 | 贾亚宁

Apache Flink 功能强大,支持开发和运行多种不同种类的应用程序。事实证明,Flink 已经可以扩展到数千核心,其状态可以达到 TB 级别,且仍能保持高吞吐、低延迟的特性。出于对云原生和 Flink 之间的关系,以及最新提出的流式数仓这个概念的好奇,我们特意邀请了付海涛老师。

付海涛老师目前在京东担任资深技术专家,日常工作包含 Flink 引擎的优化增强、容器环境任务的优化和智能运维等,一起来看看他的独家理解吧。

一、如何快速恢复作业

我们日常的工作中,容器环境复杂多变,pod 被驱逐或重启时有发生,这些都会导致任务重启恢复,对业务造成较大影响,特别是对于很多交易类的重要业务来说是不可接受的。为此,我们进行了作业快速恢复的定制优化,主要从两方面着手:

  1. 针对容器环境,加快 pod 异常(被驱逐或重启)的感知速度,迅速恢复作业。

    在官方的默认实现中,如果 pod 发生异常,可能会从故障 pod 下游算子感知网络连接断开异常或者 jobmanager 感知 taskmanager 心跳超时两个路径感知,无论哪个路径,所需总时长会比心跳超时多一些,时间较长。

    为此,我们优化了 pod 异常感知的速度,在 pod 异常被停止时或感知到容器内 taskmanager 进程异常退出时,主动通知 jobmanager 是哪个 taskmanager 发生了异常,这样一来,jobmanager 就可以在 pod 异常的时候第一时间得到通知,并及时进行作业的故障恢复。我们讲这项优化在典型场景下进行了测试,集群有空余资源时,任务 failover 的时长从原来的 60 多秒缩短到几秒,效果还是比较明显的。

  2. 减小 pod 异常对作业的影响范围。

    虽说社区版在 1.9 之后,提供了基于 region 的局部恢复策略,在 Task 发生故障时,只重启故障 Task 关联 region 内的 Task,在有的场景下可以减小影响;但是很多时候一个作业的算子之间都是 rebalance 或者 hash 等全连接的方式,region 策略也起不到太大作用。为此,针对允许少量丢数的业务场景,我们开发了基于故障 Task 的单点恢复策略,Task 发生故障时只恢复该故障 Task,非故障 Task 不受影响,从而减小故障 Task 对整个作业的影响范围。

    通过这项优化,在线应用取得了不错的效果,其对作业的影响范围大大减少(取决于具体的作业,能够减少为原来的几十分之一到几百分之一),避免了业务的断流,恢复时长也大大降低了。

二、流批一体在京东的实践

流批一体是 Flink 社区最近几年比较火的一个方向,它可以解决流批割裂带来的高开发和运维成本、数据口径不一致等业务问题。对于流批一体,我们团队也进行了一些探索和实践,并在部分的实际业务场景中进行了落地。

要在实际业务场景中应用流批一体,需要满足几个前提条件:

  1. 在生产环境,同一个口径指标需要分别用流任务进行实时加工和批任务进行离线加工,此时才需要考虑是否要做流批一体;

  2. 实时加工和离线加工的数据模型大体一致;

  3. 实时加工和离线加工的逻辑可以复用。

这里举一个实际案例,有个业务团队需要针对流量买卖黑产进行舆情分析,它的原有架构如下:

从图中可以看到,这是一个典型的 Lambda 架构:源端通过爬虫爬取了一些相关信息并写到 JMQ,在数据同步到 JDQ 后,通过 Flink 进行处理,并写入到下游的 JDQ,这是实时链路;与此同时,通过 DTS 数据传输服务将上游 JDQ 的数据同步到 HDFS 落一份 Hive 表,然后通过 Hive 表去进行离线的数据加工,这是离线链路。

此外,该业务离线、实时加工的模型和计算逻辑是一致的,并且端到端的实时性要求不高,可接受分钟级别延时。

基于此业务特点,我们直接把中间存储环节从 JDQ 换成了 Iceberg,然后通过 Flink SQL 去增量读取,并实现业务的加工逻辑,这样完成了流批两条链路的完全统一,其中 Iceberg 表中的数据也可以供 OLAP 去查询或离线去做进一步加工。

流批一体架构

通过上图的架构,不仅实现了计算层面的流批统一,也实现了存储层面的流批统一。经过业务方实际应用反馈,整个链路的时延在一分钟左右,存储、计算成本显著降低,开发、运维成本降低 30%,获得了不错的实际业务效果。

三、流式数仓

流式数仓是 Flink Forward Asia 2021 主题演讲中提出的 Flink 下一步的重要发展方向,是对最近几年比较火的流批一体大方向下对数仓场景落地方案的思考。它可以解释为“make data warehouse streaming”,就是让整个数仓的数据全实时地流动起来,且是以纯流的方式而不是微批(mini-batch)的方式流动,从而让当前业界主流数仓架构再进阶一层,实现真正端到端全链路的实时化分析能力。

从目前来看,业内还没有这样一个端到端全流式链路的成熟解决方案,虽说可以通过一些纯流的方案 + 纯交互式查询方案 + 离线数仓方案(比如:Flink+Kafka+ClickHouse+HBase+Hive...)叠加起来达到近似效果,但这样系统复杂性又太高了。如果是业务对时延要求不高,可以通过 Flink+ 数据湖(比如 Iceberg)的方案作为替代方案,可以解决很多场景的问题。

流式数仓要做的是在实现高时效性的同时,保证整个架构对于开发和运维人员的简洁。而要达成这个目标,Flink 需要一个与本身流批一体理念真正配套的存储,于是社区又提出了新的 Dynamic Table Storage,即具备流表二象性的存储方案。

数仓的分层数据全部放到 Flink Dynamic Table 中,通过 Flink SQL 实时串联整个数仓的分层,数据在各个分层间进行实时流动,并可以对历史数据实现离线修正;与此同时,用户可以利用 Flink SQL 实时探索和分析 Dynamic Table 中流动的数据,从而真正做到实时离线分析一体化:统一的 SQL、统一的数据存储、统一的计算框架,可以实现全链路数据实现秒级和毫秒级的实时流动,并且所有流动中的数据皆可分析,没有任何数据盲点,用一套 API 就完成所有的数据分析。

这样一来,实时、离线以及交互式查询分析、短查询分析等场景,都可以用它来统一解决。目前社区已经初步走通整个流程,但真正要实现全实时链路且足够稳定,还需要解决一系列工程问题,可以持续关注社区发展并参与进去。

四、云原生如何给 Flink 赋能

Flink 和云原生是密不可分的两个场景,云上环境和弹性可以给 Flink 计算更多的空间,加速其应用和普及;同时,面向云原生,Flink 也在云原生的趋势下对部署架构和资源管理方式持续演进优化,以更适应云原生的场景并发挥更好的性能。

首先云原生容器化具有优异的 DevOps 能力、资源隔离、统一调度等特性,可以快速部署 Flink 应用,并提供更好的资源管理和隔离机制,避免应用的互相影响,提升计算的稳定性。

其次云原生弹性化调度的能力,可以使 Flink 应用按需动态扩缩容,降本增效。当然这也需要对 Flink 进行相应的调整和优化。为此,Flink 社区也进行了适应云原生持续的升级迭代,能够更加适应云原生环境下的运行。比如,在 Flink 1.13 中支持了响应式伸缩的功能,可以根据云上资源动态扩缩容的变化在计算拓扑上以自适应模式调整并发,从而适应云上资源变化。

最后,云原生服务混部和资源共享能力,支持将不同负载的服务比如 Flink 流批计算、在线服务、机器学习等服务混合在一起,获得更好的资源利用。

五、Flink 避坑指南

平台建设过程:根据业务特点选择合适的作业部署模式,并考虑如何迭代升级 Flink 的版本,这些会在很大程度上影响后续平台的运维成本。

目前 Flink 支持 session、per-job、aplication 三种部署模式,都有各自不同的优缺点和适用场景,需要做一个权衡。我们平台起初有很多业务有一个集群跑多个作业的业务需求,为此选择了 session 模式,采用该模式预分配资源,提交作业可以直接运行,省去了每次分配资源的开销,适用于对延迟非常敏感的业务,特别是在紧急情况热备切换时特别有用。

不过,这与此同时也带来了新的问题和挑战,比如同一集群的多个任务之间会存在资源抢占,作业存在内存泄漏时多次提交会导致 OOM 等问题,需要付出额外的努力去定制优化引擎来解决这些问题。

此外,社区版 Flink 的版本迭代升级很快,不同版本之间可能会存在不完全兼容的情况,在跟随社区步伐升级 Flink 版本后,平台会出现多个 Flink 版本并存的问题,这会带来较大的运维成本,如何推动业务平滑升级 Flink 版本、减少运维压力是一项具有挑战性的工作。一种有效的做法是可以采用新作业使用新版本、旧作业分级处理(对于不重要业务,优先推动升级,在解决完跨版本不兼容问题后,再升级重要业务)的方式来解决这个问题。

如果要上云,除了基本的上云适配,还要额外关注容器化带来的性能损耗(比如网络、磁盘等),并注意容器化环境相比物理机环境产生的一些新的问题(比如容器网络连通问题、容器驱逐或重启频繁、OOM killed 等),这些与物理机环境运行有较大差异,需要结合具体容器环境及业务进行针对性优化。

最后是多关注和参与社区。在遇到问题的时候,可以去社区多多交流,很多问题都是大家之前遇到过的,会有一些现成的经验可以参考,少走一些弯路;同时将一些方案或特性反馈给社区,也可以形成良性正向循环。

 嘉宾介绍

付海涛  京东资深技术专家

拥有多年中间件、互联网云平台和大数据开发经验,对分布式计算、容器、微服务有较深入的理解。2018 年加入京东,主要负责实时计算引擎 Storm、Flink 的相关优化和开发工作。

今日好文推荐

开源大佬从谷歌离职:在 Go 语言项目上停滞不前,要去更小的企业寻求变革

这群 WebAssembly 大佬创业失败了:有时从 JS 迁移到 Wasm 并不值当?

B 站宕机事故复盘:2021.07.13 我们是这样崩的

没有内卷、996 和“老板”,乐视过上神仙日子?WPS 重申“删除用户本地文件”一事;小米被指违反 GPL 协议 | Q 资讯

活动推荐

Flink 的上手门槛比较高,API 不够直观也不够好用,在不同使用模式下体验也不一致。有了问题,求助社区,得到反馈时间又比较长,这些问题让我们自学起来困难重重。这门课程会通过讲解 Flink 的核心特性以及实操部署,带你入门 Flink。结合三个不同的实战,重点讲解 Flink 作业的开发与实践技巧,让你更加游刃有余地使用 Flink 进行工作开发。

现有年中限时福利,结算时用口令「study2022」立享 7 折,仅限前 100 名用户有效,抓住机会快上车,快人一步进大厂!

👆扫码购买,用口令立享 7 折

仅限前 100 名有效

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
百年一遇,47万人受灾,但热搜沉底,终究是广东这座小城扛下了所有......人品好了之后人缘跟着就好了 !舒淇:当下即是最好的时光停摆60天却无人知晓,看看丹东这座被遗忘的边境小城吧九一八事变爆发91周年:为什么不能忘记历史,这就是最好的答案孤独症男孩遇到哈士奇,从手足无措到“再摸亿下”…它才是最好的心理医生未来五年,浦东这里从未被如此期待Science丨相对原始毒株,Omicron BA.2适应性增加8.88倍;首次构建的新冠适应性量化评估模型,有助于预测疫情走向特稿丨京东这群憨娃子文革期间经济是按计划地进行的晚点独家丨快手国际化业务组织调整;商汤收缩安防业务团队、汽车业务仍扩张85岁老太给65岁女儿“养老”:为什么要对孩子好一点,这是最好的答案加入晚点,最好的选题召唤最好的作者字节在高端妇幼医院跳动:业务的一小步,财务的一大步高考失利后深陷抑郁,如今我想说一切都是最好的安排“危险信号”:你不应该忽视的 10 个症状最新汇总中国各地“7+3”隔离期执行情况;中国防疫措施是最经济、效果最好的!国际 | CRS:关于加密资产与银行业务的监管讨论戴安娜王妃“婚前单身公寓”1700万出售,豪华内部照曝光:富养自己,才是最好的投资​没必要打听我的身份,书的内容就是最好的身份证明!为什么要多读书?这6句话,就是最好的回答[汽车] 不一定是最好但却是最合适的,Model Y提车一年&12000km分享[汽车] 取悦自己的才是最好的--22款大众ID3纯净版提车&3000公里分享什么是最好的高考志愿?过了个周末,政坛大变天Tank:没有消失,只是去做单亲爸爸了《幸福到万家》罗晋:凡事不争不抢,就是最好的福气在南法的日子(3)----港口小镇Le Somail阳光是最好的补药,这付药你补对了么?这家专注咨询业务的投行不简单!大师说,房贷是最好的修行澳洲惊现最新炫富方式!龙虾鲍鱼不算啥, 能吃上这华人熟悉的家常菜的才是真贵族!放松心态是最好的「备孕药」
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。