最具影响力的数字化技术在线社区

168主编 发表于 2019-11-6 21:29:07

干货 | 起底eBay Flink的上云之路

作者:徐朝晖 来源:eBay技术荟导读Apache Flink作为低延迟、高吞吐的大数据计算引擎,在实时数据处理领域有着优越的地位。本文将从 集群生命周期管理、Job生命周期管理、Job快照管理 三个方面介绍eBay Rheos Team如何将Flink算力服务化、便捷化。希望能给同业人员相应的借鉴与启发。实时数据处理是当前数据生态的热门关注环节,是业务创新的重要前提。 Flink 从诞生之初就定位于实时计算的框架和引擎,演化至今,已经发展成为实时数据处理领域的佼佼者。然而,Flink的使用门槛比较高,加上集群本身的维护和job状态管理并不容易,业务开发者们往往就会望而却步。事实上,我们仍有多种途径可以使Flink更加服务化、便捷化。本文将分享我们在eBay内部如何提供 Flink服务的端到端管理 ,以解决业务开发者的后顾之忧,让他们专注于业务领域的创新,而无需烦心平台层面的维护。从平台提供者角度,为了让Flink服务更触手可及并稳定可靠地运行,我们需要完整的组件来支撑。而云基础设施高度动态的运行时特征,也决定了平台需要具备更加弹性的机制来保证Flink集群的 容错性和云原生特性 。
一、集群生命周期管理
Flink集群构建于 Tess 之上,Tess是eBay对Kubernettes的定制和增强,是eBay内部使用的下一代云平台。我们采用 Tess Deployment 来构建Flink cluster的TaskManager(TM)和JobManager(JM)。Deployment的特性使得单个Pod即便因为各种原因被异常销毁或退出,也能被Controler自动带起,实现一定程度上的高可用和容错机制。 JM 的持续健康对集群至关重要,因为JM掌控着job的状态管理,以及统筹job的checkpoint机制。为此, 我们支持JM的Active-Standby架构 ,通过Zookeeper来实现主备之间的快速切换。跟Tess交互,实现集群从构建、配置更改、伸缩扩展到销毁删除,这些过程涉及到复杂的元数据管理和事件处理。 NAP Service(MilkyWay) 是eBay内部广泛使用的Tess应用管理平台,通过定义 CRD(Custom Resource Definition) 来管理应用的状态和组件之间的依赖,并提供接口以操作相应组件,此处可类比成k8s的Operator。Flink集群的构建和维护正是依赖于 Milkyway 的这种能力,通过集成Milkyway接口,实现集群层面的生命周期管理,详见图1。在这一过程中,我们设计实现了丰富的运维工作流,以支持不同业务场景下集群的演化和伸缩,这些工作流运行于eBay自研的工作流引擎NAP Workflow之上。在Flink服务化的过程中,我们也构建了 精细的权限管理和Quota管理 ,以实现不同租户(一个租户通常对应一个业务小组)之间资源的隔离性,同时避免资源竞争。此外,为保证服务的稳健性,我们也内建了 自动重试机制和熔断机制。https://img2.tuicool.com/UbYvMfM.png!web图1(点击可查看大图)
二、Job生命周期管理
平台构建的Flink集群运行于 会话模式(Session Mode) ,意味着集群的生命周期与job的生命周期是互相独立的。这带来的好处是,允许job多次启停调试而无需重建集群,节省了集群频繁重建的耗时。同时,多个job能共用一个集群,也在一些场合下提升了资源利用率。我们集成了Flink的restful接口来实现job的生命周期管理。通常情况下,在提交job之前,用户需要上传job jar包到Flink集群里,而后基于此jar包来提交job执行。另一方面,具备复杂业务逻辑且包含了依赖的jar包,通常都比较大。当增长到几百兆的大小时,本地上传jar包的体验就非常差,因为本地到线上集群的网络传输效率普遍较低,而本地到生产环境的集群甚至是隔离的。
为此,我们在Flink内部增强了 jar包管理模块 ,使得集群能从就近的存储系统主动下拉jar包到本地,而后基于此jar包提交任务。同时,我们还开发了一个 maven插件 ,当用户在项目中引用插件后,就能一键实现打包和上传jar包到存储系统。为了让提交到集群后的job和平台中维护的job元数据状态同步,我们在Flink端增强了一个 回调机制 ,每次当job状态切换时,就会生成一个事件,而后这个事件会推送到平台端以更新元数据状态。通过这些,用户就能在平台上一站式管理job的生命周期,详见图2。https://img0.tuicool.com/YbEBNri.jpg!web图2 (点击可查看大图)Flink任务通常是一个长期无间断运行的流数据处理逻辑,但用户有时也会有临时中断job做参数调制或debug的需求。用户发起的job管理命令,经平台验证合法后,就会进一步下发到集群执行, job状态迁移详见图3。https://img0.tuicool.com/qqe2yy7.png!web图3 (点击可查看大图)
三、Job快照管理
Flink原生支持job的checkpoint机制,通过定期给任务内部的状态数据打快照而实现job的容错能力。为实现高可用,这些快照数据都需要落盘存储到指定的集群内共享目录。然而,在云环境下,用户很难知道哪些目录可用。 为此,我们设计实现了一系列的定制和增强,使得用户透明无感地享受到job的容错能力。首先,我们为集群内的每个Pod以local-volume的形式挂载Cephfs到指定路径。而后,我们定制了Flink job状态数据的管理机制,使得触发出来的checkpoint数据都能落到指定目录。此外,我们还设计了合理的Cephfs目录结构,使得多租户环境下,同一租户建的集群之间能互通数据,而不同租户之间集群的数据互相隔离。Job的checkpoint是由Flink运行时自动触发和管理的。而savepoint则由用户按需触发的状态数据保存方式,以便job下次启动时能达到断点续传的效果。 我们在平台端实现了给job定期触发savepoint的功能,以便在碰到错误或需要replay数据的场景下,让job能穿梭到过去的任何时间点继续运行 ,详见图4。为了避免savepoint数据膨胀,我们也引入了retention机制,以清理过期数据。https://img2.tuicool.com/MFvE7fF.png!web图4 (点击可查看大图)
四、监控和智能运维
在云环境里,机器的维护和硬件故障是常态。因此,实时监控集群的健康状况,并配置异常告警系统就很有必要。我们为Flink集群的各节点都内置了 监控模块 ,以搜集节点本地的运行时特征。同时借助 Prometheus 收集各节点数据,汇聚成集群层面的健康指标,当探测到潜在风险时,及时通过AlertManager发出告警通知。节点和job的监控数据也同时发往eBay内部的统一监控平台,以便用户端查看指标报表和订阅异常告警。人为处理异常告警是一项非常繁琐的运维工作,所以我们还搭建了一套智能运维系统以优化操作。当运维系统收到告警后,经过初检判断是否为假告警,而后根据先前积累的经验,采取一系列补救措施来把集群带回到健康状态。只有当运维系统无法处理或补救措施效果不明显时,系统才会将告警转发至管理员,由人工介入。
五、总结
把Flink服务化,让用户触手可得Flink特性,前端业务人员就能更加专注于业务逻辑本身,而无需关心平台以下的细节。这不仅优化了操作,节省了大量的时间和人力成本,更有助于eBay在风险监测、行为分析、数据洞察和市场营销等复杂案例上取得更多的业务创新和技术突破。
页: [1]
查看完整版本: 干货 | 起底eBay Flink的上云之路