日均6000实例TB级流量海豚调度如何

设计求职招聘QQ群 http://liangssw.com/shishang/20004.html

作者

胡泽康鄞乐炜

作者简介

胡泽康

联通(广东)产业互联网公司大数据工程师,专注于开源大数据领域,从事大数据平台研发工作

鄞乐炜

联通(广东)产业互联网公司大数据工程师,主要从事大数据平台的应用与引擎端开发

01背景介绍

我们是联通医疗团队,一直践行“服务医改,惠及民生”的使命,全面驱动医疗健康产业数字化、智能化转型。

在调度系统选型初期,我们团队技术栈以JVM语言为主,由于Airflow的结构体系无法进行充分的改造和融合,因此在开源调度系统的选择上,我们主要对Azkaban和ApacheDolphinScheduler进行了充分的调研和预演。结果显示,在相同的环境压测下,Azkaban在稳定性上存在不足,会有任务积压和executor负载过高等影响,功能性上也存在一定的缺陷。

我们选择ApacheDolphinScheduler主要原因有以下几点:

分布式去中心化结构,系统的稳定性有足够的保障;

可视化的DAG编辑模式,使用成本低;

多项目实施、资源隔离和动态扩缩容有完整的解决方案,可快速落地;

JVM体系,快速开发改造和适配。

从年开始,我们团队基于ApacheDolphinScheduler(版本1.3.2)构建了涵盖数据采集、同步、处理和治理为一体的大数据平台(UniM-Data)。在实际生产中,当前该平台每天处理超过+任务实例,调度系统承载业务量大,作业定义与调度策略复杂度高。在如此庞杂的任务调度中,ApacheDolphinScheduler发挥了重要的作用,向上支撑应用侧的任务下发和管理,向下承接大数据底座的任务编排和调度。

02UniM-Data架构

在社区的蓬勃发展下,ApacheDolphinScheduler已经演进到3.0版本,带来了很多优秀的特性和启发。UniM-Data当前在线运行的ApacheDolphinScheduler原生版本为1.3.2,产品迭代升级中吸收和融合了ApacheDolphinScheduler的优秀架构和特性。基于系统设计和业务需求,我们团队对ApacheDolphinScheduler做了一定的开发改造、适配和代码合并,让其在UniM-Data上仍能稳定支撑线上生产系统的运行。

接下来,我们也准备致力于ApacheDolphinScheduler的版本升级,引入更多社区的优秀能力。在此也感谢社区的贡献,为我们带来如此优秀的项目,希望后续也能贡献我们的力量,为ApacheDolphinScheduler的壮大添砖加瓦。

在UniM-Data的构建实践中,产品设计与ApacheDolphinScheduler的风格存在一定的冲突,因此我们放弃了原有的ApacheDolphinScheduler的UI前端,重新构建基于产品风格的前端页面。在ApacheDolphinScheduler的底层实现中。为了满足平台团队、数仓团队、算法团队和医疗业务团队的实际需求,我们不仅借助ApacheDolphinScheduler的优秀架构提供的任务调度和失败策略等能力,也在其之上展开了接口拓展、新增任务类型、血缘埋点、数据治理工具开发等工作,进行整体架构设计和构建。

UniM-Data的整体的架构视图如下所示:

技术架构视图

03ApacheDolphinScheduler的实践与改造

从横向上看,UniM-Data上元数据和数据安全两个模块贯穿数据的全生命周期,ApacheDolphinScheduler在其中扮演了关键角色,主要从任务执行器嵌入血缘采集、权限校验和数据探查等功能上,对生产加以支撑。

元数据模块在UniM-Data的设计上属于关键模块,可实现数据溯源、元数据采集、信息探查等功能(如下所示)。在全链路数据的变更上,都需要向元数据模块暴露血缘关系,我们的解决方案是在ApacheDolphinScheduler上进行了各类任务的血缘埋点和采集器嵌入,如SparkSQL、SparkShell、数据同步等,实现了表级血缘的全链路采集。

元数据管理

各类任务的血缘关系解析方式大致如下:

SQL类型:采用DruidSQL解析,解析源表和目标表信息。HiveSQL使用org.apache.hadoop.hive.ql.parse工具类解析

Sparkshell:解析Spark的DAG信息,获取源表和目标表信息

数据同步:采用DataX进行数据同步,利用DataX的Json信息,解析源表和目标表

应用侧:建设模型设计模块,在数据变更时,同步进行血缘关系推送;应用侧,全部自研模块,可简单嵌入血缘采集器进行血缘信息推送

任务间:利用ApacheDolphinScheduler的任务关系,串联表级血缘信息

数据安全模块,首先平台侧沿用ApacheDolphinScheduler的项目管理模式,嵌入数据源隔离、用户权限、文件权限等功能,建设项目间资源隔离环境。在ApacheDolphinScheduler上,我们在各类任务的生成上进行权限校验,统一访问平台权限中心,控制数据访问安全。

从纵向上看,在UniM-Data上,我们主要借助ApacheDolphinScheduler的任务调度、失败策略和补数等功能,支撑所有任务的既定计划的执行。主要从以下几方面进行了开发和适配:

离线开发

在进行UniM-Data的离线开发功能适配中,ApacheDolphinScheduler(1.3.2)的原生版本在SQL任务类型通过jdbc连接时,对SparkSQL,HiveSQL的支持上存在性能、稳定、安全认证等问题,以及交互上无法获取任务执行日志的痛点,加之使用团队的复杂需求,所以我们对离线开发任务做了统一的改造:

1)UniM-Data的离线任务开发,提供了在线开发和调试功能。在ApacheDolphinScheduler上,我们进行了任务编排逻辑的改造,支持任务开发调试确认后形成作业。任务在调试模式运行时,处理结果会缓存起来,支撑在线调试结果预览功能。

在线开发与调试

2)在原生的SQL任务的基础上,添加备注支持、优化SQL语句切割逻辑等功能,贴近用户编辑SQL的使用习惯

3)优化SparkSQL任务,放弃ApacheDolphinScheduler原生使用SparkThriftServer的方案,采用SparkAPI进行封装,并使用SparkSubmit的方式执行,可以灵活配置资源,解决任务的性能和日志输出问题

4)优化HiveSQL任务,融合HiveServer2的HA功能,使用namespace进行连接,解决应用端的并发和负载问题

5)新增SparkShell任务,支撑在线编辑Spark代码,在SparkShell的执行引擎内部,我们封装了ApiProxy的API,方便用户快速读写各数据源

6)新增Kerbero安全认证,在各任务生成阶段,根据成员的Kerberos绑定信息,完成票据认证

7)新增图形化开发任务(内部代号EasyFlow),搭载ApacheDolphinScheduler的调度能力,提供低代码能力。现阶段已实现数据处理基本算子的集成,后续计划完成业务类算子的集成,支撑复杂业务逻辑形成算子能力。

调度中心

UniM-Data的调度中心主要借助ApacheDolphinScheduler的任务调度能力,基本沿用其任务上下线、重跑、定时执行等能力,为用户提供任务监控和管理能力。为了使平台与ApacheDolphinScheduler能够解耦,我们对其进行了接口拓展,新增和改造了任务添加、任务信息订阅等接口,暴露给平台进行通信。

数据同步

在年进行数据同步技术选型时,基于医疗信息多源异构的特点,我们经过考察分析,认为Sqoop虽然在分布式上具备一定的优势,但是需要使用MR的计算框架,成本较高。而DataX虽然是单进程模式,但可以通过ApacheDolphinScheduler的调度系统进行性能规避,且单进程模式更容易进行控制和排错,DataX具有开放式的框架,可以在极短的时间开发一个新插件,快速支持新的数据库/文件系统,实现架构如下:

在项目落地过程中,我们在开源版本DataX上拓展了诸如百度Doris、人大金仓kingbase、华为openGauss等国产数据库的适配。

数据治理工具

UniM-Data上,提供了数据质控、数据探查、数据识别等自研治理工具,在ApacheDolphinScheduler上进行较为综合性的拓展和应用。我们的设计思路是,实现独立的计算引擎,使用ApacheDolphinScheduler的调度系统,提供数据治理能力。实现方式主要是在org.apache.Dolphin

Scheduler.server.worker.task的package上增加对应的任务生成逻辑,通过ApacheDolphinScheduler的调度能力执行计算引擎。下面以数据质控为例进行说明。

整体的运行流程

1)应用侧:

模型中心创建质控任务(UniM-Data的数据表实体统一由模型中心标注和创建)

质控引擎提供表级和字段级质控类型,如记录数、及时性、范围、规则等质控算子

设置评分规则,根据质控结果形成等级划分

提交任务Json至ApacheDolphinScheduler的APIServer,并将任务控制权托管至调度中心

2)ApacheDolphinScheduler侧:

APIServer接收和保存质控任务

Master进行任务调度,向调度中心暴露控制接口

Worker完成对参数的解析和构造,通过权限控制后,生成质控引擎的执行命令,执行计算引擎

3)输出侧:

报告中心承接质控结果的展示和报告输出

质检异常的抽样数据存放至MinIO,以文件形式提供异常数据

引擎实现

数据质控的架构图

按照整体的系统设计思想,引擎与ApacheDolphinScheduler分别解耦,各司其职,可单独执行也可以与ApacheDolphinScheduler配合使用。引擎抽象层设计有source、measure、sink、sample和score(记分规则):

source:现支持hive、oracle、mysql、doris、kingbase、openguase、cache、sqlserver等数据源

measure:现建设有记录值、及时性、值域、极值、非空等10+种算子

sink:支持API、CSV

sample:支持MinIO、mysql的数据样本下发

应用实现

数据质控在应用端采用配置化方式,降低使用成本,提供了可选表级与字段级质控范围,进行不同数据的定制化任务设定。

04成果与总结

从年至今,UniM-Data经过持续的运营与建设,在医疗、运营、科研、应急等业务线条上有多个项目落地。在项目实施落地阶段,UniM-Data承接着日均超+任务实例,面临着数据流量达TB级别、系统7*24小时支持、准确率达99.%等挑战。ApacheDolphinScheduler作为UniM-Data的任务调度中心,基于其优秀的架构和丰富的功能,在实际生产中交出了令人欣喜的答卷,主要体现在:

基于ApacheDolphinScheduler的调度能力,开发并提供数据采集、血缘、治理等多类执行器,支撑业务的快速演进

新增功能和业务性接口,在ApacheDolphinScheduler的调度能力基础上,提供功能更加丰富的调度中心

基于ApacheDolphinScheduler的补数和重跑机制,有效降低数仓团队的运维成本,提高数据准确率

去中心化结构,保证整体系统7*24小时稳定运行

提供多项目、多资源的隔离环境,可在较低成本下,提供统一门户、差异化功能和权限校验

05下一步计划

UniM-Data目前采用的是ApacheDolphinScheduler的1.3.2版本,在社区快速发展下,为了进一步强化调度系统和融合优秀能力,我们计划将基线版本升级至社区3.0版本,期待ApacheDolphinScheduler为大家带来更多能力。




转载请注明:http://www.aierlanlan.com/rzgz/6859.html