多点DMALLxStarRocks实现存

多点DMALL成立于年,是一站式全渠道数字零售解决方案服务商。数字化解构重构零售产业,提供端到端的商业SaaS解决方案。目前,多点DMALL已与多家连锁零售商、品牌商等达成合作,覆盖四个国家和地区家门店,模式受到广泛验证。

多点大数据部门使用StarRocks逐步替代了Impala、ImpalaonKudu、ApacheKylin等存储引擎,实现了存储引擎的收敛,简化了实时数据处理链路,同时也能保障较高的查询并发以及较低的响应延迟要求。

“作者:任伟,

多点生活大数据部门资深研发工程师”

背景介绍多点大数据部门为内部业务研发团队、数据分析师、外部用户以及合作伙伴,提供了基础的大数据产品、平台服务,帮助零售企业解决了从基本的数据汇总管理、统一的数据计算应用、到各种场景下对数据的多模式使用的需求,可覆盖零售企业绝大部分数据诉求。技术层面,多点大数据部门基于Hadoop开源技术栈,并进行了部分二次开发后构建起了以下的一个技术架构全景图。从下到上分为基础设施层、数据源层、数据集成层、离线/实时计算层、集市层、分析存储层、数据服务/应用层,数据开发、数据模型中心与运维管理层对各层提供支持。

基础设施层:包括超大带宽的专线网络;公有云、私有云、机房托管的混合云部署;

数据源层:包括企业OLTP数据库、业务数据、日志数据、三方接入数据;数据集成层:DataBus是多点自研数据同步平台,解决企业内各业务线之间、跨企业组织之间以及跨行业的数据汇聚、融合等问题,将不同系统的数据相互打通,实现数据自由流动;离线计算层:利用Hive/Spark高可扩展的批处理能力承担离线数仓的ETL和数据模型加工;

实时计算层:利用Flink/SparkStreaming完成实时数据的ETL(包括维度扩充,多流Join,实时汇总)等;离线/实时集市层:使用数仓分层模型构建ODS(原始数据层)、DWD(数据明细层)、DWS(汇总层)、DIM(维度层)、DWT(主题层)、ADS(应用层),并根据公司业务拆分不同的数据域;分析存储层:主要依赖Druid、ClickHouse、ImpalaonKudu、ApacheKylin、Elasticsearch、HBase、MySQL、StarRocks提供OLAP查询能力;数据服务/应用层:该层通过提供BI分析产品、数据服务接口、营销、报表类产品,向内部运营人员、外部客户、合作伙伴提供数据分析决策能力。原有架构痛点上述架构解决了多点绝大部分数据诉求,在整个架构中,无论是基于Hive、Spark的离线计算,基于Flink、SparkStreaming的实时计算;基于HDFS、Kafka的存储;基于数仓分层模型建设等方案都已基本成熟。但是在OLAP领域,无论是多点还是业界仍然处于百家争鸣,各有所长的状态。纵观多点在OLAP引擎的探索实践中,遇到了各种各样的问题,总结起来如下:技术成本由于上层业务场景复杂,各个场景的技术难点、核心点均不一样。多点生活在整个技术架构升级的过程中先后引入了HBase、Elasticsearch、Druid、ClickHouse、ImpalaonKudu、ApacheKylin等OLAP引擎。但是随着技术栈增多,技术曲线陡峭,没有充足的资源进行多技术栈的维护,造成了比较高的技术成本。开发成本多点的数据分析场景大致可以分为离线T+1更新分析场景、实时更新分析场景、固定维度分析场景。

离线T+1更新的分析场景

例如多点的精细化用户运营平台,其核心的功能是基于用户、消费、行为、设备等属性,提供多维度筛选条件,并通过自定义条件实现用户分层,便于进行精细化用户运营。

针对数据更新为T+1的分析场景,原主要使用的分析引擎为ClickHouse。利用ClickHouse构建“大宽表”模型,将事实表与维度表提前进行关联,对外提供单表聚合的SQL查询,以及通过构建DWT主题宽表,提供Adhoc查询;该场景面临的问题是:虽然ClickHouse单表查询强悍,但是Join能力不强,需要提前进行关联,将多表关联成单表,会存在额外的开发成本。

实时更新分析场景

实时更新场景主要是实时监控经营的各项指标,如当前时间段内的GMV、下单数量、妥投数量、指标达成、对比、环比等指标。为客户的经营决策提供更具备时效性的参考依据。针对数据为实时(秒级)更新的场景,原主要使用ImpalaonKudu引擎,采用Lambda架构,基于相同的主键,将流式的预计算的结果数据、批计算的结果数据,基于相同的主键进行merge。

上述方案中的FlinkAGG部分,该程序的功能包括窗口内的预计算、多流Join等操作。当业务需求变更或者上游数据结构变动的时候,需要升级FlinkAGG程序,以及离线ETL的任务,类似于“烟囱式”的迭代开发,开发效率低下。资源消耗层面,在Flink里面做预计算,时间窗口的选取以及内存占用之间也需要平衡。

固定维度分析场景

固定维度的分析场景主要针对固化的、标准的业务场景进行分析,多维分析可以对以多维形式组织起来的数据进行上卷、下钻、切片、切块、旋转等各种分析操作,以便剖析数据,使分析者、决策者能从多个角度、多个侧面观察数据仓库中的数据,从而深入了解包含在数据中的信息和内涵。

针对分析维度固定的分析场景,按照业务上常用的分析指标以及维度,此前使用ApacheKylin进行cube预计算。但是使用ApacheKylin也会遇到如下问题:

由于多点业务场景涉及的维度比较多,各种类目、营运组织的组合,会导致cube膨胀,占用比较多的存储资源;

当数据重跑以及新增维度,指标的时候。针对已经在线上运行的cube模型,为了保障数据重跑时候服务依然可用,需要新增cube模型,并行提供支持,造成存储重复;

由于目前使用的ApacheKylinv3.1.2是使用HBase作为后端存储,rowkey顺序设计以及分区键的选择会严重的影响查询性能,对开发不友好。

运维成本

多点作为一站式全渠道数字零售解决方案服务商,可以满足客户不同的接入部署需求。多点大数据产品系统的接入可以大致分为SaaS化接入、私有云以及本地化部署。针对私有云、本地化部署的客户,OLAP引擎易部署、易维护、极简的架构尤其重要,像HBase、ImpalaonKudu、ApacheKylin等强依赖Hadoop生态的OLAP引擎,会增加部署的复杂性;ClickHouse集群不能自动感知集群拓扑变化,也不能自动balance数据,会增加缩容、扩容等的维护成本。选择StarRocks的原因多点大数据部门从年年初开始,在调研市面上常用的存储引擎时发现了StarRocks。StarRocks架构设计融合了MPP数据库,以及分布式系统的设计思想,具备架构精简,支持全面向量化引擎、智能查询优化、高效更新、智能物化视图、标准SQL、流批一体、高可用易扩展等特性,天然的解决了上述的问题。

使用StarRocks的特性解决当前痛点

引擎收敛原有系统的多维分析,高并发查询,预计算,实时分析,Adhoc查询等场景下使用了多套系统,基本上可以使用一套StarRocks解决。多点大数据平台、产品逐步形成以StarRocks为主,其他OLAP引擎为辅的存储架构,解决维护多套引擎的技术成本问题。使用星型、星座模型替代“大宽表”模型StarRocks支持BroadcastJoin、ColocateJoin等分布式Join的特性,可以在查询性能可接受的范围内,使用星型、星座模型替代“大宽表”模型,节约提前关联的开发成本,同时针对事实表中历史数据变更,需要重新“跑数”的场景,可以只重跑(OverWrite)部分表的数据,提高整体的“跑数”效率。简化Lambda架构中的预聚合部分StarRocks支持明细、聚合、更新模型,可以基于StarRocks自带预聚合的特性,优化掉现有Lambda架构的中的预聚合部分。StarRocks直接拉取/订阅Hive或者Kafka中的数据,在StarRocks中进行聚合运算;StarRocks的数据模型是Aggregate模型,通过MAX、SUM、MIN、BITMAP_UNION等聚合函数在StarRocks中进行预聚合。模型持续迭代针对已在线上运行的模型,如果有需求上的变更,比如增加、删除、变更字段,可以使用StarRocks简单SQL命令动态地修改表的定义,在表结构变更的过程中,线上的服务不受任何的影响。明细、汇总一体化在实际的业务场景中,通常存在两种场景并存的分析需求:对固定维度的聚合分析和对原始明细数据的查询。在这种情况下,StarRocks支持对原表构建物化视图,数据更新的时候,物化视图跟随原表一起进行更新,保证数据的一致性。当用户查询时,并不感知物化视图的存在,不必显式的指定物化视图的名称,查询优化器可以根据查询条件自动判断是否可以路由到相应的物化视图上。外表能力StarRocks支持以外部表的形式,接入其他数据源包括MySQL、HDFS、Elasticsearch、Hive等。比如可以使用StarRocks建立Elasticsearch的外表,为Elasticsearch提供SQL查询的能力。基于多点报表业务真实场景的性能测试单表聚合查询在现有的数据T+1更新的汇总业务场景中,选取了多点报表业务中的“单品销售分析”场景进行测试,单表单天数据亿级别,上百个维度和分析指标,属于典型的基于“大宽表”的Adhoc查询场景。在相同情况(机器配置、数据量、SQL)下进行ClickHouse对比StarRocks的性能测试:横坐标:分区(天)数-并发数;纵坐标:响应时长(ms)从查询响应时长来看,单表的聚合查询,ClickHouse与StarRocks的查询响应时长相差不多。多表关联查询在现有的数据T+1更新多表关联的汇总分析业务场景中,选取了现在多点报表业务中的“门店销售分析”场景进行测试,事实表单天数据亿级别,多个维表数据量在十万级别,属于典型的高维分析场景。在相同情况(机器配置、数据量、SQL)下进行ClickHouse对比StarRocks的性能测试:横坐标:分区(天)数-并发数;纵坐标:响应时长(ms)从查询响应时长来看,多表关联聚合查询,StarRocks的性能要优于ClickHouse。实时更新读写查询在现有的数据准实时更新(边写边读)的汇总查询业务场景中,选取了“实时销售分析”场景进行测试,订单数据实时更新,单天数据量亿级别。属于典型的“实时更新,实时查询”场景。在相同情况(机器配置、数据量、SQL)下进行ImpalaonKudu对比StarRocks的性能测试:横坐标:分区(天)数-并发数;纵坐标:响应时长(ms)。从查询响应时长来看,在边读边写的情况下,聚合查询的SQL,StarRocks的性能要优于ImpalaonKudu。实践经验多点目前已经在高维业务指标报表、Adhoc分析、实时全链路监控等场景中引入了StarRocks,在使用中总结出以下经验:

集群拆分

由于StarRocks极简的架构设计,易于运维部署。我们根据一定的规则,搭建了多套集群,避免业务之间的相互影响。按照数据更新频率进行拆分

例如数据是T+1更新,且单表数据量在百亿级别以上的场景(例如高维业务指标报表、Adhoc分析),我们构建了离线分析集群。通过提高StarRocks的查询并发(parallel_fragment_exec_instance_num)、单节点内存限制(exec_mem_limit)等对复杂查询友好的参数,提高集群的查询性能;针对数据是准实时更新,写多读多的场景(实时报表、实时全链路监控),我们构建了实时分析集群,通过调整StarRocks的


转载请注明:http://www.aierlanlan.com/cyrz/5988.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了