深入浅出大数据存储架构如何设计才能满足需求_第1页
深入浅出大数据存储架构如何设计才能满足需求_第2页
深入浅出大数据存储架构如何设计才能满足需求_第3页
深入浅出大数据存储架构如何设计才能满足需求_第4页
深入浅出大数据存储架构如何设计才能满足需求_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

-17-深入浅出大数据存储架构,如何设计才能满足需求?任何应用系统都离不开对数据的处理,数据也是驱动业务创新以及向智能化进展最核心的东西。数据处理的技术已经是核心竞争力。在一个完备的技术架构中,通常也会由应用系统以及数据系统构成。应用系统负责处理业务规律,而数据系统负责处理数据。本篇文章主要面对数据系统的研发工程师和架构师,盼望对你有所启发。

任何应用系统都离不开对数据的处理,数据也是驱动业务创新以及向智能化进展最核心的东西。数据处理的技术已经是核心竞争力。在一个完备的技术架构中,通常也会由应用系统以及数据系统构成。应用系统负责处理业务规律,而数据系统负责处理数据。本篇文章主要面对数据系统的研发工程师和架构师,盼望对你有所启发。

前言

传统的数据系统就是所谓的『大数据』技术,这是一个被制造出来的名词,代表着新的技术门槛。近几年得益于产业的进展、业务的创新、数据的爆发式增长以及开源技术的广泛应用,经受多年的磨炼以及在广阔开发者的共建下,大数据的核心组件和技术架构日趋成熟。特殊是随着云的进展,让『大数据』技术的使用门槛进一步降低,越来越多的业务创新会由数据来驱动完成。

『大数据』技术会逐步向轻量化和智能化方向进展,最终也会成为一个研发工程师的必备技能之一,而这个过程必需是由云计算技术来驱动以及在云平台之上才能完成。应用系统和数据系统也会渐渐融合,数据系统不再隐蔽在应用系统之后,而是也会贯穿在整个业务交互规律。传统的应用系统,重点在于交互。而现代的应用系统,在与你交互的同时,会渐渐地熟识你。数据系统的进展驱动了业务系统的进展,从业务化到规模化,再到智能化。

业务化:完成最基本的业务交互规律。

规模化:分布式和大数据技术的应用,满意业务规模增长的需求以及数据的积累。

智能化:人工智能技术的应用,挖掘数据的价值,驱动业务的创新。

向规模化和智能化的进展,仍旧存在肯定的技术门槛。成熟的开源技术的应用能让一个大数据系统的搭建变得简洁,同时大数据架构也变得很普遍,例如广为人知的Lambda架构,肯定程度上降低了技术的入门门槛。但是对数据系统的后续维护,例如对大数据组件的规模化应用、运维管控和成本优化,需要把握大数据、分布式技术及简单环境下定位问题的力量,仍旧具备很高的技术门槛。

数据系统的核心组件包含数据管道、分布式存储和分布式计算,数据系统架构的搭建会是使用这些组件的组合拼装。每个组件各司其职,组件与组件之间进行上下游的数据交换,而不同模块的选择和组合是架构师面临的最大的挑战。

本篇文章主要面对数据系统的研发工程师和架构师,我们会首先对数据系统核心组件进行拆解,介绍每个组件下对应的开源组件以及云上产品。之后会深化剖析数据系统中结构化数据的存储技术,介绍阿里云Tablestore选择哪种设计理念来更好的满意数据系统中对结构化数据存储的需求。

数据系统架构

核心组件

上图是一个比较典型的技术架构,包含应用系统和数据系统。这个架构与详细业务无关联,主要用于体现一个数据应用系统中会包含的几大核心组件,以及组件间的数据流关系。应用系统主要实现了应用的主要业务规律,处理业务数据或应用元数据等。数据系统主要对业务数据及其他数据进行汇总和处理,对接BI、推举或风控等系统。整个系统架构中,会包含以下比较常见的几大核心组件:

关系数据库:用于主业务数据存储,供应事务型数据处理,是应用系统的核心数据存储。

高速缓存:对简单或操作代价昂贵的结果进行缓存,加速访问。

搜寻引擎:供应简单条件查询和全文检索。

队列:用于将数据处理流程异步化,连接上下游对数据进行实时交换。异构数据存储之间进行上下游对接的核心组件,例如数据库系统与缓存系统或搜寻系统间的数据对接。也用于数据的实时提取,在线存储到离线存储的实时归档。

非结构化大数据存储:用于海量图片或视频等非结构化数据的存储,同时支持在线查询或离线计算的数据访问需求。

结构化大数据存储:在线数据库也可作为结构化数据存储,但这里提到的结构化数据存储模块,更偏在线到离线的连接,特征是能支持高吞吐数据写入以及大规模数据存储,存储和查询性能可线性扩展。可存储面对在线查询的非关系型数据,或者是用于关系数据库的历史数据归档,满意大规模和线性扩展的需求,也可存储面对离线分析的实时写入数据。

批量计算:对非结构化数据和结构化数据进行数据分析,批量计算中又分为交互式分析和离线计算两类,离线计算需要满意对大规模数据集进行简单分析的力量,交互式分析需要满意对中等规模数据集实时分析的力量。

流计算:对非结构化数据和结构化数据进行流式数据分析,低延迟产出实时视图。

对于数据存储组件我们再进一步分析,当前各类数据存储组件的设计是为满意不同场景下数据存储的需求,供应不同的数据模型抽象,以及面对在线和离线的不同的优化偏向。我们来看下下面这张具体对比表:

派生数据体系

在数据系统架构中,我们可以看到会存在多套存储组件。对于这些存储组件中的数据,有些是来自应用的直写,有些是来自其他存储组件的数据复制。例如业务关系数据库的数据通常是来自业务,而高速缓存和搜寻引擎的数据,通常是来自业务数据库的数据同步与复制。不同用途的存储组件有不同类型的上下游数据链路,我们可以也许将其归类为主存储和辅存储两类,这两类存储有不同的设计目标,主要特征为:

主存储:数据产生自业务或者是计算,通常为数据首先落地的存储。ACID等事务特性可能是强需求,供应在线应用所需的低延迟业务数据查询。

辅存储:数据主要来自主存储的数据同步与复制,辅存储是主存储的某个视图,通常面对数据查询、检索和分析做优化。

为何会有主存储和辅存储的存在?能不能统一存储统一读写,满意全部场景的需求呢?目前看还没有,存储引擎的实现技术有多种,选择行存还是列存,选择B+tree还是LSM-tree,存储的是不行变数据、频繁更新数据还是时间分区数据,是为高速随机查询还是高吞吐扫描设计等等。数据库产品目前也是分两类,TP和AP,虽然在往HTAP方向走,但实现方式仍旧是底层存储分为行存和列存。

再来看主辅存储在实际架构中的例子,例如关系数据库中主表和二级索引表也可以看做是主与辅的关系,索引表数据会随着主表数据而变化,强全都同步并且为某些特定条件组合查询而优化。关系数据库与高速缓存和搜寻引擎也是主与辅的关系,采纳满意最终全都的数据同步方式,供应高速查询和检索。在线数据库与数仓也是主与辅的关系,在线数据库内数据集中复制到数仓来供应高效的BI分析。

这种主与辅的存储组件相辅相成的架构设计,我们称之为『派生数据体系』。在这个体系下,最大的技术挑战是数据如何在主与辅之间进行同步与复制。

上图我们可以看到几个常见的数据复制方式:

应用层多写:这是实现最简洁、依靠最少的一种实现方式,通常实行的方式是在应用代码中先向主存储写数据,后向辅存储写数据。这种方式不是很严谨,通常用在对数据牢靠性要求不是很高的场景。由于存在的问题有许多,一是很难保证主与辅之间的数据全都性,无法处理数据写入失效问题;二是数据写入的消耗积累在应用层,加重应用层的代码简单度和计算负担,不是一种解耦很好的架构;三是扩展性较差,数据同步规律固化在代码中,比较难敏捷添加辅存储。

异步队列复制:这是目前被应用比较广的架构,应用层将派生数据的写入通过队列来异步化和解耦。这种架构下可将主存储和辅存储的数据写入都异步化,也可仅将辅存储的数据写入异步化。第一种方式必需接受主存储可异步写入,否则只能实行其次种方式。而假如采纳其次种方式的话,也会遇到和上一种『应用层多写』方案类似的问题,应用层也是多写,只不过是写主存储与队列,队列来解决多个辅存储的写入和扩展性问题。

CDC(ChangeDataCapture)技术:这种架构下数据写入主存储后会由主存储再向辅存储进行同步,对应用层是最友好的,只需要与主存储打交道。主存储到辅存储的数据同步,则可以再利用异步队列复制技术来做。不过这种方案对主存储的力量有很高的要求,必需要求主存储能支持CDC技术。一个典型的例子就是MySQL+Elasticsearch的组合架构,Elasticsearch的数据通过MySQL的binlog来同步,binlog就是MySQL的CDC技术。

『派生数据体系』是一个比较重要的技术架构设计理念,其中CDC技术是更好的驱动数据流淌的关键手段。具备CDC技术的存储组件,才能更好的支撑数据派生体系,从而能让整个数据系统架构更加敏捷,降低了数据全都性设计的简单度,从而来面对高速迭代设计。惋惜的是大多数存储组件不具备CDC技术,例如HBase。而阿里云Tablestore具备特别成熟的CDC技术,CDC技术的应用也推动了架构的创新,这个在下面的章节会具体介绍。

一个好的产品,在产品内部会采纳派生数据架构来不断扩充产品的力量,能将派生的过程透亮     化,内部解决数据同步、全都性及资源配比问题。而现实中大多数技术架构采纳产品组合的派生架构,需要自己去管理数据同步与复制等问题,例如常见的MySQL+Elasticsearch,或HBase+Solr等。这种组合通常被忽视的最大问题是,在解决CDC技术来实时复制数据后,如何解决数据全都性问题?如何追踪数据同步延迟?如何保证辅存储与主存储具备相同的数据写入力量?

存储组件的选型

架构师在做架构设计时,最大的挑战是如何对计算组件和存储组件进行选型和组合,同类的计算引擎的差异化相对不大,通常会优先选择成熟和生态健全的计算引擎,例如批量计算引擎Spark和流计算引擎Flink。而对于存储组件的选型是一件特别有挑战的事,存储组件包含数据库(又分为SQL和NoSQL两类,NoSQL下又依据各类数据模型细分为多类)、对象存储、文件存储和高速缓存等不同类别。带来存储选型简单度的主要缘由是架构师需要综合考虑数据分层、成本优化以及面对在线和离线的查询优化偏向等各种因素,且当前的技术进展还是多样化的进展趋势,不存在一个存储产品能满意全部场景下的数据写入、存储、查询和分析等需求。有一些阅历可以共享给大家:

数据模型和查询语言仍旧是不同数据库最显著的区分,关系模型和文档模型是相对抽象的模型,而类似时序模型、图模型和键值模型等其他非关系模型是相对具象的抽象,假如场景能匹配到具象模型,那选择范围能缩小点。

存储组件通常会划分到不同的数据分层,选择面对规模、成本、查询和分析性能等不同维度的优化偏向,选型时需要考虑清晰对这部分数据存储所要求的核心指标。

区分主存储还是辅存储,对数据复制关系要有明确的梳理。(主存储和辅存储是什么在下一节介绍)

建立敏捷的数据交换通道,满意快速的数据搬迁和存储组件间的切换力量,构建快速迭代力量比应对未知需求的扩展性更重要。

另外关于数据存储架构,我认为最终的趋势是:

数据肯定需要分层

数据最终的归属地肯定是OSS

会由一个统一的分析引擎来统一分析的入口,并供应统一的查询语言

结构化大数据存储

定位

结构化大数据存储在数据系统中是一个特别关键的组件,它起的一个很大的作用是连接『在线』和『离线』。作为数据中台中的结构化数据汇总存储,用于在线数据库中数据的汇总来对接离线数据分析,也用于离线数据分析的结果集存储来直接支持在线查询或者是数据派生。依据这样的定位,我们总结下对结构化大数据存储的几个关键需求。

关键需求

大规模数据存储:结构化大数据存储的定位是集中式的存储,作为在线数据库的汇总(大宽表模式),或者是离线计算的输入和输出,必需要能支撑PB级规模数据存储。

高吞吐写入力量:数据从在线存储到离线存储的转换,通常是通过ETL工具,T+1式的同步或者是实时同步。结构化大数据存储需要能支撑多个在线数据库内数据的导入,也要能承受大数据计算引擎的海量结果数据集导出。所以必需能支撑高吞吐的数据写入,通常会采纳一个为写入而优化的存储引擎。

丰富的数据查询力量:结构化大数据存储作为派生数据体系下的辅存储,需要为支撑高效在线查询做优化。常见的查询优化包括高速缓存、高并发低延迟的随机查询、简单的任意字段条件组合查询以及数据检索。这些查询优化的技术手段就是缓存和索引,其中索引的支持是多元化的,面对不同的查询场景供应不同类型的索引。例如面对固定组合查询的基于B+tree的二级索引,面对地理位置查询的基于R-tree或BKD-tree的空间索引或者是面对多条件组合查询和全文检索的倒排索引。

存储和计算成本分别:存储计算分别是目前一个比较热的架构实现,对于一般应用来说比较难体会到这个架构的优势。在云上的大数据系统下,存储计算分别才能完全发挥优势。存储计算分别在分布式架构中,最大的优势是能供应更敏捷的存储和计算资源管理手段,大大提高了存储和计算的扩展性。对成本管理来说,只有基于存储计算分别架构实现的产品,才能做到存储和计算成本的分别。

存储和计算成本的分别的优势,在大数据系统下会更加明显。举一个简洁的例子,结构化大数据存储的存储量会随着数据的积累越来越大,但是数据写入量是相对平稳的。所以存储需要不断的扩大,但是为了支撑数据写入或临时的数据分析而所需的计算资源,则相对来说比较固定,是按需的。

数据派生力量:一个完整的数据系统架构下,需要有多个存储组件并存。并且依据对查询和分析力量的不同要求,需要在数据派生体系下对辅存储进行动态扩展。所以对于结构化大数据存储来说,也需要有能扩展辅存储的派生力量,来扩展数据处理力量。而推断一个存储组件是否具备更好的数据派生力量,就看是否具备成熟的CDC技术。

计算生态:数据的价值需要靠计算来挖掘,目前计算主要划为批量计算和流计算。对于结构化大数据存储的要求,一是需要能够对接主流的计算引擎,例如Spark、Flink等,作为输入或者是输出;二是需要有数据派生的力量,将自身数据转换为面对分析的列存格式存储至数据湖系统;三是自身供应交互式分析力量,更快挖掘数据价值。

满意第一个条件是最基本要求,满意其次和第三个条件才是加分项。

开源产品

目前开源界比较知名的结构化大数据存储是HBase和Cassandra,Cassandra是WideColumn模型NoSQL类别下排名Top-1的产品,在国外应用比较广泛。但这里我们重点提下HBase,由于在国内的话相比Cassandra会更流行一点。

HBase是基于HDFS的存储计算分别架构的WideColumn模型数据库,拥有特别好的扩展性,能支撑大规模数据存储,它的优点为:

存储计算分别架构:底层基于HDFS,分别的架构可带来存储和计算各自弹性扩展的优势,与计算引擎例如Spark可共享计算资源,降低成本。

LSM存储引擎:为写入优化设计,能供应高吞吐的数据写入。

开发者生态成熟,接入主流计算引擎:作为进展多年的开源产品,在国内也有比较多的应用,开发者社区很成熟,对接几大主流的计算引擎。

HBase有其突出的优点,但也有几大不行忽视的缺陷:

查询力量弱:供应高效的单行随机查询以及范围扫描,简单的组合条件查询必需使用Scan+Filter的方式,稍不留意就是全表扫描,效率极低。HBase的Phoenix供应了二级索引来优化查询,但和MySQL的二级索引一样,只有符合最左匹配的查询条件才能做索引优化,可被优化的查询条件特别有限。

数据派生力量弱:前面章节提到CDC技术是支撑数据派生体系的核心技术,HBase不具备CDC技术。HBaseReplication具备CDC的力量,但是仅为HBase内部主备间的数据同步机制。有一些开源组件利用其内置Replication力量来尝试扩展HBase的CDC技术,例如用于和Solr同步的LilyIndexer,但是比较惋惜的是这类组件从理论和机制上分析就没法做到CDC技术所要求的数据保序、最终全都性保证等核心需求。

成本高:前面提到结构化大数据存储的关键需求之一是存储与计算的成本分别,HBase的成本取决于计算所需CPU核数成本以及磁盘的存储成本,基于固定配比物理资源的部署模式下CPU和存储永久会有一个无法降低的最小比例关系。即随着存储空间的增大,CPU核数成本也会相应变大,而不是按实际所需计算资源来计算成本。要达到完全的存储与计算成本分别,只有云上的Serverless服务模式才能做到。

运维简单:HBase是标准的Hadoop组件,最核心依靠是Zookeeper和HDFS,没有专业的运维团队几乎无法运维。

热点处理力量差:HBase的表的分区是RangePartition的方式,相比HashPartition的模式最大的缺陷就是会存在严峻的热点问题。HBase供应了大量的最佳实践文档来指引开发者在做表的Rowkey设计的时候避开热点,例如采纳hashkey,或者是salted-table的方式。但这两种方式下能保证数据的分散匀称,但是无法保证数据访问的热度匀称。访问热度取决于业务,需要一种能依据热度来对Region进行Split或Move等负载均衡的自动化机制。

国内的高级玩家大多会基于HBase做二次开发,基本都是在做各种方案来弥补HBase查询力量弱的问题,依据自身业务查询特色研发自己的索引方案,例如自研二级索引方案、对接Solr做全文索引或者是针对区分度小的数据集的bitmap索引方案等等。总的来说,HBase是一个优秀的开源产品,有许多优秀的设计思路值得借鉴。

Tablestore

Tablestore是阿里云自研的结构化大数据存储产品,详细产品介绍可以参考官网以及权威指南。Tablestore的设计理念很大程度上顾及了数据系统内对结构化大数据存储的需求,并且基于派生数据体系这个设计理念特地设计和实现了一些特色的功能。

★设计理念

Tablestore的设计理念一方面汲取了优秀开源产品的设计思路,另一方面也是结合实际业务需求演化出了一些特色设计方向,简洁概括下Tablestore的技术理念:

存储计算分别架构:采纳存储计算分别架构,底层基于飞天盘古分布式文件系统,这是实现存储计算成本分别的基础。

LSM存储引擎:LSM和B+tree是主流的两个存储引擎实现,其中LSM专为高吞吐数据写入优化,也能更好的支持数据冷热分层。

Serverless产品形态:基于存储计算分别架构来实现成本分别的最关键因素是Serverless服务化,只有Serverless服务才能做到存储计算成本分别。大数据系统下,结构化大数据存储通常会需要定期的大规模数据导入,来拘束线数据库或者是来自离线计算引擎,在此时需要有足够的计算力量能接纳高吞吐的写入,而平常可能仅需要比较小的计算力量,计算资源要足够的弹性。另外在派生数据体系下,主存储和辅存储通常是异构引擎,在读写力量上均有差异,有些场景下需要敏捷调整主辅存储的配比,此时也需要存储和计算资源弹性可调。

多元化索引,供应丰富的查询力量:LSM引擎特性打算了查询力量的短板,需要索引来优化查询。而不同的查询场景需要不同类型的索引,所以Tablestore供应多元化的索引来满意不同类型场景下的数据查询需求。

CDC技术:Tablestore的CDC技术名为TunnelService,支持全量和增量的实时数据订阅,并且能无缝对接Flink流计算引擎来实现表内数据的实时流计算。

拥抱开源计算生态:除了比较好的支持阿里云自研计算引擎如MaxCompute和DataLakeAnalytics的计算对接,也能支持Flink和Spark这两个主流计算引擎的计算需求,无需数据搬迁。

流批计算一体:能支持Spark对表内全量数据进行批计算,也能通过CDC技术对接Flink来对表内新增数据进行流计算,真正实现批流计算结合。

★特色功能

多元化索引

Tablestore供应多种索引类型可选择,包含全局二级索引和多元索引。全局二级索引类似于传统关系数据库的二级索引,能为满意最左匹配原则的条件查询做优化,供应低成本存储和高效的随机查询和范围扫描。多元索引能供应更丰富的查询功能,包含任意列的组合条件查询、全文搜寻和空间查询,也能支持轻量级数据分析,供应基本的统计聚合函数,两种索引的对比和选型可参考这篇文章。

通道服务

通道服务是Tablestore的CDC技术,是支撑数据派生体系的核心功能,详细力量可参考这篇文章。能够被利用在异构存储间的数据同步、大事驱动编程、表增量数据实时订阅以及流计算场景。目前在云上Tablestore与Blink能无缝对接,也是唯一一个能直接作为Blink的streamsource的结构化大数据存储。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论